Donnerstag, Mai 19, 2022
StartAktuellesTägliche Meldungen

Tägliche Meldungen

Meldungen 2010 Meldungen 2011 Meldungen 2012 Meldungen 2013
Meldungen 2014 Meldungen 2015 Meldungen 2016 Meldungen 2017
Meldungen 2018 Meldungen 2019 Meldungen 2020 Meldungen 2021

 
Mai 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
18.05.2022 Ökologische Funktionen von Fließgewässern weltweit stark beeinträchtigt / Metastudie zeigt maßgebliche Stressoren
16.05.2022 Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt
14.05.2022 Fraunhofer UMSICHT auf IFAT 2022: Kreislaufführung von Wasser und Nutzungskonzepte für Biomasse
12.05.2022 Hochwasserschutz mit Mehrfachnutzen: Mehr Raum für Flüsse
11.05.2022 Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten
10.05.2022 Wasseraufbereitung: Licht hilft beim Abbau von Hormonen
09.05.2022 Neue Studie: Fließgewässer an Ackerflächen senken Schadstoffe im Wasserkreislauf
08.05.2022 Der Wald als Schutzraum für Insekten in wärmeren Klimazonen?
07.05.2022 Lachgas – alles andere als träge
05.05.2022 Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten
03.05.2022 Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt
Gesundheit
15.05.2022 COVID-19: Wie Impfung und frühere Infektionen auch gegen Omikron helfen
13.05.2022 Grauer Star: Beide Augen am selben Tag operieren? Neuer Cochrane Review wertet Evidenz aus.
06.05.2022 Sonnenschutzkampagne will Hautkrebsrisiko im Sport senken
04.05.2022 Coronaviren auf Glas: Handelsübliche Spülmittel und manuelle Gläserspülgeräte entfernen Viren effektiv
Gesellschaft
17.05.2022 3D-Metalldruck – Der Schlüssel zu einer effektiven Instandhaltung im Maschinenbau
02.05.2022 Girls’Day und Boys’Day 2022: mehr als 115.000 Schülerinnen und Schüler machten mit
01.05.2022 Belastungen in der modernen Arbeitswelt – Herausforderung für den Arbeitsschutz?
April 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.04.2022 Erste weltweite Analyse der Bedrohung aller Reptilienarten
28.04.2022 Energieträger der Zukunft auf Schiffen – Deutsches Maritimes Zentrum stellt Kraftstoff-Portfolio vor
27.04.2022 Klimaneutral heizen statt Erdgas verbrennen: So schaffen Städte die Wärmewende
23.04.2022 Nach der Kirschblüte lauert die Essigfliege
22.04.2022 Der Himmel benötigt Schutz genau wie die Erde
19.04.2022 Wasseraufbereitung: Licht hilft beim Abbau von Hormonen
18.04.2022 Ein Schwarm von 85.000 Erdbeben am antarktischen Unterwasservulkan Orca
14.04.2022 Energiewende: Solarzellen der nächsten Generation werden immer effizienter
13.04.2022 Mikroplastik – Erforschen und Aufklären
12.04.2022 Was machen Vulkane mit unserem Klima?
10.04.2022 Mit dem Laser gegen Mikroplastik
09.04.2022 Ein einziges Gen steuert die Artenvielfalt in einem Ökosystem
08.04.2022 Studie zeigt: Fische können rechnen
05.04.2022 Detektion von Wasserstoff durch Glasfasersensoren
04.04.2022 H2Wood – BlackForest: Biowasserstoff aus Holz | BMBF fördert Vorhaben zur Einsparung von CO2 mit 12 Millionen Euro
02.04.2022 Entstehung von Smog
Gesundheit
25.04.2022 Mit Herzerkrankungen leben – Tipps von Kardiologie-Experten
21.04.2022 COVID-19-Therapie: Zusammen ist besser als allein
17.04.2022 Neues Sinnesorgan entdeckt
06.04.2022 Einfluss von Handystrahlung auf die Nahrungsaufnahme nachgewiesen
01.04.2022 Corona macht Frauen unglücklicher als Männer
Gesellschaft
30.04.2022 Zukunft der Innenstädte und Ortsmitten – Studierende zeigen Arbeiten in Galerie der Schader-Stiftung
26.04.2022 Fleischkonsum muss um mindestens 75 Prozent sinken
24.02.2022 Quantencomputing: Neue Potenziale für automatisiertes maschinelles Lernen
20.04.2022 Welchen Fußball wollen wir?
16.04.2022 Social-Media-Workshop „Digitale Zukunft mit Dir!“ am 21. April 2022
15.04.2022 Wie viel „Ich“ steckt im eigenen Avatar?
11.04.2022 Hohe Erwartungen, unklarer Nutzen: Industrie 4.0 und der Wandel zu nachhaltigem Wirtschaften
03.04.2022 Fraunhofer-Projekt ML4P optimiert Effizienz der Industrieproduktion
März 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.03.2022 Freiwillige untersuchen die Stickstoffbelastung von Gewässern
30.03.2022 Zurück in den Kreislauf: Menschlicher Urin wird zu Recyclingdünger für Berliner Gemeinschaftsgärten
28.03.2022 Pressemitteilung – Windparks verändern die Nordsee
26.03.2022 Mikrobiologen zeigen, wie wichtig Ammonium-oxidierende Mikroorganismen für Deutschlands größten See sind
24.03.2022 Entscheidende Phase für erfolgreichen Wasserstoff-Markthochlauf
22.03.2022 Weltwassertag am 22. März – Genug trinken: Reicht der Durst als Signalgeber?
20.03.2022 Praxiseinstieg in digitale Ökosysteme am Beispiel Gaia-X
19.03.2022 Kohlenstoffspeicherung in Küstenökosystemen verbessern
17.03.2022 Starke Kooperation von Universität in Koblenz, Hochschule Koblenz und Bundesanstalt für Gewässerkunde vereinbart
16.03.2022 Zwei Extreme zur gleichen Zeit: Niederschläge entscheiden, wie oft Dürren u. Hitzewellen gemeinsam auftreten werden
13.03.2022 Energiekrise: „Japan kann ein Vorbild sein“
10.03.2022 Alle Lebewesen bilden Methan
09.03.2022 Neues Tool ermittelt betrieblichen Klimafußabdruck
08.03.2022 Vernetzungskonferenz: Klimaanpassungsmaßnahmen – erfolgreich durch Dialog
06.03.2022 Energiesparen mit Magnonen: Magnetische Anregungen übertragen Informationen ohne Wärmeverlust
04.03.2022 Wegweisendes Pilotprojekt RoKKa erzeugt Dünger und Rohstoffe aus Abwasser
03.03.3022 Methan: Leckagen an Biogasanlagen verhindern – Strategien zur Verhinderung des Methanschlupfs vorgelegt
02.03.2022 „klimafit“ – Wissen für den Klimawandel vor der Haustür
Gesundheit
29.03.2022 KIT: Bundesweites Pilotprojekt zum Corona-Nachweis im Abwasser
27.03.2022 SARS-CoV-2 geht ins Auge
23.03.2022 Blutfette geben neue Einblicke in den Zusammenhang von Ernährung mit Diabetes und Herz-Kreislauf-Erkrankungen
21.03.2022 Tippen mit beiden Händen beugt dem Handydaumen vor
18.03.2022 Übergewicht vorbeugen
14.03.2022 Pandemiegefahren sicher simulieren
12.03.2022 Wie kann die Digitalisierung des Gesundheitssystems beschleunigt werden?
05.03.2022 Gesundheitsdaten handlungsfähig machen und patientenorientierte Gesundheitsversorgung sicherstellen
Gesellschaft
25.03.2022 Umdenken bei der Bekämpfung von Infektionskrankheiten durch gezielte Strategien für den Arbeitsplatz
15.03.2022 Zwischen Datenschutz und Vertrauen – wenn das Auto zu viel weiß
11.03.2022 Millionenförderung für Cybersicherheit
07.03.2022 Kollateralschaden: das Ende von SWIFT?
01.03.2022 Chatbot oder Mensch – Wer entscheidet besser bei der Rekrutierung? FAU-Team legt Studie zur KI im Personalwesen vor
Februar 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
26.02.2022 Studie: Umweltfachleute unterstützen Umweltpolitik jenseits des Wirtschaftswachstums
25.02.2022 Hilfe für Meer und Küste
22.02.2022 Mikrobielle Saubermänner räumen Kläranlagen auf
21.02.2022 Abwasserwiederverwendung – der Weg aus der weltweiten Wasserknappheit?
18.02.2022 Regionaler Gemüseanbau auf der Kläranlage
17.02.2022 FH-Forscher entwickelt Sensor zur Überwachung von Biogasanlagen
15.02.2022 Vergleich mit Verbrenner: Elektrofahrzeuge haben beste CO2-Bilanz
12.02.2022 Ladenburger Kolleg „Zukünftige Wasserkonflikte in Deutschland“
10.02.2022 Untersuchung von Feinstaub unterschiedlicher Emissionen
09.02.2022 Vom Tagebau zum Pumpspeicherkraftwerk
05.02.2022 KIT: Landnutzung: Plädoyer für einen gerechten Artenschutz
03.02.2022 Wasser in Berlin: Gewässer- und Flächenmanagement gemeinsam betrachten
Gesundheit
28.02.2022 PFH sucht Teilnehmende für wissenschaftliche Studie zur Belastung durch Covid-19-Pandemie
23.02.2022 Darmkrebs-Screening: Welche Strategie ist am wirksamsten?
19.02.2022 Neuer Omikron-Subtyp auf dem Vormarsch
16.02.2022 Corona-Impfung: Zweitimpfung mit Biontech steigert Immunantwort effektiver als mit Astra
14.02.2022 Der schwierige Weg zur Diagnose: COVID-19 als Berufskrankheit
07.02.2022 Warum altern wir? Die Rolle der natürlichen Selektion
04.02.2022 Gesünderes Licht für Schichtarbeit
02.02.2022 Blutdruck im Alter: Je höher – desto besser? Höhere Zielwerte bei gebrechlichen Personen können vorteilhaft sein
Gesellschaft
27.02.2022 Skepsis gegenüber Zuwanderung nimmt in Deutschland weiter ab
24.02.2022 Die Millionen-Frage: Wie lösen wir komplexe Probleme?
20.02.2022 Salmonellengefahr für Hundebesitzer
13.02.2022 Große politische Veränderungen beeinflussen das Wohlbefinden von Beschäftigten
11.02.2022 Wie das Leben auf die Erde kam
08.02.2022 Fehlverhalten von Führungskräften kann Unternehmen Milliarden kosten
06.02.2022 Neuer Geist in alter Hardware – Vermeidung von Elektroschrott durch Freie Software
01.02.2022 Wie Menschen lernen, sich beim Denken gerne anzustrengen
Januar 2022
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.01.2022 Mikroplastik in der Umwelt: Daten reichen nicht aus
29.01.2022 Wasserstofftechnologie: Elektrolyseure sollen Massenware werden
26.01.2022 Bestätigt: Wird Klärschlamm auf Äcker gegeben, kann Mikroplastik tief in den Boden und auf angrenzende Felder geraten
24.01.2022 Klimawandel und Waldbrände könnten Ozonloch vergrößern
19.01.2022 Bodenversalzung gefährdet unsere Umwelt: Klimawandel verschärft das Problem der Bodendegradation
18.01.2022 Weltweit größtes Fischbrutgebiet in der Antarktis entdeckt
16.01.2022 Ökologische Wasserreinigung in Aquakulturen – mit weniger Aufwand!
15.01.2022 Mehr Regentage schaden der Wirtschaft
13.01.2022 Neue Abteilungen der Gewässerforschung am IGB
12.01.2022 Arktische Küsten im Wandel
11.01.2022 Wie das Amazonasbecken die Atacama-Wüste bewässert
07.01.2022 Digitaler Vortrag: Wie gelingt die Energiewende? Soziale Innovationen als Motor der Transformation.
04.01.2022 Bundesregierung sollte Atompläne der EU nicht rundheraus ablehnen
01.01.2022 Nano-Pralinen speichern Wasserstoff
Gesundheit
31.01.2022 Morgensport vs. Abendsport: Forschende entschlüsseln die unterschiedlichen Auswirkungen auf unsere Gesundheit
28.01.2022 Bergische Uni untersucht Ausdauer und Leistungsfähigkeit beim Tragen von FFP2-Masken
23.01.2022 Antikörper nach SARS-CoV-2-Infektion – neue Erkenntnisse über die Sensitivität und Nachweisdauer von Antikörpertests
14.01.2022 Corona in wastewater at record high
10.01.2022 Bundesgesundheitsministerium fand niemanden für Studie zu Corona-Ausbrüchen in Pflegeeinrichtungen
03.01.2022 Untersuchung zur Wiederverwendbarkeit von FFP2-Masken: Hält die Schutzwirkung?
02.01.2022 Herz-Kreislauf-Forschung lieferte Blaupause für universitäre COVID-19-Forschung
Gesellschaft
27.01.2022 Covid-19-bedingte Fehlzeiten erreichten im November 2021 vorläufigen Höchststand
24.01.2022 Online-Studie: Was bedeutende Lebensereignisse bewirken
22.01.2022 GBP-Monitor: Fast zwei Drittel der Unternehmen plant Preiserhöhungen – und 3G am Arbeitsplatz ist sehr umstritten
21.01.2022 Mit Remote Attestation gegen Hacker: Schutz für sicherheitskritische Systeme
20.01.2022 Psychische Gesundheit in der Arbeitswelt stärken
17.01.2022 Coronapandemie dämpft Anstieg – Entwicklung der tariflichen Ausbildungsvergütungen 2021
09.01.2022 Ungleicher Fahrradboom: Fahrrad wird immer mehr zum Statussymbol
08.01.2022 Leuphana informiert live über berufsbegleitende Studiengänge
06.01.2022 Niedrige Monatsentgelte: Je nach Region zwischen 6 und 43 Prozent betroffen
05.01.2022 Frauen in der Digitalbranche: Der lange Weg der Drishti Maharjan

 


Ökologische Funktionen von Fließgewässern weltweit stark beeinträchtigt / Metastudie zeigt maßgebliche Stressoren

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Landwirtschaft, Habitatverlust oder Abwässer – menschgemachte Stressoren wirken sich negativ auf die biologische Vielfalt in Bächen und Flüssen aus. In welchem Maße dabei auch ihr Vermögen zur Selbstreinigung und andere wichtige Ökosystemleistungen in Mitleidenschaft gezogen werden, darüber weiß man noch sehr wenig. Mit einer kürzlich im Fachjournal Global Change Biology veröffentlichten Metastudie hat ein internationales Forschungsteam unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) den weltweiten Stand der Forschung dazu erfasst – und gibt damit neue Impulse für ein verbessertes Gewässermanagement.

Fließgewässer sind die Lebensadern unserer Erde, Hotspots der Biodiversität und für den Menschen unverzichtbare Lebensgrundlage: Sie stellen Trinkwasser bereit, dienen dem Hochwasserschutz und werden zur Bewässerung landwirtschaftlicher Flächen genutzt. Doch der Mensch nimmt Einfluss auf Gewässersysteme und deren ökologische Funktionen – unter anderem durch Veränderung der natürlichen Gewässerstruktur, Landwirtschaft oder Einleitung von Abwässern. „Das alles geht natürlich nicht spurlos an den Fließgewässern vorüber“, sagt Dr. Mario Brauns, Wissenschaftler am UFZ-Department Fließgewässerökologie. „Die allermeisten Studien dazu befassen sich mit den Auswirkungen auf die Biodiversität – was aus unserer Sicht aber nur einen Teil des Problems erfasst. Denn ein Verlust der biologischen Vielfalt kann zwar anzeigen, dass etwas nicht stimmt in einem Gewässer, doch ob und inwieweit seine ökologischen Funktionen in Mitleidenschaft gezogen sind, bleibt unbeantwortet.“

Eine der wichtigsten Ökosystemleistungen von Fließgewässern ist ihre natürliche Reinigungsleistung. Sie kann über verschiedene ökologische Funktionen wie etwa die Nährstoffaufnahme oder die Zersetzung von Laub bewertet werden. Doch wie genau wirken sich menschliche Stressoren auf diese ökologischen Funktionen aus, die für die natürliche Selbstreinigungskraft eines Fließgewässers essenziell sind? „Für unsere Metastudie haben wir gemeinsam mit internationalen Kolleg:innen den aktuellen Stand der Forschung zu dieser Frage zusammentragen“, sagt Brauns. Das Forschungsteam wertete die Fachliteratur nach Studien aus, in denen die Auswirkungen menschlicher Stressoren auf die ökologischen Funktionen von Fließgewässern untersucht wurden. „Wir haben sämtliche weltweit verfügbaren Forschungsarbeiten recherchiert und fanden insgesamt 125 Studien – was im globalen Maßstab wirklich eine sehr geringe Ausbeute ist“, sagt Brauns. „Das hat noch einmal verdeutlicht, wie wenig hierzu bislang geforscht wurde. Und: Die gefundenen Studien wurden vor allem in Europa, Nordamerika oder Kanada durchgeführt. Über die Regionen Asien oder Afrika ist bislang fast nichts bekannt. Hier besteht aus unserer Sicht höchster Forschungs- und Handlungsbedarf.“

Die Auswertung der Studiendaten ergab, dass die Effizienz, mit der Fließgewässer Nitrat zurückhalten können, in Bächen, die durch landwirtschaftlich genutzte Gebiete fließen, fast fünfmal geringer ist als in Bächen mit natürlicher Umgebung. „Das ist wirklich enorm“, sagt Brauns und erklärt: „Landwirtschaftlich geprägte Fließgewässer sind durch hohe Nährstoffkonzentrationen und eine geschädigte Gewässerstruktur so stark belastet, dass sie ihre natürliche ökologische Rückhaltefunktion nicht mehr ausreichend erfüllen können und dadurch einen Großteil ihrer Reinigungsleistung einbüßen.“ Ein weiteres wichtiges Ergebnis der Studie ist die vergleichende Bewertung der Stressoren: Welcher Stressor hat über alle ökologischen Funktionen hinweg die stärksten Auswirkungen? Deutlich auf Platz eins liegt die Einleitung von Abwässern. Auf dem unrühmlichen zweiten Platz die Landwirtschaft und auf Platz drei die Urbanisierung. „Das sind alles Bereiche, in denen wir dringend tätig werden müssen“, sagt Brauns. „Um die Gewässergefährdung besser abschätzen und passende Managementmaßnahmen einleiten zu können, sind die ökologischen Funktionen von Fließgewässern sehr gute und aussagekräftige Indikatoren. Das konnten wir mit unserer Metastudie zeigen. Wir hoffen, dass es in Zukunft vermehrt Studienansätze geben wird, die die ökologischen Funktionen von Fließgewässern in den Fokus nehmen. Und das am besten auf breiter Ebene weltweit – denn es besteht rund um den Globus dringender Handlungsbedarf.“

Wissenschaftliche Ansprechpartner:
Dr. Mario Brauns
UFZ-Department Fließgewässerökologie
mario.brauns@ufz.de

Originalpublikation:
Mario Brauns, Daniel C. Allen, Iola G. Boëchat, Wyatt F. Cross, Verónica Ferreira, Daniel Graeber, Christopher J. Patrick, Marc Peipoch, Daniel von Schiller, Björn Gücker: A global synthesis of human impacts on the multifunctionality of streams and rivers, Global Change Biology, doi: 10.1111/gcb.16210
https://doi.org/10.1111/gcb.16210

(nach oben)


3D-Metalldruck – Der Schlüssel zu einer effektiven Instandhaltung im Maschinenbau

Kristin Ebert Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg
Kick-off für neues Verbundprojekt von BTU Cottbus-Senftenberg und LEAG im Rahmen der WIR!-Initiative. Effektive Lösungen für die Instandhaltung von großen Baumaschinen sparen Zeit und Material.

Individuelle Verfügbarkeit, Passfähigkeit, flexible Fertigung in kleinen Stückzahlen sowie eine hohe Freiheit in Form und Gestalt – das sind die Komponenten, die eine effektive und auf die Zukunft gerichtete Fertigung von Bauteilen im Maschinenbau ausmachen. Der plötzliche Defekt eines Bauteils oder einer Baugruppe kann ganze Produktionsabläufe ins Stocken bringen. Vertragliche Zusagen, Termin- und Lieferketten sind gefährdet. Was vor nicht allzu langer Zeit zu erheblichen Produktionsunterbrechungen führte, ist Gegenstand eines neuen Projektes, in dem die BTU Cottbus-Senftenberg und die MCR Engineering Lausitz GmbH eng zusammenarbeiten. Unter dem Namen MCR Engineering Lausitz vermarktet die LEAG seit Kurzem die Instandhaltung von Schienenfahrzeugen und großen Maschinenbaugruppen.

Das Verbundprojekt „Additive Fertigung großdimensionaler Maschinenbaugruppen für kurzfristige Ersatzbereitstellungen als Bestandteil eines integrierten Instandhaltungskonzepts (AFiin)“ wird für den Zeitraum von zwei Jahren mit 450.000 Euro im Rahmen der WIR!-Initiative „Lausitz – Life & Technology“ aus Mitteln des Bundesministeriums für Bildung und Forschung gefördert.

Kick-off-Veranstaltung
Datum: Mittwoch, 18. Mai 2022, 9:30-11.30 Uhr
Ort: MCR Engineering Lausitz im Industriepark Schwarze Pumpe, An der Heide 1, 03130 Spremberg (Anfahrtsskizze siehe unten)

Die Projektpartner präsentieren Ziele und Arbeitspakete von AFiin sowie die Vorteile der Additiven Fertigung. Diese reichen von einer Verringerung von Beschaffungszeiten, Lagerhaltung bis hin zur Reduzierung von Stillstandzeiten und Reparaturzeiten.

Ablauf der Veranstaltung
9.30 Uhr bis 9.45 Uhr – Begrüßung
9.45 Uhr bis 10.00 Uhr – Projekteinführung
10.00 Uhr bis 10.30 Uhr – 10-Minuten-Kurzvorträge
• Mit innovativer Forschung & Entwicklung gemeinsam für eine starke und dynamische Lausitz – Leonie Liemich, Projektkoordinatorin Lausitz – Life & Technology
• Wire Arc Additive Manufacturing: Potentiale der Schweißtechnik für die additive Fertigung – Sebastian Fritzsche, BTU Cottbus-Senftenberg, Lehrstuhl Füge- und Schweißtechnik
• Chancen der additiven Fertigung in der Instandhaltung – Ronny Sembol, MCR Engineering Lausitz
10.30 Uhr bis 11.30 Uhr – Diskussion und Interviews

Medienvertreter*innen sind herzlich eingeladen.
Die Zielstellung des Projekts liegt in der Technologieentwicklung der additiven Fertigung für großdimensionale Maschinenbaugruppen, der Integration dieser in digitale Werkstattprozesse und Implementierung zeiteffizienter Instandhaltungsprozesse. Als weiteres Teilziel werden die Entwicklung und Fertigung eines Demonstrators mit ingenieurtypischen Eigenschaften in diesem Bereich gesteckt.

Das Projekt „Additive Fertigung großdimensionaler Maschinenbaugruppen“ setzt die erfolgreiche Kooperation der MCR Engineering Lausitz mit dem Lehrstuhl Füge- und Schweißtechnik der BTU in den neuen Entwicklungsbereich der additiven Fertigung für Großbauteile fort. Die Vorteile der lichtbogenbasierten additiven Fertigung (WAAM – Wire Arc Additive Manufacturing), verglichen mit den bekannten Techniken des Gießens und Verbindungsschweißens, liegen in einer sehr kurzfristigen Bereitstellung von Bauteilen und höchster Passgenauigkeit. Das Verfahren ermöglicht zudem eine ressourcenschonende Bauteiloptimierung. So können durch eine Aufwertung des Materials die Einsatzzeiten von Bauteilen deutlich verlängert werden. Diese Vorteile des WAAM-Verfahrens werden als innovativer Ansatz im Vorhaben genutzt, um 3D-gedruckte Ersatzteile für die Industrie zu fertigen, welche die Eigenschaften des Originalteils sogar übertreffen können und in sehr kurzen Lieferzeiten bereitgestellt werden können.

Kontakte
Ronny Sembol
MCR Engineering Lausitz
E ronny.sembol@leag.de
T 03564 693806
www.mcr-engineering.de

Sebastian Fritzsche
Lehrstuhl Füge- und Schweißtechnik
BTU Cottbus-Senftenberg
T +49 (0) 355 69 4992
E s.fritzsche@b-tu.de
www.b-tu.de

Kristin Ebert
Referentin Forschungs-PR
BTU Cottbus-Senftenberg
T +49 (0)355 69 2115
E kristin.ebert@b-tu.de
www.b-tu.de

Leonie Liemich
L&T Projektkoordinatorin
E Leonie.Liemich@hszg.de
T 03583-612-4801
www.life-and-technology.eu

Weitere Informationen:
http://www.b-tu.de/news/artikel/21145-3d-metalldruck-der-schluessel-zu-einer-eff…

(nach oben)


Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt

Dr. Stefanie Mikulla Referat für Presse- und Öffentlichkeitsarbeit
Universität Potsdam
Extremereignisse wie Dürre, Starkregen und Sturzfluten haben in Deutschland in den vergangenen Jahren stark zugenommen. Um das Risikomanagement bei extremen Niederschlägen, großflächigen Überschwemmungen oder langanhaltenden Dürreperioden zu verbessern, fördert das Bundesministerium für Bildung und Forschung (BMBF) mit der Maßnahme „WaX – Wasser-Extremereignisse“ zwölf neue Forschungsverbünde. Das Institut für Umweltwissenschaften und Geographie der Universität Potsdam ist mit dem Verbundvorhaben „Inno_MAUS“ sowie mit dem Vernetzungsvorhaben „Aqua-X-Net“ dabei. Die WaX-Auftaktveranstaltung findet heute und morgen in Bonn statt.

Ziel der neuen Fördermaßnahme ist es, die gravierenden Folgen von Dürreperioden, Starkregen- und Hochwasserereignissen durch verbesserte Managementstrategien und Anpassungsmaßnahmen abzuwenden. Insgesamt zwölf Forschungsvorhaben mit Partnern aus Wissenschaft, Wirtschaft und Praxis sowie ein Vernetzungs- und Transfervorhaben werden praxisnahe und fachübergreifende Ansätze erarbeiten, die die Auswirkungen von Wasserextremen auf die Gesellschaft und den natürlichen Lebensraum begrenzen und gleichzeitig neue Perspektiven für die Wasserwirtschaft eröffnen. Die Forschungsschwerpunkte liegen dabei auf digitalen Instrumenten für Monitoring, Analyse, Vorhersage und Kommunikation, dem Risikomanagement hydrologischer Extreme und auf urbanen extremen Wasserereignissen.

Im Forschungsverbund „Innovative Instrumente zum MAnagement des Urbanen Starkregenrisikos (Inno_MAUS)“, das in der Arbeitsgruppe Hydrologie und Klimatologie an der Uni Potsdam angesiedelt ist, sollen digitale Instrumente zum Umgang mit Starkregenrisiken in Städten weiterentwickelt und den Kommunen bereitgestellt werden. Um Starkregenereignisse mit geringer Ausdehnung besser vorhersagen zu können, wird dabei das Potenzial von tiefen neuronalen Netzen und hochauflösenden Radarbildern erforscht.

„Die Menge des Oberflächenabflusses ist davon abhängig, wie schnell wie viel Regenwasser versickern kann. Deshalb spielt die Möglichkeit, Wasser in der Stadt auf entsiegelten Flächen zurückzuhalten, eine wichtige Rolle“, sagt der Projektleiter Prof. Dr. Axel Bronstert. Das bei Starkregenereignissen oberflächlich abfließende Wasser wird zum einen mit hydrologischen Modellen simuliert. Zum anderen kommt innovatives Machine Learning zum Einsatz, um die Simulationen um ein Vielfaches zu beschleunigen und damit Gefährdungssituationen schneller einschätzen zu können. „Ein weiterer wichtiger Aspekt ist die Abschätzung der Schäden an Gebäuden und Infrastruktur durch urbane Flutereignisse“, erläutert Axel Bronstert. „Um solche Schäden zu vermeiden, ist eine enge Zusammenarbeit vieler Akteure wichtig, wie beispielsweise der Wasserwirtschaft, der Rettungsdienste und der Stadt- und Raumplaner.“

Die aus hydrologischer Sicht sehr verschiedenen Städte Berlin und Würzburg sind die Forschungspartner des Projekts, in dem die Universität Potsdam mit der Technischen Universität München und den Geoingenieurfirmen Orbica UG (Berlin) und KISTERS-AG (Aachen) zusammenarbeitet.

Begleitet werden die Verbundprojekte vom Vernetzungs- und Transfervorhaben „Aqua-X-Net“, das vom Deutschen Komitee Katastrophenvorsorge e. V. (DKKV) in Bonn zusammen mit der Arbeitsgruppe Geographie und Naturrisikenforschung von Prof. Dr. Annegret Thieken an der Universität Potsdam durchgeführt wird. Das Vorhaben ermöglicht durch Veranstaltungs- und Kommunikationsformate eine intensive Vernetzung und den Austausch der zwölf Forschungsvorhaben, stellt Synergien her und übernimmt eine öffentlichkeitswirksame Kommunikation der Ergebnisse. „Damit die Forschungsergebnisse in Wirtschaft, Fachverwaltung und Politik, aber auch in der breiten Öffentlichkeit ankommen, werden im Vernetzungs- und Transferprojekt Handlungsempfehlungen für Anwenderinnen, Anwender und kommunale Verbände sowie leicht verständliche Informationsmaterialien entwickelt“, betont Annegret Thieken. „Damit soll ein nachhaltiger und zielgruppengerechter Praxistransfer erreicht werden.“

Am 2. und 3. Mai 2022 kommen die Verbundvorhaben der Fördermaßnahme WaX zur Auftaktveranstaltung in Bonn erstmals zusammen. Während dieses zweitägigen Kick-Offs werden sich die Akteure der zwölf Vorhaben und ihre beteiligten Partner vorstellen, kennenlernen und austauschen.

Das BMBF fördert die Maßnahme „Wasser-Extremereignisse (WaX)“ im Rahmen des Bundesprogramms „Wasser: N – Forschung und Innovation für Nachhaltigkeit“. Wasser: N ist Teil der BMBF-Strategie „Forschung für Nachhaltigkeit (FONA)“. Die Forschungsvorhaben laufen bis Anfang 2025.

Link zur Fördermaßnahme: https://www.bmbf-wax.de/

Kontakt:
Prof. Dr. Axel Bronstert, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2548
axel.bronstert@uni-potsdam.de

Prof. Dr. Annegret Thieken, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2984
annegret.thieken@uni-potsdam.de

Medieninformation 02-05-2022 / Nr. 046
Dr. Stefanie Mikulla

Universität Potsdam
Referat Presse- und Öffentlichkeitsarbeit
Am Neuen Palais 10
14469 Potsdam
Tel.: +49 331 977-1474
Fax: +49 331 977-1130
E-Mail: presse@uni-potsdam.de
Internet: www.uni-potsdam.de/presse

(nach oben)


COVID-19: Wie Impfung und frühere Infektionen auch gegen Omikron helfen

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Immunzellen gegen frühere Sars-CoV-2-Varianten erkennen auch Omikron gut und können so vor schwerer Krankheit schützen / Impfung kann Immunantwort auch nach einer Infektion verbessern / Studie in Nature Microbiology veröffentlicht

Die Omikron-Variante von SARS-CoV-2 hat weltweit eine weitere große Infektionswelle verursacht. Denn auch geimpfte Personen oder solche, die sich mit einer vorherigen Virusvariante infiziert hatten, können sich mit Omikron anstecken. Trotzdem sind schwere Verläufe relativ selten. Wissenschaftler*innen des Universitätsklinikums Freiburg haben jetzt detailliert aufgeschlüsselt, wie der variantenübergreifende Schutz vor Infektion beziehungsweise schwerem Krankheitsverlauf entsteht. Ihre Ergebnisse haben die Forscher*innen am 28. April 2022 in der Online-Ausgabe der renommierten Fachzeitschrift Nature Microbiology veröffentlicht.

„Wir konnten in unserer Studie zeigen, dass Gedächtnis-T-Zellen, die nach Impfung oder Infektion mit einer früheren Sars-CoV-2-Variante gebildet wurden, auch die Omikron-Variante sehr gut erkennen und vor einem schweren Verlauf einer Infektion schützen können“, erklärt Ko-Studienleiterin Dr. Maike Hofmann, die in der Klinik für Innere Medizin II des Universitätsklinikums Freiburg eine Forschungsgruppe leitet. An Hofmann wird nächste Woche der Heinz Maier-Leibnitz-Preis der Deutschen Forschungsgemeinschaft für ihre Forschung übergeben. „Die Bindungsfähigkeit der Antikörper an die Omikron-Variante ist stark reduziert. Daher schützen sie auch nach einem Impf-Booster nur recht kurz vor einer Infektion mit der Omikron-Variante“, so Hofmann weiter.

Immunantwort unterscheidet sich bei Geimpften und Genesenen
Die Wissenschaftler*innen untersuchten auch mögliche Unterschiede der Immunantworten von Genesenen und Geimpften. „Beide Gruppen haben eine breite T-Zell-Antwort: Bei Genesenen erkennen die T-Zellen mehrere Virus-Eiweiße. Bei Geimpften richtet sich die Immunantwort im Wesentlichen gegen das Spike-Eiweiß, das ja aus dem mRNA-Impfstoff im Körper hergestellt wird und dann die Immunantwort hervorruft. Die T-Zell-Antwort gegen das Spike-Eiweiß ist bei Geimpften breiter und stärker als bei Genesenen“, berichtet Ko-Studienleiter Prof. Dr. Christoph Neumann-Haefelin, Leiter des Gerok-Leberzentrums am Universitätsklinikum Freiburg. „Werden Genesene geimpft, fallen die T-Zell-Antworten ebenfalls vielfältiger aus und somit steigt der Schutz vor schweren Krankheitsverläufen bei zukünftigen Infektionen“, so Neumann-Haefelin.

Zwei der Erstautoren dieser Arbeiten sind die beiden jungen wissenschaftlich tätigen Ärzt*innen Dr. Julia Lang-Meli und Dr. Hendrik Luxenburger. Sie werden unter anderem durch das von der Deutschen Forschungsgemeinschaft geförderte “Clinician Scientist” Programm IMM-PACT am Universitätsklinikum Freiburg unterstützt. Es erlaubt eine Freistellung von jungen Ärzt*innen für die Forschung. „Diese wichtigen Ergebnisse sind nur dank der engen Vernetzung von Klinik und Forschung möglich gewesen“, betont Prof. Dr. Robert Thimme, Ärztlicher Direktor der Klinik für Innere Medizin II am Universitätsklinikum Freiburg.

„In der öffentlichen Wahrnehmung wird die Immunantwort gegen SARS-CoV-2 oft auf die Bildung von Antikörpern reduziert. Die jetzt veröffentlichte Studie trägt wesentlich dazu bei, ein vollständigeres Bild des Immunschutzes im Zusammenhang mit Sars-CoV-2 zu erhalten“, sagt Prof. Dr. Lutz Hein, Dekan der Medizinischen Fakultät der Universität Freiburg.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Neumann-Haefelin
Leiter Gerok-Leberzentrum
Klinik für Innere Medizin II (Schwerpunkt: Gastroenterologie, Hepatologie, Endokrinologie und Infektiologie)
Universitätsklinikum Freiburg
Telefon: 0761 270-32800
christoph.neumann-haefelin@uniklinik-freiburg.de

Originalpublikation:
Original-Titel der Studie: SARS-CoV-2-specific T-cell epitope repertoire in convalescent and mRNA-vaccinated individuals
DOI: 10.1038/s41564-022-01106-y
Link zur Studie: https://www.nature.com/articles/s41564-022-01106-y

(nach oben)


Fraunhofer UMSICHT auf IFAT 2022: Kreislaufführung von Wasser und Nutzungskonzepte für Biomasse

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Wasser als Ressource wird durch die Herausforderungen des Klimawandels immer weiter in den Fokus rücken. Gleichzeitig bieten Ansätze zur Verwertung von Biomasse künftig Möglichkeiten, CO2-Emissionen signifikant zu verringern und fossile Rohstoffe einzusparen. Auf der IFAT 2022 in München präsentieren Forschende des Fraunhofer UMSICHT innovative Konzepte und Technologien zur nachhaltigen Bewirtschaftung von Wasser, zur Kreislaufführung von Wertstoffen und zur Bereitstellung klimaneutraler Energie.

Wasserverfügbarkeit sichern
Wasser wird weltweit zu einer immer kritischeren Ressource. Angesichts zunehmender Dürreperioden wird es auch in manchen Regionen Deutschlands immer schwieriger, den Wasserhaushalt zu sichern. Hinzu kommen wasserintensive Industrien. »Eine nachhaltige, sichere und wirtschaftlich tragfähige Wasserversorgung setzt daher zunehmend eine lokale Kreislaufführung voraus«, erklärt Lukas Rüller vom Fraunhofer UMSICHT. »Die Sicherung der Wasserverfügbarkeit zur Versorgung der Industrie und zur kommunalen Trinkwasserversorgung ist weltweit eine notwendige Voraussetzung für eine nachhaltige Zukunft.«

Konzeptansätze des Fraunhofer-Instituts hierzu sind die Kreislaufführung von Prozesswasserströmen in der Industrie, ein zielgerichtetes Regenwassermanagement und die Aufbereitung von Kläranlagenabläufen zur Bewässerung von landwirtschaftlichen Flächen. Das Potenzial der Ansätze ist dabei längst noch nicht ausgeschöpft – innovative Techniken bieten vielversprechende Lösungsansätze.

Zu den Technologien für die Behandlung und Aufbereitung zählen die Vorwärtsosmose, die Hochdruck-Nanofiltration, die Umkehrosmose und Adsorbertechniken. Forschende des Fraunhofer UMSICHT entwickeln hierfür neue Komponenten, Verfahren und Betriebsführungsstrategien mit dem Ziel, die selektive Stofftrennung zu optimieren und gleichzeitig den Energiebedarf gering zu halten. Durch membranbasierte Konzentrationsvorgänge ist es z. B. gelungen, industrielle Abwasserströme auf bis zu 60 Prozent Trockensubstanz an der Grenze ihrer Pumpfähigkeit zu konzentrieren (Vorwärtsosmose).

Großes Potenzial für ungenutzte Biomasse
Im Zuge von CO2-Minderungsstrategien wächst die Bedeutung von Biomasse für die stoffliche und thermische Nutzung stetig. Das Fraunhofer UMSICHT erschließt neue Stoffströme, indem es bisher ungenutzte Biomasse einer effizienten Verwertung zuführt. Zu diesen Rohstoffen können künftig auch feuchte und/oder lignocellulosehaltige Biomasse wie Gras- und Grünschnitt, Ernterückstände wie Spelzen, Verarbeitungsreste aus land- und forstwirtschaftlicher Produktion oder Bioabfälle zählen. Zum einen werden aktuell die Aufbereitung und die Verarbeitung der biogenen Reststoffe optimiert, zum anderen werden die Biogasprozesse und die Verbrennungstechnik angepasst. Besonders interessant sind diese Ansätze für Kommunen, das Handwerk und die Industrie.

Ein Beispiel dazu ist das Projekt LaubCycle, in dem die Beheizung von kommunalen Einrichtungen wie Schwimmbäder oder Schulen durch aufbereitetes Laub geschehen soll. Voraussetzung ist die gezielte technische Aufbereitung des Materials, um gute Verbrennungseigenschaften sicherzustellen.

Auch die klassischen Biogasprozesse werden durch die Fraunhofer-Forschenden weiterentwickelt. Dazu zählen die biologische Methanisierung, die Aufbereitung und Nutzung der Gärreste sowie die Erstellung von Einspeisekonzepten als Beitrag zur Reduktion der Abhängigkeit von fossilen Energieträgern.

IFAT 2022
Besuchen Sie uns im Rahmen der IFAT vom 30. Mai bis 3. Juni 2022 in Halle B2/Stand 215/314 auf dem Gemeinschaftsstand der Fraunhofer-Gesellschaft. Informieren Sie sich über die Kreislaufführung von Wasser und neuartige Nutzungskonzepte von Biomassen. Unsere Fachkontakte beantworten gerne Ihre Fragen zu den Forschungsschwerpunkten, Angeboten und Dienstleistungen des Fraunhofer UMSICHT.

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2020/care…. Mehr zur Nutzung von Reisschalen als Energielieferant
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2021/laubc… Mehr zur nachhaltigen Verwertung von Laub
https://www.umsicht.fraunhofer.de/de/kompetenzen/verfahrenstechnik.html Kompetenz Verfahrenstechnik

(nach oben)


Grauer Star: Beide Augen am selben Tag operieren? Neuer Cochrane Review wertet Evidenz aus.

Georg Rüschemeyer Presse- und Öffentlichkeitsarbeit
Cochrane Deutschland
Sollte man beide Augen-OPs gegen einen Grauen Star am gleichen Tag machen lassen oder dazwischen besser eine längere Pause einlegen? Ein aktueller Cochrane Review geht dieser für Patient*innen und Augenärzt*innen wichtigen Frage nach.

Der Graue Star (Katarakt) ist eine altersbedingte Trübung der Augenlinse. Die einzige Möglichkeit, diese häufige Augenerkrankung zu behandeln, ist eine Operation. Dabei wird die getrübte Linse entfernt und durch eine künstliche Linse ersetzt.

Gegenwärtig unterziehen sich die meisten Menschen einer Kataraktoperation an beiden Augen an zwei verschiedenen Tagen, wobei zwischen den Eingriffen Tage, Wochen oder Monate liegen können. Es ist jedoch auch möglich, beide Augen am selben Tag zu operieren. Zu den möglichen Vorteilen dieser Methode gehören weniger Krankenhausaufenthalte, eine schnellere Erholung der Sehkraft und geringere Kosten. Es gibt jedoch auch potenzielle Risiken, wie das gleichzeitige Auftreten von Komplikationen in beiden Augen.

Die Vor- und Nachteile beider Ansätze sind unter Fachleuten seit langem umstritten. Aus diesem Grund werteten die Autor*innen dieses neuen Cochrane Review die Evidenz aus Studien zu diesem Thema aus.

Kernaussagen des Reviews:
Die derzeitige Evidenz auf Basis von 14 Studien mit 276 260 Teilnehmenden spricht dafür, dass es keinen wesentlichen Unterschied zwischen einer Operation beider Augen am selben Tag gegenüber einer Operation an verschiedenen Tagen in Bezug auf die folgenden klinischen Ergebnisse gibt: Augeninfektion (Endophthalmitis, eine schwere, sichtbedrohende, aber seltene Komplikation), Notwendigkeit einer Brillenkorrektur nach der Operation, Komplikationen, Sehvermögen mit Brille und von den Patienten berichtete Ergebnisse. Zudem bestätigt die Evidenz, dass die Kosten einer OP an einem Tag niedriger ausfallen.

Insgesamt war die Zahl und Qualität der Studien begrenzt, die Vertrauenswürdigkeit der Evidenz nach GRADE lag je nach Endpunkt zwischen sehr gering und moderat.

Originalpublikation:
Dickman MM, Spekreijse LS, Winkens B, Schouten JSAG, Simons RWP, Dirksen CD, Nuijts RMMA. Immediate sequential bilateral surgery versus delayed sequential bilateral surgery for cataracts. Cochrane Database of Systematic Reviews 2022, Issue 4. Art. No.: CD013270. DOI: 10.1002/14651858.CD013270.pub2

Weitere Informationen:
https://www.cochrane.de/news/grauer-star-beide-augen-am-selben-tag-operieren

(nach oben)


Hochwasserschutz mit Mehrfachnutzen: Mehr Raum für Flüsse

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Ökologischer Hochwasserschutz – der Auen wiederherstellt – ist sinnvoll, technisch möglich und wirtschaftlich effizient. Und doch wird dieser Ansatz weltweit noch nicht konsequent umgesetzt, weil die administrativen und rechtlichen Hürden hoch sind. Das zeigt eine Studie von Wissenschaftler*innen des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB), die gemeinsam mit anderen Forschenden vier Projekte zur Renaturierung von Flussauen in Deutschland und den USA analysiert haben. Die Forschenden empfehlen, dem ökologischen Hochwasserschutz Vorrang zu geben und die nötigen Flächen verfügbar zu machen. So ließen sich auch nationale und europäische Umweltziele besser erreichen.

„Der konventionelle technische Hochwasserschutz greift stark in die Gewässerstruktur ein, ist teuer, in der Regel starr und lässt sich nicht ohne Weiteres an die im Klimawandel zunehmenden Überschwemmungen anpassen. Die technischen Maßnahmen schränken auch die natürlichen Funktionen von Überschwemmungsgebieten ein, zu denen etwa die Wasserspeicherung und die Verbesserung der Wasserqualität gehören. Außerdem gehen Lebensräume für viele Tier- und Pflanzenarten in und am Wasser verloren – und mit ihnen eine Vielzahl von Vorteilen für uns Menschen. Deshalb brauchen wir weltweit deutlich mehr Hochwasserschutzkonzepte mit Mehrfachnutzen für Bevölkerung und Umwelt“, sagt die IGB-Forscherin Sonja Jähnig, Autorin der Studie.

Konventioneller Hochwasserschutz kann falsches Sicherheitsgefühl vermitteln:
Bauliche Maßnahmen wie Deiche, Dämme und künstliche Kanäle fördern die städtische und landwirtschaftliche Entwicklung in Gebieten, die eigentlich natürliche Überschwemmungsgebiete sind – den Flussauen. Die dadurch gewonnene Fläche ist durch diese baulichen Maßnahmen seltener von kleinen und mittleren Hochwassern betroffen. Das erweckt häufig den Eindruck, das Hochwasserrisiko sei gebannt. Infolge dieses falschen Sicherheitsgefühls unterschätzt die Bevölkerung vor Ort die Gefahr von seltenen großflächigen Überschwemmungen und ist umso anfälliger für deren Folgen. Dieser sogenannte „Deich-Effekt“ (Englisch: levee-effect) steht beispielhaft dafür, dass einige kurzfristig wirksame menschliche Eingriffe in die Landschaft in Wirklichkeit die langfristige Anfälligkeit des gesamten Systems erhöhen.

Hochwasserschutz mit Mehrfachnutzen wissenschaftlich untersucht:
Zwar gibt es weltweit mittlerweile Projekte zur Renaturierung von Flüssen und Auen. Doch nur wenige davon werden so geplant, dass sie gleich mehrere Verbesserungen erzielen, also zum Beispiel das Hochwasserrisiko verringern, Lebensräume wiederherstellen und die Anpassungsfähigkeit an den Klimawandel erhöhen. Das Forschungsteam hat deshalb vier „Multi-Benefit-Projekte“ in Deutschland und in Kalifornien (USA) untersucht und ihre Triebkräfte, die Chronologie sowie die durchgeführten Maßnahmen und Hindernisse charakterisiert. Außerdem analysierten die Forschenden die politischen Rahmenbedingungen, die solche Projekte fördern, ermöglichen und manchmal auch behindern.

Beispiele Deutschland: Deichrückverlegung an der Elbe und große Kiesbänke für die Isar:
Als Beispiel für Deutschland untersuchte das Team zum einen die Deichrückverlegung an der Mittelelbe bei Lenzen. Die wissenschaftliche Bestätigung, dass sich der Hochwasserscheitelpunkt lokal um fast 50 Zentimeter verringerte und die nachgewiesene, weitreichende räumliche Schutzwirkung vor Hochwasser trugen sogar dazu bei, die Akzeptanz von Deichrückverlegungen zu steigern: „Das ist so deutlich bis dato nicht gemessen worden und hat die Position widerlegt, dass Deichrückverlegungen nichts für den Hochwasserschutz bringen. Seitdem sind in anderen Flüssen Deutschlands ähnliche Projekte umgesetzt worden“, sagt Dr. Christian Damm vom Karlsruher Institut für Technologie, ebenfalls Autor der Studie. Der ökologische Erfolg des Projekts ließ sich an der raschen Rückkehr zahlreicher Wasser- und anderer Vogelarten sowie einer Vielfalt an wiederhergestellten Lebensraumtypen ablesen.

Als zweites Projekt untersuchten die Forschenden eine acht Kilometer lange Flussrenaturierung der Isar, die von der südlichen Stadtgrenze Münchens bis zur Innenstadt reicht – der sogenannte Isarplan. Das Projekt zeigt, dass Fluss- und Auenrenaturierungen auch in dicht besiedelten, urbanen Gebieten möglich sind. Der Isarplan hatte drei Hauptziele: Minimierung des Hochwasserrisikos, Wiederherstellung von Lebensräumen im Fluss und Verbesserung des Freizeitnutzens. „Der Isarplan veranschaulicht den Mehrfachnutzen-Ansatz und sticht durch einen sehr kooperativen Planungsprozess hervor, in den auch die Bevölkerung aktiv mit eingebunden wurde“, sagt Jürgen Geist, Forscher an der Technischen Universität München und auch Autor der Studie. Das Hochwasserrisiko wurde vor allem dadurch verringert, dass dem Fluss mit mindestens 90 statt vorher 50 Metern mehr Raum gegeben wurde. So erhöhte sich auch die Kapazität im Stadtgebiet, größere Wassermengen abzupuffern. Ufersicherungen aus Beton wurden entfernt und durch Kiesufer ersetzt, wodurch sich Kiesbänke bilden konnten – und damit Laichplätze und Lebensräume für den Huchen (Donaulachs) und andere gefährdete Fischarten.

Beispiele USA: Wiederherstellung von Ökosystemen waren eigentlich Nebeneffekte:
In den USA analysierten die Forschenden die Hochwasser-Bypässe im Sacramento-Flussgebiet. Der Yolo-Bypass ist ein „Auen-Bypass“, eine Art der Hochwasserumleitung mit großer Fläche, langen Verweilzeiten und hohem ökologischem Potenzial. Der größte Teil der 240 Quadratkilometer großen Fläche befindet sich in Privatbesitz und wird in der Trockenzeit, wenn das Überschwemmungsgebiet weitgehend entwässert ist, landwirtschaftlich genutzt, beispielsweise zum Anbau von Mais, Sonnenblumen und Reis, als Weide- oder Brachland. Die verbleibenden 65 Quadratkilometer sind ein Schutzgebiet, vor allem für Vögel und Fische. „Der Yolo-Bypass gilt als Modell für ein gut verwaltetes sozial-ökologisches System. Die öffentlich-private Partnerschaft funktioniert gut. Artenschutz, Hochwasserschutz und Landwirtschaft lassen sich in Einklang bringen – und all das in direkter Nähe zu einer Großstadt“, erläutert Sonja Jähnig. Erfolgreich umgesetzt wurden auch der Deichrückbau und die Auenrenaturierung am Bear und am Feather River, um den lokalen Hochwasserschutz zu erhöhen. Ein zusätzliches niedriges Feuchtgebiet – eine Auenmulde – schaffte zusätzlich überfluteten Lebensraum für heimische Fische und andere wassergebundene Arten.
In beiden amerikanischen Fällen war die Verringerung des Überschwemmungsrisikos jeweils der wichtigste Antrieb für das Projekt – und die Wiederherstellung natürlicher Ökosysteme folgte in einem Fall unbeabsichtigt, im anderen als Voraussetzung für den Erhalt einer öffentlichen Förderung.

Erkenntnisse aus dem Projektvergleich: 7 Faktoren, auf die es ankommt:
Anhand der vier Fallstudien identifizierten die Forschenden sieben Faktoren, die je nach Ausprägung fördernd oder hemmend für Mehrfachnutzen-Projekte sein können. Dazu zählt Offensichtliches, wie die Verfügbarkeit von (unbebauter) Fläche, die Integration von Forschungswissen in Planungen und Entscheidungsprozesse, passende politische und regulatorische Rahmenbedingungen und ausreichend Finanzmittel. Aber auch gesellschaftliche Faktoren sind entscheidend – beispielsweise die Wahrnehmung von Überschwemmungen nicht nur als Bedrohung, sondern als positives Element und wichtige Eigenschaft natürlicher Gewässer. Als unabdingbar für den Projekterfolg stellte sich auch die zielorientierte Projektführung und konstruktive Einbindung und Zusammenarbeit aller Beteiligten heraus. Auch wenn diese Projekte heute als sehr gute Beispiele erscheinen, so waren sie doch erst das Ergebnis eines Zusammenspiels mehrerer begünstigender Faktoren und erforderten allesamt engagierte Beharrlichkeit, um letztendlich realisiert zu werden, urteilen die Forschenden. „Dies hängt auch damit zusammen, dass es noch vergleichsweise wenig praktisches Erfahrungswissen aus solchen Mehrfachnutzen-Projekten gibt und man mit relativ großen administrativen und rechtlichen Hindernissen konfrontiert ist. Deshalb ist es wichtig, gelungene Beispiele genau zu analysieren und die Erfolgs- und Risikofaktoren für andere Akteure aufzubereiten, die solche Projekte ebenfalls realisieren wollen“, erläutert Jürgen Geist.

Empfehlungen für Politik und Behörden:
Insgesamt kommen die Wissenschaftlerinnen und Wissenschaftler zu dem Schluss, dass ökologischer Hochwasserschutz kosteneffizienter als bisherige Ansätze ist, großes Synergiepotenzial hat und solche Mehrfachnutzen-Ansätze von Politik und Verwaltung daher verstärkt in Betracht gezogen werden sollten. „Gerade in Deutschland werden Überschwemmungen schnell negativ oder als Risiko gesehen – ihr Wert für Natur und Bevölkerung aber übersehen. In diesem Kontext sind mangelnde Überflutungsflächen häufig ein Diskussionspunkt. Es wäre wünschenswert, wenn die zuständigen politischen und administrativen Ebenen von Bund, Ländern und Kommunen effiziente Ansätze entwickeln würden, um die dafür notwendigen Flächen bereitzustellen“, unterstreicht Sonja Jähnig.

Diese Bemühungen würden auch auf die europäischen und nationalen Umweltziele einzahlen, wie die europäische Hochwasserrisikomanagementrichtlinie, die Wasserrahmenrichtlinie, die Fauna-Flora-Habitat-Richtlinie sowie die EU-Biodiversitätsstrategie — letztere sieht beispielsweise vor, 25.000 Kilometer Flüsse in Europa zu renaturieren. Das kürzlich vom Bundesumwelt- und Verbraucherschutzministerium vorgestellte Eckpunktepapier zum „Aktionsprogramm Natürlicher Klimaschutz“ weise mit den beiden erstgenannten Handlungsfeldern „Schutz intakter Moore und Wiedervernässungen“ sowie „Naturnaher Wasserhaushalt mit lebendigen Flüssen, Seen und Auen“ in die richtige Richtung. Entscheidend sei es laut Sonja Jähnig nun, das Programm so auszugestalten, dass möglichst viele Synergieeffekte erzielt werden können.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sonja Jähnig
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
sonja.jaehnig@igb-berlin.de
https://www.igb-berlin.de/profile/sonja-jaehnig

Originalpublikation:
Serra-Llobet Anna, Jähnig Sonja C., Geist Juergen, Kondolf G. Mathias, Damm Christian, Scholz Mathias, Lund Jay, Opperman Jeff J., Yarnell Sarah M., Pawley Anitra, Shader Eileen, Cain John, Zingraff-Hamed Aude, Grantham Theodore E., Eisenstein William, Schmitt Rafael (2022): Restoring Rivers and Floodplains for Habitat and Flood Risk Reduction: Experiences in Multi-Benefit Floodplain Management From California and Germany. Frontiers in Environmental Science, VOLUME 9, DOI=10.3389/fenvs.2021.778568

Weitere Informationen:
https://www.igb-berlin.de/news/hochwasserschutz-mit-mehrfachnutzen-mehr-raum-fue…

(nach oben)


Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Wenn bis 2050 nur ein Fünftel des pro-Kopf Rindfleischkonsums durch Fleischalternativen aus mikrobiellem Protein ersetzt wird, könnte das die weltweite Entwaldung halbieren: Das ist das Ergebnis einer neuen Analyse des Potsdam-Instituts für Klimafolgenforschung (PIK), die in der Fachzeitschrift Nature veröffentlicht wurde und zum ersten Mal mögliche Auswirkungen dieser bereits marktreifen Lebensmittel auf die Umwelt umfassend untersucht.

Der aus Pilzkulturen durch Fermentierung produzierte Fleischersatz ähnelt echtem Fleisch in Geschmack und Konsistenz, ist aber ein biotechnologisches Produkt. Gegenüber Rindfleisch erfordern diese Fleischalternativen deutlich weniger Landressourcen und können somit die Treibhausgasemissionen durch Viehhaltung und die Ausweitung von Acker- und Weideland stark senken. Die Analyse geht von der Annahme aus, dass die wachsende Weltbevölkerung immer mehr Appetit auf Rindfleisch hat.

„Die Produktion und der Konsum von Nahrungsmitteln machen ein Drittel der weltweiten Treibhausgasemissionen aus, wobei die Produktion von Rindfleisch die größte Einzelquelle ist“, sagt Florian Humpenöder, Forscher am PIK und Hauptautor der Studie. Das liegt zum Großteil daran, dass kohlenstoffspeichernde Wälder für Weide- oder Ackerflächen immer weiter gerodet werden sowie an weiteren Treibhausgasemissionen aus der landwirtschaftlichen Tierhaltung. Ein Teil der Lösung könnte in bereits existierender Biotechnologie liegen: Nährstoffreiche, proteinreiche Biomasse mit fleischähnlicher Konsistenz, die von Mikroorganismen durch Fermentierung produziert wird – von Forschenden als mikrobielles Protein, also Eiweiß, bezeichnet.

„Würde man Wiederkäuerfleisch, also vor allem Rind-, aber auch Schaf- und Ziegenfleisch durch mikrobielles Protein ersetzen, könnte man die künftigen Umweltschäden durch das Ernährungssystem erheblich verringern“, sagt Humpenöder. „Die gute Nachricht ist: Die Menschen müssen keine Angst haben, dass sie in Zukunft nur noch Gemüse essen sollen. Sie können weiterhin Burger & Co. essen, nur werden die Burger-Pattys dann anders hergestellt.“

Nachhaltige Burger: Rinderhackfleisch durch mikrobielles Protein ersetzen
Das Forschungsteam aus Deutschland und Schweden hat mikrobielles Protein in einer Computersimulation in den Kontext des gesamten Agrar- und Ernährungssystems gestellt, um die Auswirkungen auf die Umwelt zu ermitteln. Dieser Ansatz unterscheidet sich von früheren Studien, die nur einzelne Produkte betrachteten. Die Zukunftsszenarien der Forschenden reichen bis zum Jahr 2050 und berücksichtigen das künftige Bevölkerungswachstum, die Nahrungsmittelnachfrage, die Ernährungsgewohnheiten und die Dynamiken der Landnutzung und der Landwirtschaft. Da der Fleischkonsum in Zukunft wahrscheinlich weiter ansteigen wird, könnten immer mehr Wälder und nicht bewaldete natürliche Vegetation für Weide- und Ackerflächen verloren gehen.

„Wir haben herausgefunden, dass sich die jährliche Entwaldung und die CO2-Emissionen durch die Ausweitung von Acker- und Weideland im Vergleich zu einem Weiter-So-Szenario halbieren würden, wenn wir bis 2050 20 Prozent des pro-Kopf Konsums von Rindfleisch ersetzen würden. Weniger Rinder bedeuten weniger Bedarf an Futter- und Weideflächen und daher weniger Entwaldung – und reduzieren auch die Methanemissionen aus dem Pansen von Rindern und die Lachgasemissionen aus der Düngung von Futtermitteln oder der Güllewirtschaft“, sagt Humpenöder. “ Hackfleisch durch mikrobielles Protein zu ersetzen wäre also ein guter Anfang, um die Umweltschäden der heutigen Rindfleischproduktion zu verringern.“

Fleischersatz aus mikrobiellem Protein kann von landwirtschaftlicher Produktion entkoppelt werden
„Es gibt im Wesentlichen drei Gruppen von Fleischersatzprodukten“, erklärt Isabelle Weindl, Mitautorin und ebenfalls Forscherin am PIK. „Es gibt pflanzliche Produkte wie Soja-Burger, die man in Supermärkten findet. Es gibt tierische Zellen, die in einem Wachstumsmedium kultiviert werden, auch bekannt als Labor- oder in-vitro-Fleisch, das bisher sehr teuer ist, aber in letzter Zeit viel öffentliche Aufmerksamkeit erregt hat. Und es gibt fermentativ gewonnenes mikrobielles Protein auf Basis von Pilzkulturen, das wir für sehr interessant halten. Schon heute ist eine große Produktpalette davon etwa in Großbritannien und Schweiz im Supermarkt erhältlich und, was wichtig ist, es kann weitgehend von der landwirtschaftlichen Produktion entkoppelt werden. Unsere Ergebnisse zeigen, dass die Herstellung von mikrobiellem Protein viel weniger landwirtschaftliche Fläche erfordert als die gleiche Menge Protein aus Fleisch – sogar, wenn man den Anbau des Zuckers einrechnet, den die Mikroben benötigen.“

Mikrobielles Protein wird in speziellen Kulturen hergestellt, ähnlich wie Bier oder Brot. Die Mikroben brauchen Zucker und eine konstante Temperatur. Daraus entsteht ein sehr proteinreiches Produkt, das so schmeckt, sich so anfühlt und so nahrhaft ist wie Rindfleisch. Die Technik basiert auf der jahrhundertealten Methode der Fermentation und wurde in den 1980er Jahren entwickelt. Die US-amerikanische Lebensmittelbehörde FDA (Food and Drug Administration) gab 2002 grünes Licht für eine von Mikroben hergestellte Fleischalternative („Mycoprotein“) und stufte sie als sicher ein.

Grüne Biotechnologie muss durch grüne Energie angetrieben werden
„Biotechnologie kann eine wichtige Rolle spielen für Herausforderungen einer umweltschonenden Landwirtschaft, von der Erhaltung der Ökosysteme bis zur Verbesserung der Ernährungssicherheit“, sagt Mitautor Alexander Popp, Leiter der Forschungsgruppe Landnutzungs-Management am PIK.
„Alternativen zu tierischen Proteinen, zum Beispiel auch was Milchersatzprodukte betrifft, könnten dem Tierwohl massiv zugutekommen, Wasser sparen und Naturräume und Artenvielfalt schonen. Allerdings bringt die Verlagerung vom Tier zum Fermentations-Tank weitere Fragen mit sich – allen voran die Energieversorgung für den Produktionsprozess.
„Eine groß angelegte Umstellung auf Biotech-Lebensmittel muss einhergehen mit einer klimafreundlichen Stromerzeugung. Nur so kann das Klimaschutzpotenzial voll wirken“, so Popp weiter. „Aber wenn wir es richtig anpacken, kann mikrobielles Protein auch Fleischliebhabern den Wandel erleichtern. Schon kleine Häppchen können viel bewirken.“

Originalpublikation:
Florian Humpenöder, Benjamin Bodirsky, Isabelle Weindl, Hermann Lotze-Campen, Tomas Linder, Alexander Popp (2022): Projected environmental benefits of replacing beef with microbial protein. Nature. [DOI: 10.1038/s41586-022-04629-w]

(nach oben)


Wasseraufbereitung: Licht hilft beim Abbau von Hormonen

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Bei Mikroverunreinigungen im Wasser handelt es sich häufig um Hormone, die sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken können. Forschende am Karlsruher Institut für Technologie (KIT) und am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig haben ein Verfahren zum photokatalytischen Abbau dieser Verunreinigungen im Durchfluss durch Polymermembranen entwickelt und in der Zeitschrift Nature Nanotechnology vorgestellt. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den mit Titandioxid beschichteten Membranen zersetzt. (DOI: 10.1038/s41565-022-01074-8)

Überall wo Menschen leben, gelangen Hormone, wie sie in Arzneimitteln zur Empfängnisverhütung und in der Landwirtschaft eingesetzt werden, in das Abwasser. Steroidhormone wie Sexualhormone und Corticosteroide können sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken, indem sie die Verhaltensentwicklung und die Fortpflanzungsfähigkeit beeinträchtigen. Sexualhormone können beispielsweise dazu führen, dass männliche Fische weibliche Geschlechtsmerkmale entwickeln. Umso wichtiger ist es, neben anderen Mikroverunreinigungen auch Hormone aus dem Abwasser zu entfernen, bevor diese in den natürlichen Wasserkreislauf zurückgelangen, aus dem wiederum das Trinkwasser kommt. „Die Menschen mit sauberem Trinkwasser zu versorgen, gehört weltweit zu den wichtigsten Herausforderungen der Gegenwart“, sagt Professorin Andrea Iris Schäfer, Leiterin des Institute for Advanced Membrane Technology (IAMT) des KIT. „Spurenschadstoffe sind eine enorme Bedrohung für unsere Zukunft, da sie unsere Fruchtbarkeit und Gehirnfunktion beeinträchtigen.“

Inspiration aus der Solarzellentechnologie
Schäfer befasst sich seit Jahren mit der Wasseraufbereitung über Nanofiltration. Dazu setzt sie Polymermembranen mit nanometerkleinen Poren ein. Allerdings arbeitet die Nanofiltration mit hohem Druck und benötigt daher viel Energie. Außerdem kann es passieren, dass sich Mikroverunreinigungen in den polymeren Membranmaterialien ansammeln und allmählich in das gefilterte Wasser übergehen. Selbst wenn die Entfernung der Verunreinigungen vollständig gelingt, entsteht dabei ein Strom mit konzentrierten Schadstoffen, der weiterbehandelt werden muss.

Inspiriert von der Solarzellentechnologie, mit der sich der ebenfalls am KIT tätige Professor Bryce S. Richards befasst, kam Schäfer auf die Idee, Polymermembranen mit Titandioxid zu beschichten und photokatalytische Membranen zu entwickeln: Photokatalytisch aktive Titandioxid-Nanopartikel werden auf Mikrofiltrationsmembranen aufgebracht, deren Poren etwas größer sind als bei der Nanofiltration. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den Membranen zersetzt. Nun hat Schäfer ihre Idee mit ihrem Team am IAMT des KIT und mit Kolleginnen am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig verwirklicht und die neue Technologie in der Zeitschrift Nature Nanotechnology vorgestellt.

Katalysator für Wasser
„Wir haben sozusagen einen Katalysator für Wasser entwickelt“, resümiert Schäfer. Mit den photokatalytischen Polymermembranen gelang es, Steroidhormone im kontinuierlichen Durchfluss so weit zu entfernen, dass die analytische Nachweisgrenze von vier Nanogramm pro Liter erreicht wurde – die Werte kamen sogar ziemlich nah an ein Nanogramm pro Liter heran, was der neuen Trinkwasserrichtlinie der WHO entspricht. Die Forschenden arbeiten daran, ihre Technologie weiterzuentwickeln, um den Zeitbedarf und den Energieverbrauch zu senken sowie die Verwendung von natürlichem Licht zu ermöglichen. Vor allem aber zielt die weitere Forschung darauf ab, auch andere Schadstoffe mithilfe der Photokatalyse abzubauen, beispielsweise Industriechemikalien wie per- und polyfluorierte Alkylsubstanzen (PFAS) oder Pestizide wie Glyphosat. Eine weitere Herausforderung besteht darin, die Technologie in größerem Maßstab zu verwirklichen.

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Regina Link, Pressereferentin, Tel.: +49 721 608-41158, E-Mail: regina.link@kit.edu

Originalpublikation:
Shabnam Lotfi, Kristina Fischer, Agnes Schulze and Andrea I. Schäfer: Photocatalytic degradation of steroid hormone micropollutants by TiO2-coated polyethersulfone membranes in a continuous flow-through process. Nature Nanotechnology, 2022. DOI: 10.1038/s41565-022-01074-8

Abstract unter https://www.nature.com/articles/s41565-022-01074-8

Zum Hintergrund der Publikation: https://engineeringcommunity.nature.com/posts/catalyst-for-water-removing-steroi…

(nach oben)


Neue Studie: Fließgewässer an Ackerflächen senken Schadstoffe im Wasserkreislauf

Christian Wißler Pressestelle
Universität Bayreuth
Wassergräben und kleine Bäche am Rand von landwirtschaftlichen Flächen tragen erheblich dazu bei, die aus der Landwirtschaft stammenden Schadstoffe im Wasser zu verringern. Sie fördern vor allem den Nitrat-Abbau durch Mikroorganismen und haben so einen wichtigen Einfluss auf den Stickstoffgehalt in Flüssen und Seen. Dies hat ein Forschungsteam unter der Leitung von Prof. Dr. Tillmann Lüders an der Universität Bayreuth jetzt erstmals nachgewiesen. Die Wissenschaftler konnten zeigen, dass das Bachwasser in einem intensiven Austausch mit dem umgebenden Grundwasser steht, wodurch die Mikroben stimuliert werden. In der Zeitschrift „Water Research“ stellen sie ihre Forschungsergebnisse vor.

Die Studie bietet wichtige Anknüpfungspunkte für eine nachhaltigere Gestaltung von Agrarlandschaften: Die Randgebiete landwirtschaftlich genutzter Flächen mit ihren charakteristischen Wassergräben können möglicherweise gezielt so gestaltet werden, dass Schadstoffbelastungen aus der Landwirtschaft effizienter eliminiert werden. Fließgewässer und auch das Grund- und Trinkwasser werden dadurch besser geschützt.

Die häufig vom Menschen neu geschaffenen oder umgestalteten Wassergräben und Bäche am Rand von Äckern sammeln bis zu 70 Prozent des Wassers in landwirtschaftlichen Einzugsgebieten ein. „Der Anteil, den diese Bäche an der Reinigung des Wassers haben, ist von der Forschung bisher deutlich unterschätzt worden. Man hat diese kleinen Fließgewässer bislang hauptsächlich als reine Drainagen angesehen, die das aus landwirtschaftlichen Nutzflächen stammende Wasser auffangen und abfließen lassen, ohne die Wasserqualität nennenswert zu beeinflussen. Unsere Studie widerlegt nun diese Sichtweise. Wie wir zeigen konnten, ist das Bachbett dieser Gewässer dicht mit Mikroorganismen besiedelt, die Nitrat abbauen: Sie reduzieren umweltschädliches Nitrat zu gasförmigem Stickstoff. Überraschenderweise haben wir dabei lokal grundlegende Unterschiede in der Besiedlung gefunden: In einigen Abschnitten des Bachbetts fanden sich klassische Denitrifizierer, in anderen Abschnitten dagegen noch weniger bekannte, sogenannte chemolithoautotrophe Nitratreduzierer“, erklärt Prof. Dr. Tillmann Lüders, der an der Universität Bayreuth den Lehrstuhl für Ökologische Mikrobiologie innehat.

Die Besiedlung der Wassergräben mit Organismen, die schädliches Nitrat abbauen, steht in engem Zusammenhang mit einem weiteren Phänomen, das die Forscher jetzt in interdisziplinärer Zusammenarbeit aufzeigen konnten: Die kleinen Fließgewässer nehmen nicht nur Wasser aus der Landschaft auf, sondern geben gleichzeitig auch wieder Wasser an das umgebende Grundwasser ab. Umgekehrt kann dieses Grundwasser stromabwärts auch wieder dem Bach zuströmen. Dadurch können auf einer Fließstrecke von wenigen 100 Metern mehr als 80 Prozent des im Graben fließenden Wassers ausgetauscht werden. Alle diese Prozesse sind abhängig von den lokalen Geländeeigenschaften und beeinflussen ihrerseits die Besiedlung des Bachbetts durch nitratreduzierende Mikroorganismen.

„Wir sind hier auf ein bisher unbekanntes Ineinandergreifen von Hydrologie und Mikrobiologie gestoßen, dem die ökologische Landschaftsgestaltung künftig mehr Aufmerksamkeit schenken sollte. Der sehr viel bessere Erkenntnisstand zu größeren Fließgewässern darf nicht zu einer nachrangigen Betrachtung solch kleiner, landwirtschaftlich geprägter Bäche und Gräben führen. Diese haben einen nicht zu unterschätzenden Anteil an den Selbstreinigungskräften eines gesamten Wassereinzugsgebietes“, sagt Zhe Wang, Erstautor der Studie und wissenschaftlicher Mitarbeiter am Lehrstuhl für Ökologische Mikrobiologie.

Die Forschungsarbeiten, die zu der jetzt in „Water Research“ veröffentlichten Studie geführt haben, wurden exemplarisch in Schwaben, bei Tübingen, durchgeführt. Sie waren eingebettet in den DFG-Sonderforschungsbereich CAMPOS der Universität Tübingen, an dem Prof. Lüders als externer Partner beteiligt war. Sie wurden ebenso begleitet und gefördert durch das Bayreuther Zentrum für Ökologie und Umweltforschung (BayCEER) der Universität Bayreuth. Darüber hinaus waren Forscher des Helmholtz-Zentrums für Umweltforschung UFZ in Leipzig, des Helmholtz-Zentrums München – Deutsches Zentrum für Gesundheit und Umwelt in Neuherberg sowie der Bundesanstalt für Geowissenschaften und Rohstoffe in Hannover (BGR) an der Studie beteiligt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tillmann Lüders
Lehrstuhl für Ökologische Mikrobiologie
Bayreuther Zentrum für Ökologie und Umweltforschung (BayCEER)
Universität Bayreuth
Tel: +49 (0)921 55-5640
E-Mail: tillmann.lueders@uni-bayreuth.de

Originalpublikation:
Zhe Wang, Oscar Jimenez-Fernandez, Karsten Osenbrück, Marc Schwientek, Michael Schloter, Jan H.Fleckenstein, Tillmann Lueders: Streambed microbial communities in the transition zone between groundwater and a first-order stream as impacted by bidirectional water exchange. Water Research (2022), DOI: https://dx.doi.org/10.1016/j.watres.2022.118334

(nach oben)


Der Wald als Schutzraum für Insekten in wärmeren Klimazonen?

Kristian Lozina Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Die Insektenvielfalt in Bayern geht zurück. Grund dafür ist unter anderem die Landnutzung, doch die Auswirkungen des Klimawandels sind noch weitgehend unbekannt. Eine Studie der Universität Würzburg hat nun näher untersucht, wie beide Faktoren bei der Entwicklung der Insektenvielfalt zusammenwirken und was gegen den Rückgang getan werden kann.

Etwa 75 Prozent unserer Nutzpflanzen und mehr als 80 Prozent der Wildpflanzen sind auf die Bestäubung durch Insekten angewiesen. Der Wert dieser Bestäubung wird weltweit auf bis zu 577 Milliarden US-Dollar pro Jahr geschätzt. Die bekanntesten Bestäuber sind Bienen, aber diese sind bei weitem nicht die einzigen Insekten, die diesen Dienst für den Menschen und die Natur erbringen – Fliegen, Käfer, Schmetterlinge und Motten spielen ebenfalls eine wichtige Rolle.

Mehrere Studien haben in den vergangenen Jahrzehnten einen deutlichen Rückgang der Insektenpopulationen festgestellt – auch in Deutschland. Im Fokus stand bisher der Verlust geeigneter Lebensräume für die Insekten, zum Beispiel durch die Umwandlung von Naturgebieten in landwirtschaftliche oder städtische Flächen. Doch welche Folgen hat die Landnutzung in Kombination mit einem wärmeren und trockeneren Klima, speziell für bestäubende Insekten? Und was könnte getan werden, um mögliche negative Folgen abzumildern? Das hat eine neue Studie der Julius-Maximilians-Universität (JMU) Würzburg untersucht.

Die zentralen Ergebnisse der Studie
Das Forscherteam der JMU und Kollegen zeigen zum ersten Mal, wie Klima und Landnutzung zusammen die Vielfalt bestäubender Insekten auf lokaler und landschaftlicher Ebene in Bayern beeinflussen. Auf der Grundlage von mehr als 3200 identifizierten Bestäuberarten von 179 Standorten in Wäldern, Grünland, Ackerland und städtischen Lebensräumen stellen sie eine Homogenisierung der Bestäubergemeinschaften in wärmeren Klimazonen fest. Dies deutet auf einen allgemeinen Verlust der Bestäubervielfalt unter zukünftigen Klimabedingungen hin.

Einzelne Taxa wie Bienen, Fliegen, Käfer, Schmetterlinge und Motten reagierten unterschiedlich auf wärmeres und trockeneres Klima, aber das allgemeine Muster zeigt, dass Landschaften mit einem höheren Waldanteil vielfältigere Bestäubergemeinschaften beheimaten. „Unsere wichtigste Erkenntnis ist, dass der Wald in der Landschaft die Auswirkungen der Klimaerwärmung bis zu einem gewissen Grad abfedern kann“, erklärt Cristina Ganuza, Doktorandin in der Arbeitsgruppe von Professor Ingolf Steffan-Dewenter am Lehrstuhl für Tierökologie und Tropenbiologie der JMU und Hauptautorin der Studie.

„Die Studie unterstreicht, dass neben der Bedeutung der Blühressourcen und den negativen Auswirkungen der intensiven Landnutzung auch die klimatischen Bedingungen eine zunehmend wichtige Rolle für den Erhalt der Bestäubervielfalt spielen. So wirkte sich beispielsweise die Kombination aus hohen Temperaturen und geringen Niederschlägen negativ auf die gesamte Bestäubervielfalt aus, während der Bienenreichtum in städtischen Gebieten durch höhere Durchschnittstemperaturen negativ beeinflusst wurde“, erklärt Steffan-Dewenter.

Besondere Relevanz für Natur und Mensch
Für eine hohe Bestäuberleistung brauche es eine hohe Bestäubervielfalt, so Ganuza. „Die Kombination aus fortschreitendem Klimawandel und aktueller Landnutzung wird es aber nur bestimmten Bestäuberarten ermöglichen, in den verschiedenen Lebensraumtypen zu überleben.“

„Wir kommen zu dem Schluss, dass ein großer Anteil an Waldfläche in der Landschaft als Zufluchtsort für Insekten vor der Klimaerwärmung dienen könnte“, so Ganuza. „Dies liegt wahrscheinlich daran, dass Wälder und Waldränder weitgehend natürliche Bedingungen bieten, die extreme Hitze und Trockenheit im Vergleich zu stärker vom Menschen beeinflussten Lebensräumen abpuffern.“

Ein weiterer Vorschlag der Forschenden wäre die Senkung der Lufttemperatur in Städten, zum Beispiel durch Begrünung. „Das könnte dazu führen, dass mehr Bienenarten in städtischen Gebieten leben können“, erklärt die Biologin. Kurzum: Insekten mögen es vielfältig. Und möglichst unterschiedliche Blütenpflanzen sind für die kleinen Tiere auf allen Flächen unerlässlich.

Kooperationspartner und Förderung
Die Würzburger Studie erschien kürzlich in der Fachzeitschrift Science Advances. Sie entstand in Kooperation mit der Universität Bayreuth, der Technischen Universität München und der Hochschule Weihenstephan-Triesdorf. Sie wurde gefördert durch das Bayerische Staatsministerium für Wissenschaft und Kunst im Rahmen des Bayerischen Klimaforschungsnetzwerks im Forschungscluster „LandKlif – Auswirkungen des Klimawandels auf Artenvielfalt und Ökosystemleistungen in naturnahen, agrarischen und urbanen Landschaften und Strategien zum Management des Klimawandels“.

Wissenschaftliche Ansprechpartner:
Cristina Ganuza, Lehrstuhl für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T. +49 931 – 31 86893, cristina.ganuza_vallejo@uni-wuerzburg.de

Sarah Redlich, Lehrstuhl für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T. +49 931 – 31 821290, sarah.redlich@uni-wuerzburg.de

Ingolf Steffan-Dewenter, Lehrstuhl für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T. +49 931 – 31 86947, ingolf.steffan@uni-wuerzburg.de

Originalpublikation:
Ganuza et al: “Interactive effects of climate and land use on pollinator diversity differ among taxa and scales”; in: Science Advances; doi: 10.1126/sciadv.abm9359

Weitere Informationen:
https://www.biozentrum.uni-wuerzburg.de/zoo3/forschung/verbundprojekte/landklif/

(nach oben)


Lachgas – alles andere als träge

Sarah-Lena Gombert Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kohlenforschung
Kohlenforscher Josep Cornellà entwickelt Methode, Treibhausgas unschädlich zu machen, und veröffentlicht seine Ergebnisse in der Zeitschrift „Nature“.

Der Ausstoß diverser Treibhausgase stellt eine globale Umweltbedrohung dar. Wissenschaftler weltweit beschäftigen sich mehr und mehr mit der Lösung dieses Problems. Während sich viele Forschungsgruppen auf den Umgang mit Kohlenstoffdioxid (C02) oder Methan (CH4) konzentrieren, hat sich jetzt ein Team um Chemiker Josep Cornellà vom Max-Planck-Institut für Kohlenforschung um ein anderes Gas gekümmert, das maßgeblich zur Erderwärmung beiträgt: Distickstoffmonoxid (N2O), vielen auch als Lachgas bekannt.

Lachgas hat ein Erderwärmungspotenzial, das etwa 300 Mal so hoch ist wie das von Kohlenstoffdioxid. Menschliche Aktivität auf diesem Planeten hat dafür gesorgt, dass die Emission von Lachgas in den vergangenen Jahrzehnten um etwa zwei Prozent gestiegen ist. Außerdem ist mittlerweile bekannt, dass Lachgas die Ozonschicht schädigt.

Dabei ist das Molekül viel zu schade, um es einfach in die Luft zu pusten, findet Josep Cornellà: Denn N2O, so erklärt er, ist eine exzellente Quelle für das Sauerstoffatom O. Was übrig bleibt, N2, ist molekularer Stickstoff – denkbar ungefährlich.

Lange galt N2O als „inertes“ Gas, also als träge und wenig reaktionsfreudig. Die Wissenschaftlerinnen und Wissenschaftler aus der Kohlenforschung haben in ihrer Arbeit, die jetzt bei „Nature“ publiziert worden ist, jedoch gezeigt, dass das nicht unbedingt stimmt. Sie beschreiben, wie man N2O unter milden Bedingungen so reagieren lässt, dass aus dem unliebsamen Gas für die Industrie wertvolle Phenole sowie harmloser Stickstoff entstehen. Gelungen ist dieser neuartige Schritt durch Katalysatoren, also feine molekulare Werkzeuge, die bei der Reaktion selbst nicht verbraucht werden.

Der 37-jährige Spanier Josep Cornella arbeitet seit 2017 am Max-Planck-Institut für Kohlenforschung. In seiner jungen Karriere hat er bereits zahlreiche Preise erhalten, unter anderem ist er mit einem ERC Starting Grant gefördert und mit dem Bayer Early Excellence in Science Award ausgezeichnet worden. Jüngst hat er den „Organometallics’ 2022 Distinguished Author Award“ erhalten. Mit diesem Preis zeichnet die American Chemical Society solche Wissenschaftlerinnen und Wissenschaftler aus, die in den vergangenen zwei Jahren mit außergewöhnlich guten Artikeln im Bereich der Organometallischen Chemie auf sich aufmerksam gemacht haben.

Seit mehr als 100 Jahren betreibt das Max-Planck-Institut für Kohlenforschung in Mülheim an der Ruhr chemische Grundlagenforschung und hat seit seiner Eröffnung als Kaiser-Wilhelm-Institut 1914 zahlreiche chemische Entdeckungen von historischer Tragweite gemacht. Es war das erste Kaiser-Wilhelm-Institut außerhalb Berlins und die erste wissenschaftliche Einrichtung im Ruhrgebiet überhaupt.

Zu den wichtigsten Errungenschaften gehört die Entdeckung der Fischer-Tropsch-Synthese in den 1920er Jahren, ein Verfahren zur Herstellung synthetischen Benzins, seinerzeit auf der Basis von Kohle, das aber auch andere Kohlenstoffquellen, wie das Kohlendioxid aus Abgasen oder sogar aus der Luft nutzen kann.

Wirtschaftlich und wissenschaftlich sehr bedeutend – und ebenfalls mit dem Chemienobelpreis ausgezeichnet – war das Niederdruckpolyethylenverfahren von Karl Ziegler, das die wirtschaftliche Produktion von hochwertigen Kunststoffen ermöglichte. Aber auch ein Verfahren zur Entkoffeinierung von Kaffeebohnen wurde am MPI für Kohlenforschung entwickelt. Heute besteht das Institut aus fünf wissenschaftlichen Abteilungen, die jeweils von einem Direktor geleitet werden. Rund 400 Beschäftigte aus aller Welt widmen sich der chemischen Grundlagenforschung mit Fokus auf die Katalyse.

Wissenschaftliche Ansprechpartner:
Dr. Josep Cornellà
cornella@kofo.mpg.de

Originalpublikation:
„Catalytic synthesis of phenols with nitrous oxide“
https://www.nature.com/articles/s41586-022-04516-4

Anhang
Pressemitteilung im PDF Format

(nach oben)


Sonnenschutzkampagne will Hautkrebsrisiko im Sport senken

Dr. Anna Kraft Presse- und Öffentlichkeitsarbeit
Nationales Centrum für Tumorerkrankungen Dresden (NCT/UCC)
Sportlerinnen und Sportler – vom Breiten- bis zum Spitzensport – verbringen häufig viel Zeit im Freien. Wenn sie wiederholt und lange der UV-Strahlung der Sonne ausgesetzt sind, erhöht sich ihr Risiko an Hautkrebs zu erkranken. Zu viel UV-Strahlung kann zudem das Immunsystem und die Leistungsfähigkeit der Athletinnen und Athleten schwächen. Die Deutsche Krebshilfe startet daher gemeinsam mit dem Deutschen Olympischen Sportbund und den Partnern des Präventionsprogramms „Clever in Sonne und Schatten“ der Deutschen Krebshilfe eine deutschlandweite Kampagne unter dem Motto „Wir machen UV-Schutz im Sport zum Thema“.

Die Kampagne vermittelt zielgruppengerecht wichtige Tipps für den Sonnenschutz: beispielsweise die Mittagssonne zu meiden, schützende Kleidung zu tragen und Sonnencreme zu benutzen. Bei einer Auftaktveranstaltung an der Sportoberschule Dresden bekräftigten Vertreterinnen und Vertreter aus Sport und Medizin – darunter die SG Dynamo Dresden als mitgliedsstärkster Sportverein Sachsens – das gemeinsame Engagement. Die Kampagne wurde vom Präventionszentrum des Nationalen Centrums für Tumorerkrankungen Dresden (NCT/UCC) entwickelt. Alle Informations- und Arbeitsmaterialien für die Eliteschulen des Sports, sportbetonte Schulen und Vereine sind kostenfrei erhältlich.

Das Nationale Centrum für Tumorerkrankungen Dresden (NCT/UCC) ist eine gemeinsame Einrichtung des Deutschen Krebsforschungszentrums (DKFZ), des Universitätsklinikums Carl Gustav Carus Dresden, der Medizinischen Fakultät Carl Gustav Carus der TU Dresden und des Helmholtz-Zentrums Dresden-Rossendorf (HZDR).

In Deutschland erkranken derzeit pro Jahr mehr als 300.000 Menschen neu an Hautkrebs, mehr als 40.000 Menschen davon am Malignen Melanom, dem sehr gefährlichen schwarzen Hautkrebs. Der wichtigste äußere Risikofaktor für Hautkrebs ist eine starke Belastung der Haut mit ultra­violetten (UV-) Strahlen. Sportlerinnen und Sportler sowie ihre Trainerinnen und Trainer sind oft viel und lange in der Sonne. Deshalb ist ein geeigneter Sonnenschutz zur Hautkrebsprävention – etwa durch möglichst lange Kleidung, Kopfbedeckung, Sonnencreme und Trainingszeiten außerhalb der Mittagszeit – für sie besonders wichtig. Mit einer deutschlandweiten Kampagne wollen die Deutsche Krebshilfe, der Deutsche Olympische Sportbund (DOSB) sowie die Partner des Programms „Clever in Sonne und Schatten“ die Aufmerksamkeit für das Thema erhöhen und richtigen Sonnenschutz nachhaltig in sportbetonten Schulen, Vereinen und Verbänden etablieren.

„Die Deutsche Krebshilfe macht sich angesichts steigender Erkrankungszahlen seit Jahren für die Hautkrebsprävention stark, etwa mit gezielten Programmen für Schulen und Kitas. Wir freuen uns, gemeinsam mit starken Partnern künftig einen weiteren Schwerpunkt im Bereich des Sports legen zu können“, sagt Gerd Nettekoven, Vorstandsvorsitzender der Deutschen Krebshilfe. „Zu viel UV-Strahlung kann auch das Immunsystem schwächen und die Gefahr für Infektionen verstärken. Auch deshalb ist es uns wichtig, unsere Sportlerinnen und Sportler möglichst gut vor einer wiederkehrenden intensiven Sonnenbelastung zu schützen“, ergänzt Dr. Sven Baumgarten vom DOSB.

Um das Bewusstsein für die Bedeutung des UV-Schutzes im Sport zu stärken, hat das Präventionszentrum des Nationalen Centrums für Tumorerkrankungen Dresden (NCT/UCC) spezielle Projektpakete für sportbetonte Schulen entwickelt. Diese enthalten unter anderem Videospots und Präsentationen für den Unterricht sowie für Elternabende, Poster mit Sonnenschutzregeln und ein Handbuch für Lehrkräfte. Seit Jahresbeginn wurden die deutschlandweit 43 DOSB-Eliteschulen des Sports über das Projekt informiert, die rund 11.500 junge Sportlerinnen und Sportler fördern. „Jetzt begleiten wir die Schulen dabei, das Projekt umzusetzen und Sonnenschutz nachhaltig in den Schulalltag zu integrieren. Nach erfolgreicher Umsetzung können sich die Schulen im Herbst für ihr Engagement auszeichnen lassen“, sagt Dr. Friederike Stölzel, Co-Leiterin des NCT/UCC-Präventionszentrums.

Darüber hinaus entwickelt das NCT/UCC Materialien, um einen adäquaten UV-Schutz in Sportvereinen und -verbänden zu verankern. Aktuell werden diese im Dresdner Sportclub 1898 e.V. auf Praxistauglichkeit und Akzeptanz getestet, auch die SG Dynamo Dresden ist eng eingebunden. Ab nächstem Jahr stehen die kostenfreien Informations- und Aktionspakete dann allen Vereinen und Verbänden deutschlandweit zur Verfügung. „Im Sommer trainieren wir oft mehrere Stunden am Tag in der Sonne, mit T-Shirts und kurzen Hosen. Da sollte es selbstverständlich sein, auch an die Sonnencreme zu denken. Es ist wichtig, dass wir uns über die Risiken und die einfachen Schutz-Möglichkeiten besser bewusst werden“, sagt Sebastian Mai, Spieler von Dynamo Dresden. „Vorbeugung und Früherkennung sind beim Kampf gegen Hautkrebs das A und O. Mit eigentlich einfachen Regeln könnten sich die Hautkrebszahlen senken und die Heilungsraten erhöhen lassen“, betont Prof. Friedegund Meier, Leiterin des Hauttumorzentrums am NCT/UCC. „Nach meiner eigenen Hautkrebserkrankung ist es mir ein großes Anliegen, andere für dieses Thema zu sensibilisieren. Wir freuen uns, Eliteschulen des Sports, sportbetonte Schulen und Vereine hierbei künftig gezielt unterstützen zu können“, ergänzt Susanne Klehn, Botschafterin für Hautkrebsprävention der Deutschen Krebshilfe.

Clever in Sonne und Schatten
Das Programm „Clever in Sonne und Schatten“ der Deutschen Krebshilfe richtet sich – neben dem neuen Fokus auf sportbetonten Schulen und Sportvereine – vor allem an Kitas und Grundschulen. „Kinderhaut ist ganz besonders empfindlich. Die in der Kindheit und Jugend erworbenen UV-Schäden der Haut sind maßgeblich für das spätere Entstehen von Hautkrebs verantwortlich. Daher müssen wir schon bei den Kleinsten mit dem richtigen Sonnenschutz beginnen“, sagt Prof. Eckhard Breitbart, Vorsitzender der Arbeitsgemeinschaft Dermatologische Prävention, Hamburg. In den vergangenen Jahren konnten deutschlandweit 5.500 Projektpakete versandt und mehr als 350 Kitas und Grundschulen für ihr Engagement zum Sonnenschutz ausgezeichnet werden. Partner des Programms sind die Arbeitsgemeinschaft Dermatologische Prävention e.V. und das Projekt „Die Sonne und Wir“ an der Universität zu Köln – Uniklinik Köln.

Ansprechpartner für die Presse:
Dr. Anna Kraft
Nationales Centrum für Tumorerkrankungen Dresden (NCT/UCC)
Presse- und Öffentlichkeitsarbeit
Tel.: +49 (0)351 458-5548
E-Mail: anna.kraft@nct-dresden.de
www.nct-dresden.de

Dr. Sibylle Kohlstädt
Deutsches Krebsforschungszentrum (DKFZ)
Strategische Kommunikation und Öffentlichkeitsarbeit
Tel.: +49 (0)6221 42-2854
Fax: +49 (0)6221 42-2968
E-Mail: s.kohlstaedt@dkfz.de
www.dkfz.de

Stephan Wiegand
Stabsstelle Öffentlichkeitsarbeit & Marketing
Medizinische Fakultät Carl Gustav Carus der Technischen Universität Dresden
Tel.: +49 (0) 351 458-19389
Fax: +49 (0) 351 458-885486
E-Mail: stephan.wiegand@tu-dresden.de
www.tu-dresden.de/med

Holger Ostermeyer
Universitätsklinikum Carl Gustav Carus Dresden Pressestelle
Tel.: +49 (0)351 458-4162
Fax: +49 (0)351 449210505
E-Mail: Pressestelle@uniklinikum-dresden.de www.uniklinikum-dresden.de

Simon Schmitt
Kommunikation und Medien | Leitung und Pressesprecher
Helmholtz-Zentrum Dresden-Rossendorf
E-Mail: s.schmitt@hzdr.de
Tel.: +49 351 260-3400
www.hzdr.de

NCT/UCC Dresden
Das Nationale Centrum für Tumorerkrankungen Dresden (NCT/UCC) ist eine gemeinsame Einrichtung des Deutschen Krebsforschungszentrums (DKFZ), des Universitätsklinikums Carl Gustav Carus Dresden, der Medizinischen Fakultät der Technischen Universität Dresden und des Helmholtz-Zentrums Dresden-Rossendorf (HZDR).
Das NCT hat es sich zur Aufgabe gemacht, Forschung und Krankenversorgung so eng wie möglich zu verknüpfen. Damit können Krebspatienten an den NCT-Standorten auf dem jeweils neuesten Stand der wissenschaftlichen Erkenntnisse behandelt werden. Gleichzeitig erhalten die Wissenschaftler durch die Nähe von Labor und Klinik wichtige Impulse für ihre praxisnahe Forschung. Gemeinsamer Anspruch der NCT-Standorte ist es, das NCT zu einem internationalen Spitzenzentrum der patientennahen Krebsforschung zu entwickeln. Das Dresdner Zentrum baut auf den Strukturen des Universitäts KrebsCentrums Dresden (UCC) auf, das 2003 als eines der ersten Comprehensive Cancer Center (CCC) in Deutschland gegründet wurde. Seit 2007 wurde das UCC von der Deutschen Krebshilfe e.V. (DKH) kontinuierlich als „Onkologisches Spitzenzentrum“ ausgezeichnet.

Deutsches Krebsforschungszentrum (DKFZ)
Das DKFZ ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Universitätsklinikum Carl Gustav Carus Dresden
Das Universitätsklinikum Carl Gustav Carus Dresden bietet medizinische Betreuung auf höchstem Versorgungsniveau. Als Krankenhaus der Maximalversorgung deckt es das gesamte Spektrum der modernen Medizin ab. Das Universitätsklinikum vereint 20 Kliniken und Polikliniken, vier Institute und zehn interdisziplinäre Zentren, die eng mit den klinischen und theoretischen Instituten der Medizinischen Fakultät zusammenarbeiten.
Mit 1.295 Betten und 160 Plätzen für die tagesklinische Behandlung von Patienten ist das Dresdner Uniklinikum das größte Krankenhaus der Stadt und zugleich das einzige Krankenhaus der Maximalversorgung in Ostsachsen. Rund 860 Ärzte decken das gesamte Spektrum der modernen Medizin ab. 1.860 Schwestern und Pfleger kümmern sich um das Wohl der Patienten. Wichtige Behandlungsschwerpunkte des Uniklinikums sind die Versorgung von Patienten, die an Krebs, an Stoffwechsel- und an neurodegenerativen Erkrankungen.
Deutschlands größter Krankenhausvergleich des Nachrichtenmagazins „Focus“ bescheinigt dem Universitätsklinikum Carl Gustav Dresden eine hervorragende Behandlungsqualität. Die Dresdner Hochschulmedizin belegt deshalb Platz zwei im deutschlandweiten Ranking.

Medizinische Fakultät Carl Gustav Carus der Technischen Universität Dresden
Die Hochschulmedizin Dresden, bestehend aus der Medizinischen Fakultät Carl Gustav Carus und dem gleichnamigen Universitätsklinikum, hat sich in der Forschung auf die Bereiche Onkologie, metabolische sowie neurologische und psychiatrische Erkrankungen spezialisiert. Bei diesen Schwerpunkten sind übergreifend die Themenkomplexe Degeneration und Regeneration, Imaging und Technologieentwicklung, Immunologie und Inflammation sowie Prävention und Versorgungsforschung von besonderem Interesse. Internationaler Austausch ist Voraussetzung für Spitzenforschung – die Hochschulmedizin Dresden lebt diesen Gedanken mit Mitarbeiterinnen und Mitarbeitern aus 73 Nationen sowie zahlreichen Kooperationen mit Forschern und Teams in aller Welt.

Helmholtz-Zentrum Dresden-Rossendorf (HZDR)
Das Helmholtz-Zentrum Dresden-Rossendorf (HZDR) forscht auf den Gebieten Energie, Gesundheit und Materie. Folgende Fragestellungen stehen hierbei im Fokus:
• Wie nutzt man Energie und Ressourcen effizient, sicher und nachhaltig?
• Wie können Krebserkrankungen besser visualisiert, charakterisiert und wirksam behandelt werden?
• Wie verhalten sich Materie und Materialien unter dem Einfluss hoher Felder und in kleinsten Dimensionen?
Zur Beantwortung dieser wissenschaftlichen Fragen betreibt das HZDR große Infrastrukturen, die auch von externen Messgästen genutzt werden: Ionenstrahlzentrum, Hochfeld-Magnetlabor Dresden und ELBE-Zentrum für Hochleistungs-Strahlenquellen.
Das HZDR ist Mitglied der Helmholtz-Gemeinschaft, hat fünf Standorte (Dresden, Freiberg, Grenoble, Leipzig, Schenefeld bei Hamburg) und beschäftigt knapp 1.200 Mitarbeiter – davon etwa 500 Wissenschaftler inklusive 170 Dok

(nach oben)


Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Wenn bis 2050 nur ein Fünftel des pro-Kopf Rindfleischkonsums durch Fleischalternativen aus mikrobiellem Protein ersetzt wird, könnte das die weltweite Entwaldung halbieren: Das ist das Ergebnis einer neuen Analyse des Potsdam-Instituts für Klimafolgenforschung (PIK), die in der Fachzeitschrift Nature veröffentlicht wurde und zum ersten Mal mögliche Auswirkungen dieser bereits marktreifen Lebensmittel auf die Umwelt umfassend untersucht.

Der aus Pilzkulturen durch Fermentierung produzierte Fleischersatz ähnelt echtem Fleisch in Geschmack und Konsistenz, ist aber ein biotechnologisches Produkt. Gegenüber Rindfleisch erfordern diese Fleischalternativen deutlich weniger Landressourcen und können somit die Treibhausgasemissionen durch Viehhaltung und die Ausweitung von Acker- und Weideland stark senken. Die Analyse geht von der Annahme aus, dass die wachsende Weltbevölkerung immer mehr Appetit auf Rindfleisch hat.

„Die Produktion und der Konsum von Nahrungsmitteln machen ein Drittel der weltweiten Treibhausgasemissionen aus, wobei die Produktion von Rindfleisch die größte Einzelquelle ist“, sagt Florian Humpenöder, Forscher am PIK und Hauptautor der Studie. Das liegt zum Großteil daran, dass kohlenstoffspeichernde Wälder für Weide- oder Ackerflächen immer weiter gerodet werden sowie an weiteren Treibhausgasemissionen aus der landwirtschaftlichen Tierhaltung. Ein Teil der Lösung könnte in bereits existierender Biotechnologie liegen: Nährstoffreiche, proteinreiche Biomasse mit fleischähnlicher Konsistenz, die von Mikroorganismen durch Fermentierung produziert wird – von Forschenden als mikrobielles Protein, also Eiweiß, bezeichnet.

„Würde man Wiederkäuerfleisch, also vor allem Rind-, aber auch Schaf- und Ziegenfleisch durch mikrobielles Protein ersetzen, könnte man die künftigen Umweltschäden durch das Ernährungssystem erheblich verringern“, sagt Humpenöder. „Die gute Nachricht ist: Die Menschen müssen keine Angst haben, dass sie in Zukunft nur noch Gemüse essen sollen. Sie können weiterhin Burger & Co. essen, nur werden die Burger-Pattys dann anders hergestellt.“

Nachhaltige Burger: Rinderhackfleisch durch mikrobielles Protein ersetzen
Das Forschungsteam aus Deutschland und Schweden hat mikrobielles Protein in einer Computersimulation in den Kontext des gesamten Agrar- und Ernährungssystems gestellt, um die Auswirkungen auf die Umwelt zu ermitteln. Dieser Ansatz unterscheidet sich von früheren Studien, die nur einzelne Produkte betrachteten. Die Zukunftsszenarien der Forschenden reichen bis zum Jahr 2050 und berücksichtigen das künftige Bevölkerungswachstum, die Nahrungsmittelnachfrage, die Ernährungsgewohnheiten und die Dynamiken der Landnutzung und der Landwirtschaft. Da der Fleischkonsum in Zukunft wahrscheinlich weiter ansteigen wird, könnten immer mehr Wälder und nicht bewaldete natürliche Vegetation für Weide- und Ackerflächen verloren gehen.

„Wir haben herausgefunden, dass sich die jährliche Entwaldung und die CO2-Emissionen durch die Ausweitung von Acker- und Weideland im Vergleich zu einem Weiter-So-Szenario halbieren würden, wenn wir bis 2050 20 Prozent des pro-Kopf Konsums von Rindfleisch ersetzen würden. Weniger Rinder bedeuten weniger Bedarf an Futter- und Weideflächen und daher weniger Entwaldung – und reduzieren auch die Methanemissionen aus dem Pansen von Rindern und die Lachgasemissionen aus der Düngung von Futtermitteln oder der Güllewirtschaft“, sagt Humpenöder. “ Hackfleisch durch mikrobielles Protein zu ersetzen wäre also ein guter Anfang, um die Umweltschäden der heutigen Rindfleischproduktion zu verringern.“

Fleischersatz aus mikrobiellem Protein kann von landwirtschaftlicher Produktion entkoppelt werden
„Es gibt im Wesentlichen drei Gruppen von Fleischersatzprodukten“, erklärt Isabelle Weindl, Mitautorin und ebenfalls Forscherin am PIK. „Es gibt pflanzliche Produkte wie Soja-Burger, die man in Supermärkten findet. Es gibt tierische Zellen, die in einem Wachstumsmedium kultiviert werden, auch bekannt als Labor- oder in-vitro-Fleisch, das bisher sehr teuer ist, aber in letzter Zeit viel öffentliche Aufmerksamkeit erregt hat. Und es gibt fermentativ gewonnenes mikrobielles Protein auf Basis von Pilzkulturen, das wir für sehr interessant halten. Schon heute ist eine große Produktpalette davon etwa in Großbritannien und Schweiz im Supermarkt erhältlich und, was wichtig ist, es kann weitgehend von der landwirtschaftlichen Produktion entkoppelt werden. Unsere Ergebnisse zeigen, dass die Herstellung von mikrobiellem Protein viel weniger landwirtschaftliche Fläche erfordert als die gleiche Menge Protein aus Fleisch – sogar, wenn man den Anbau des Zuckers einrechnet, den die Mikroben benötigen.“

Mikrobielles Protein wird in speziellen Kulturen hergestellt, ähnlich wie Bier oder Brot. Die Mikroben brauchen Zucker und eine konstante Temperatur. Daraus entsteht ein sehr proteinreiches Produkt, das so schmeckt, sich so anfühlt und so nahrhaft ist wie Rindfleisch. Die Technik basiert auf der jahrhundertealten Methode der Fermentation und wurde in den 1980er Jahren entwickelt. Die US-amerikanische Lebensmittelbehörde FDA (Food and Drug Administration) gab 2002 grünes Licht für eine von Mikroben hergestellte Fleischalternative („Mycoprotein“) und stufte sie als sicher ein.

Grüne Biotechnologie muss durch grüne Energie angetrieben werden
„Biotechnologie kann eine wichtige Rolle spielen für Herausforderungen einer umweltschonenden Landwirtschaft, von der Erhaltung der Ökosysteme bis zur Verbesserung der Ernährungssicherheit“, sagt Mitautor Alexander Popp, Leiter der Forschungsgruppe Landnutzungs-Management am PIK.
„Alternativen zu tierischen Proteinen, zum Beispiel auch was Milchersatzprodukte betrifft, könnten dem Tierwohl massiv zugutekommen, Wasser sparen und Naturräume und Artenvielfalt schonen. Allerdings bringt die Verlagerung vom Tier zum Fermentations-Tank weitere Fragen mit sich – allen voran die Energieversorgung für den Produktionsprozess.
„Eine groß angelegte Umstellung auf Biotech-Lebensmittel muss einhergehen mit einer klimafreundlichen Stromerzeugung. Nur so kann das Klimaschutzpotenzial voll wirken“, so Popp weiter. „Aber wenn wir es richtig anpacken, kann mikrobielles Protein auch Fleischliebhabern den Wandel erleichtern. Schon kleine Häppchen können viel bewirken.“

Originalpublikation:
Florian Humpenöder, Benjamin Bodirsky, Isabelle Weindl, Hermann Lotze-Campen, Tomas Linder, Alexander Popp (2022): Projected environmental benefits of replacing beef with microbial protein. Nature. [DOI: 10.1038/s41586-022-04629-w]

(nach oben)


Coronaviren auf Glas: Handelsübliche Spülmittel und manuelle Gläserspülgeräte entfernen Viren effektiv

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
BfR-Studie liefert Daten zur Stabilität von Coronaviren auf Glasoberflä-chen und ihrer Inaktivierung durch herkömmliche Spülverfahren

Ob zuhause, in der Kantine oder im Restaurant – immer wieder steht die Frage im Raum, ob das neuartige Coronavirus SARS-CoV-2 auch über Geschirr oder Trinkgläser übertragen werden kann. In der Regel werden Infektionen mit Coronaviren über Tröpfchen und Aerosole direkt von Mensch zu Mensch weitergegeben. Auch wenn Schmierinfektionen nicht ausgeschlossen werden können, gibt es für die indirekte Übertragung des Virus durch kontaminierte Gegenstände und Oberflächen bislang keine belastbaren Belege. Dennoch nehmen Trinkgläser bei diesen Überlegungen eine besondere Stellung ein, da sie in direkten Kontakt mit dem Mund und der Mundhöhle kommen. Ein Forschungsprojekt des Bundesinstituts für Risikobewertung (BfR) liefert nun neue Erkenntnisse. „Coronaviren sind auf Glas relativ stabil – das bestätigen unsere Untersuchungen. Eine ausreichende Reinigung von Trinkgläsern ist daher wichtig,“ so BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Unsere Daten zeigen, dass handelsübliche Spülmittel und manuelle Gläserspülgeräte Coronaviren effektiv von Trinkgläsern entfernen können.“

Die Studie wurde am 6. April 2022 in dem wissenschaftlichen Fachjournal Food Microbiology veröffentlicht:
https://doi.org/10.1016/j.fm.2022.104036

Für die Untersuchungen wurde das dem SARS-CoV-2 verwandte humane Coronavirus 229E, das beim Menschen zu milden Atemwegserkrankungen führen kann und oft als Modellvirus für humane Coronaviren eingesetzt wird, verwendet. Die Ergebnisse zeigen, dass Coronaviren nach dem Trocknen auf Glas für Tage bis Wochen infektiös bleiben können. Dabei hat die Lichteinwirkung einen großen Einfluss. Bei Lagerung bei Tageslicht konnten infektiöse Coronaviren bis zu sieben Tage und bei Dunkelheit bis zu 21 Tage nachgewiesen werden. Als behüllte Viren, deren Erbgut von einer Fettschicht umgeben ist, reagieren Coronaviren empfindlich auf fettlösende Substanzen wie Alkohole und Tenside, die als Fettlöser in Seifen und Geschirrspülmitteln enthalten sind. Die Untersuchungen des BfR zeigten, dass die meisten handelsüblichen Spülmittel Coronaviren in Spülwasser mit einer Temperatur von 23 Grad Celsius innerhalb von 15 Sekunden ausreichend inaktivieren. Lediglich bei einem Spülmittel mit einem geringeren Gesamtgehalt an Tensiden war dafür eine höhere Temperatur von 43 Grad Celsius und eine längere Einwirkzeit von 60 Sekunden nötig. Mit einem manuellen Gläserspülgerät nach DIN 6653-3 konnten Coronaviren auch bei der Verwendung kalten Wassers effektiv von den Gläsern entfernt werden.

Die Ergebnisse der BfR-Studie zeigen, dass sich sowohl beim Handspülen als auch bei der Nutzung manueller Gläserspülgeräte Coronaviren ausreichend von Trinkgläsern entfernen lassen. Voraussetzung hierfür ist die ordnungsgemäße Durchführung des Spülens, die unter anderem einen ausreichend häufigen Wasserwechsel, die Verwendung der vom Hersteller empfohlenen Spülmittelkonzentrationen und eine ausreichende manuelle Schmutzbeseitigung beinhaltet.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt

Dr. Stefanie Mikulla Referat für Presse- und Öffentlichkeitsarbeit
Universität Potsdam
Extremereignisse wie Dürre, Starkregen und Sturzfluten haben in Deutschland in den vergangenen Jahren stark zugenommen. Um das Risikomanagement bei extremen Niederschlägen, großflächigen Überschwemmungen oder langanhaltenden Dürreperioden zu verbessern, fördert das Bundesministerium für Bildung und Forschung (BMBF) mit der Maßnahme „WaX – Wasser-Extremereignisse“ zwölf neue Forschungsverbünde. Das Institut für Umweltwissenschaften und Geographie der Universität Potsdam ist mit dem Verbundvorhaben „Inno_MAUS“ sowie mit dem Vernetzungsvorhaben „Aqua-X-Net“ dabei. Die WaX-Auftaktveranstaltung findet heute und morgen in Bonn statt.

Ziel der neuen Fördermaßnahme ist es, die gravierenden Folgen von Dürreperioden, Starkregen- und Hochwasserereignissen durch verbesserte Managementstrategien und Anpassungsmaßnahmen abzuwenden. Insgesamt zwölf Forschungsvorhaben mit Partnern aus Wissenschaft, Wirtschaft und Praxis sowie ein Vernetzungs- und Transfervorhaben werden praxisnahe und fachübergreifende Ansätze erarbeiten, die die Auswirkungen von Wasserextremen auf die Gesellschaft und den natürlichen Lebensraum begrenzen und gleichzeitig neue Perspektiven für die Wasserwirtschaft eröffnen. Die Forschungsschwerpunkte liegen dabei auf digitalen Instrumenten für Monitoring, Analyse, Vorhersage und Kommunikation, dem Risikomanagement hydrologischer Extreme und auf urbanen extremen Wasserereignissen.

Im Forschungsverbund „Innovative Instrumente zum MAnagement des Urbanen Starkregenrisikos (Inno_MAUS)“, das in der Arbeitsgruppe Hydrologie und Klimatologie an der Uni Potsdam angesiedelt ist, sollen digitale Instrumente zum Umgang mit Starkregenrisiken in Städten weiterentwickelt und den Kommunen bereitgestellt werden. Um Starkregenereignisse mit geringer Ausdehnung besser vorhersagen zu können, wird dabei das Potenzial von tiefen neuronalen Netzen und hochauflösenden Radarbildern erforscht.

„Die Menge des Oberflächenabflusses ist davon abhängig, wie schnell wie viel Regenwasser versickern kann. Deshalb spielt die Möglichkeit, Wasser in der Stadt auf entsiegelten Flächen zurückzuhalten, eine wichtige Rolle“, sagt der Projektleiter Prof. Dr. Axel Bronstert. Das bei Starkregenereignissen oberflächlich abfließende Wasser wird zum einen mit hydrologischen Modellen simuliert. Zum anderen kommt innovatives Machine Learning zum Einsatz, um die Simulationen um ein Vielfaches zu beschleunigen und damit Gefährdungssituationen schneller einschätzen zu können. „Ein weiterer wichtiger Aspekt ist die Abschätzung der Schäden an Gebäuden und Infrastruktur durch urbane Flutereignisse“, erläutert Axel Bronstert. „Um solche Schäden zu vermeiden, ist eine enge Zusammenarbeit vieler Akteure wichtig, wie beispielsweise der Wasserwirtschaft, der Rettungsdienste und der Stadt- und Raumplaner.“

Die aus hydrologischer Sicht sehr verschiedenen Städte Berlin und Würzburg sind die Forschungspartner des Projekts, in dem die Universität Potsdam mit der Technischen Universität München und den Geoingenieurfirmen Orbica UG (Berlin) und KISTERS-AG (Aachen) zusammenarbeitet.

Begleitet werden die Verbundprojekte vom Vernetzungs- und Transfervorhaben „Aqua-X-Net“, das vom Deutschen Komitee Katastrophenvorsorge e. V. (DKKV) in Bonn zusammen mit der Arbeitsgruppe Geographie und Naturrisikenforschung von Prof. Dr. Annegret Thieken an der Universität Potsdam durchgeführt wird. Das Vorhaben ermöglicht durch Veranstaltungs- und Kommunikationsformate eine intensive Vernetzung und den Austausch der zwölf Forschungsvorhaben, stellt Synergien her und übernimmt eine öffentlichkeitswirksame Kommunikation der Ergebnisse. „Damit die Forschungsergebnisse in Wirtschaft, Fachverwaltung und Politik, aber auch in der breiten Öffentlichkeit ankommen, werden im Vernetzungs- und Transferprojekt Handlungsempfehlungen für Anwenderinnen, Anwender und kommunale Verbände sowie leicht verständliche Informationsmaterialien entwickelt“, betont Annegret Thieken. „Damit soll ein nachhaltiger und zielgruppengerechter Praxistransfer erreicht werden.“

Am 2. und 3. Mai 2022 kommen die Verbundvorhaben der Fördermaßnahme WaX zur Auftaktveranstaltung in Bonn erstmals zusammen. Während dieses zweitägigen Kick-Offs werden sich die Akteure der zwölf Vorhaben und ihre beteiligten Partner vorstellen, kennenlernen und austauschen.

Das BMBF fördert die Maßnahme „Wasser-Extremereignisse (WaX)“ im Rahmen des Bundesprogramms „Wasser: N – Forschung und Innovation für Nachhaltigkeit“. Wasser: N ist Teil der BMBF-Strategie „Forschung für Nachhaltigkeit (FONA)“. Die Forschungsvorhaben laufen bis Anfang 2025.

Link zur Fördermaßnahme: https://www.bmbf-wax.de/

Kontakt:
Prof. Dr. Axel Bronstert, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2548
axel.bronstert@uni-potsdam.de

Prof. Dr. Annegret Thieken, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2984
annegret.thieken@uni-potsdam.de

Medieninformation 02-05-2022 / Nr. 046
Dr. Stefanie Mikulla

Universität Potsdam
Referat Presse- und Öffentlichkeitsarbeit
Am Neuen Palais 10
14469 Potsdam
Tel.: +49 331 977-1474
Fax: +49 331 977-1130
E-Mail: presse@uni-potsdam.de
Internet: www.uni-potsdam.de/presse

(nach oben)


Girls’Day und Boys’Day 2022: mehr als 115.000 Schülerinnen und Schüler machten mit

Christina Haaf M.A. Pressestelle
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Für Mädchen und Jungen war es ein spannender Einblick in für sie bislang ungewohnte Berufe, für die Unternehmen und Institutionen eine sehr gute Möglichkeit, praxisnah den Nachwuchs zu fördern: Endlich war es Jugendlichen in diesem Jahr wieder möglich, live und in Farbe am Girls’Day und Boys’Day Berufe kennen zu lernen, die sie sonst eher selten in Betracht ziehen.

Denn es gibt sie noch immer: Berufe mit geringem Frauen- oder Männeranteil sowie den Einfluss von Geschlechterstereotypen auf die Berufs- und Studienwahl. Dagegen setzten am 28. April bundesweit mehr als 115.000 Schülerinnen und Schüler aus ganz Deutschland einen Impuls. Sie konnten zwischen mehr als 11.000 Angeboten in Unternehmen und Institutionen wählen.

Auch die Bundesministerien, die die beiden Projekte fördern, waren live dabei: Die Parlamentarische Staatssekretärin bei der Bundesjugendministerin, Frau Ekin Deligöz, besuchte in Berlin das Boys’Day-Angebot der Waldkita Fila sowie das Girls’Day Angebot beim ICE Werk der Deutschen Bahn in Rummelsburg Dr. Jens Brandenburg, Parlamentarischer Staatssekretär beim Bundesbildungsministerium, war beim Girls’Day-Angebot der Eurovia GmbH auf einer Baustelle am Berliner Stadtschloss dabei.

In unsicheren Zeiten sind Angebote für Schülerinnen und Schüler zur Berufs- und Studienwahl eine wichtige und zukunftsweisende Komponente. Gerade im Handwerk, Mathematik, Informatik, Naturwissenschaft und Technik, aber auch in den sozialen und pflegerischen Berufen herrscht ein gravierender Fachkräftemangel. Obwohl es mehr als 330 duale Ausbildungsberufe gibt, entscheiden sich noch immer mehr als die Hälfte der Mädchen für einen von zehn Ausbildungsberufen. Darunter ist kein gewerblich-technischer. Bei den Jungen verhält es sich ähnlich, hier entscheiden sich mehr als die Hälfte für einen von zwanzig Ausbildungsberufen.

„Wir sind froh, dass die Schülerinnen und Schüler nach zwei Jahren Pandemie endlich auch wieder vor Ort am Girls’Day und Boys’Day teilnehmen konnten“, sagt Romy Stühmeier Leiterin der Bundeskoordinierungsstellen Girls’Day und Boys’Day. „Es ist gerade in Zeiten des akuten Fachkräftemangels im MINT-Bereich sowie in den Sozialen- und Gesundheitsberufen dringend geboten, die Potenziale aller zu nutzen. Das Schöne an den Aktionstagen ist doch: Es profitieren die Jugendlichen und die Betriebe.“

Weitere Informationen:
http://www.girls-day.de
http://www.boys-day.de

(nach oben)


Belastungen in der modernen Arbeitswelt – Herausforderung für den Arbeitsschutz?

Prof. Dr. Volker Hielscher Pressestelle
Institut für Sozialforschung und Sozialwirtschaft e.V. (iso)
Die Arbeitswelt hat sich in den letzten Jahren tiefgreifend verändert. Digitale Umgebungen und neue Arbeitsformen wie z.B. ortsflexibles Arbeiten sind auf dem Vormarsch und werden die Arbeitswelt in Zukunft prägen. Durch diesen Wandel sind auch „neue“ Belastungsformen wie psychosoziale Arbeitsbelastungen oder Belastungen durch die Digitalisierung in den Vordergrund gerückt. Wie der betriebliche Arbeitsschutz mit diesen Anforderungen umgeht, erforscht das Institut für Sozialforschung und Sozialwirtschaft (iso) Saarbrücken gemeinsam mit dem Universitätsklinikum Düsseldorf in einer europaweiten Studie. Auftraggeber der Studie ist die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA).

In den letzten Jahrzehnten hat sich die Arbeitswelt fundamental verändert. Globalisierung, neue Arbeitsorganisationen – insbesondere die Flexibilisierung der Arbeit wie z.B. ortsflexibles Arbeiten – und Digitalisierungsprozesse führen auch zu neuen Risiken im Arbeitsleben. Durch die Erforschung dieser Veränderungen sollen Unternehmen unterstützt werden, präventiv zu handeln und die Gesundheit der Beschäftigten zu fördern. Im Rahmen der Studie soll insbesondere die Frage untersucht werden, inwiefern „neue und aufkommende Risiken“ wie psychosoziale Arbeitsbelastungen, Belastungen durch mobiles Arbeiten und digitalisierte Arbeitsplätze in der betrieblichen Präventionspraxis angemessen berücksichtigt werden können.
Um die Wissensbasis zur betrieblichen Präventionspraxis zu erweitern, wurden das iso-Institut und die Universitätsklinik Düsseldorf beauftragt, die Daten der „Europäischen Unternehmenserhebung über neue und aufkommende Risiken“ (ESENER) auszuwerten. Die Daten aus den ESENER Erhebungen liegen mittlerweile aus drei Wellen vor. Maßnahmen und betriebliche Umsetzungsbedingungen können daher im Zeitvergleich analysiert und etwaige Trends und Zusammenhänge identifiziert werden. Zudem erlauben die ESENER-Daten auch EU-vergleichende Analysen, so dass Befunde für Deutschland auch im Vergleich mit Befunden aus anderen EU-Ländern bewertet und diskutiert werden können.
Mit den Ergebnissen der Analysen zum Umgang mit psychosozialen Risiken der Arbeit und zu Einflussgrößen auf Arbeitsschutzmaßnahmen bei ortsflexiblen und digitalisierten Arbeitsplätzen können Empfehlungen zur Weiterentwicklung des Arbeitsschutzsystems umfassender und integrierter ausgerichtet werden. Das übergeordnete Ziel dieses Projekts ist es daher, den bisherigen, insbesondere auf empirischer Ebene noch unzureichenden Wissenstand im Bereich des betrieblichen Gesundheitsschutzes zu erweitern.

Wissenschaftliche Ansprechpartner:
Dr. Thorsten Lunau (lunau@iso-institut.de)

(nach oben)


Zukunft der Innenstädte und Ortsmitten – Studierende zeigen Arbeiten in Galerie der Schader-Stiftung

Simon Colin Hochschulkommunikation
Hochschule Darmstadt
Innenstädte und Orts(teil)mitten stehen vor einem Strukturwandel. Wie könnten sie sich zukunftsfähig und nachhaltig entwickeln? Mehr als 200 Studierende der Hochschule Darmstadt (h_da) haben hierzu Ideen und Konzepte für Darmstadt und umliegende kleinere Städte und Gemeinden wie Michelstadt und Fischbachtal entworfen. Ausgewählte Arbeiten sind bis zum 21.05. in einer ambitionierten Ausstellung in der Schader-Galerie zu sehen (Goethestraße 2, 64285 Darmstadt).

Für die Ausstellung „Der Donut-Effekt – Zur Zukunft von Innenstädten und Orts(teil)mitten“ haben sich Studierende aus den Studiengängen Architektur, Bau- und Umweltingenieurwesen und Wirtschaft Gedanken zur Gestaltungen neuer Mitten gemacht. In insgesamt mehr als 40 Arbeiten beschäftigen sie sich mit Themen wie Klimaanpassung, Stadt der kurzen Wege, Einkaufen, Wohnen und Freizeit, der Gestaltung des öffentlichen Raums sowie alternativer Mobilität. Ziel der Ausstellung ist es, neue Impulse für eine nachhaltige Stadtentwicklung zu geben und den Austausch mit kommunalen Akteurinnen und Akteuren anzustoßen.

Die h_da-Studierenden zeigen in der Schader-Galerie nicht nur ihre Arbeiten, sie zeichnen auch für das komplette Ausstellungskonzept und für das Design der teils interaktiven Ausstellung verantwortlich. Ein ausgeklügeltes (Farb-)Leitsystem gibt dem Publikum Orientierung und nimmt hierbei Bezug auf das den Arbeiten zugrundeliegende planerische Raumkonzept, das in Oberzentrum (Darmstadt), Mittelzentrum (Michelstadt) und Grundzentrum (Fischbachtal) unterteilt.

Für Darmstadts Mitte steht das Luisencenter. In den Entwürfen der Studierenden wird es räumlich neu strukturiert, so dass hier künftig auch Platz sein kann für Kurz-zeitwohnen oder neue Arbeitsformen. Zugleich begrünen die Studierenden die zum Luisenplatz ausgerichtete Fassade und finden auch für innen Möglichkeiten der Bepflanzung. Auf diese Weise könnte das Luisencenter eine kleine Klima-Oase in der Hitzeinsel Innenstadt sein, die dem Gebäude zudem eine angenehmere Anmutung gibt.

Mehrere Arbeiten beschäftigen sich auch mit Michelstadts Mitte, etwa das „Marktviertel Michelstadt“. Es soll eine Brachfläche am Bienenmarkt zwischen Bahnhof und Innenstadt aufwerten und eine neues und attraktives Altstadt-Entree schaffen. Das neue Wohngebiet wird durchzogen von einer autoarmen, dafür fahrrad- und fußgängerfreundlichen Straße, zahlreiche entsiegelte Flächen könnten die Klimaresilienz Michelstadts stärken. Eine Mehrzeckhalle soll die Menschen in Verbindung bringen.

Im Fischbachtaler Ortsteil Niedernhausen könnte nach den Entwürfen der Studieren-den eine neue multifunktionale Ortsmitte entstehen, direkt an der Hauptstraße gelegen. Eine der studentischen Arbeiten sieht als Kern ein flexibel nutzbares Gemeinschaftshaus in Form einer modernen Hofreite vor, mit Begegnungs- und Wohnangeboten für jung wie alt, ergänzt um Gemeinschaftsgärten und einen kleinen Markt.

„Viele Städte und Gemeinden haben erkannt, dass gesellschaftliche und klimatische Entwicklungen ihre Innenstädte und Ortskerne verändern werden“, sagt Prof. Astrid Schmeing vom Fachbereich Architektur der h_da, die gemeinsam mit Michèle Bernhard von der Schader-Stiftung die Ausstellung kuratiert. „In unserer Schau zeigen wir am Beispiel einer Stadt wie Darmstadt und auch für den ländlich geprägten Raum, wie Mitten sich attraktiv und nachhaltig verändern können. Die Arbeiten stoßen Gedanken an und bieten neue Ideen an, die im Idealfall von der Praxis aufgegriffen werden.“

Die Ausstellung läuft in Kooperation mit dem Projekt „Systeminnovation für Nachhaltige Entwicklung“ (s:ne) der h_da. Die gezeigten Arbeiten sind überwiegend im Kontext des dortigen Handlungsfeldes „Zukunft von Innenstädten“ entstanden. Darin haben sich die h_da, die Schader-Stiftung und die IHK Darmstadt Rhein Main Neckar mit den vier südhessischen Mittelzentren Bensheim, Dieburg, Erbach und Michelstadt auf den Weg gemacht, zusammen Szenarien für zukunftsfähige Innenstädte zu entwickeln.

Geöffnet ist die Ausstellung, die sich an ein breites Publikum richtet, bis Samstag, 21.05., dienstags und freitags von jeweils 17-20 Uhr und samstags von 15-18 Uhr. Ort: Galerie der Schader-Stiftung (Goethestraße 2, 64285 Darmstadt).

Beteiligte aus dem Fachbereich Architektur der h_da führen an vier Tagen durch die Ausstellung:
Freitag, 06.05., 17-18 Uhr
Samstag, 14.05., 15-16 Uhr
Freitag, 20.05., 17-18 Uhr

Der Eintritt ist frei. In der Schader-Stiftung gilt die 2G-plus-Regel und eine FFP2-Maskenpflicht.

(nach oben)


Erste weltweite Analyse der Bedrohung aller Reptilienarten

Dr. Gesine Steiner Pressestelle
Museum für Naturkunde – Leibniz-Institut für Evolutions- und Biodiversitätsforschung
Zum ersten Mal überhaupt wurden Schildkröten, Krokodile, Schlangen, Echsen und Brückenechsen in Hinblick auf ihre Bedrohung umfassend bewertet. Die Studie, die in der Fachzeitschrift Nature mit Beteiligung des Museums für Naturkunde Berlin publiziert wurde, hat hierzu Daten von über 900 Wissenschaftler:innen ausgewertet, die in der globalen Roten Liste der Weltnaturschutzunion (IUCN – International Union for Conservation of Nature) zusammengestellt wurden. Sie kommt zu dem Ergebnis, dass 21% der erfassten 10196 Reptilienarten bedroht sind. Davon besonders gefährdet sind vor allem Schildkröten und Krokodile.

Die Gruppe der Schildkröten, Krokodile, Echsen (inklusive der Schlangen) und Brückenechsen, oftmals als Reptilien bezeichnet, ist die artenreichste Gruppe unter den Landwirbeltieren. Erstmals wurden diese jetzt umfassend (10196 von mindestens 11690 Arten) mit Hinblick auf ihre Bedrohung untersucht und die Ergebnisse in der Fachzeitschrift Nature publiziert. Insgesamt sind Daten von über 900 Wissenschaftler:innen in die Studie eingeflossen, die im Rahmen der Bewertungen der globalen Roten Liste der Weltnaturschutzunion (IUCN – International Union for Conservation of Nature) zusammengetragen wurden. Das Ergebnis ist, dass 21% aller erfassten Arten als bedroht gelten. Einer der Hauptgründe ist die immer weiter voranschreitende Zerstörung und Veränderung von Habitaten. „Es ist deshalb besonders wichtig nach Lösungen zu suchen, um intakte Lebensräume, insbesondere Wälder, in ihrem natürlichen Zustand zu erhalten oder, falls möglich, allenfalls nachhaltig zu nutzen,“ betont Dr. Mark-Oliver Rödel vom Museum für Naturkunde Berlin, einer der Ko-Autoren der Studie.

„Zudem muss man die Gefährdungsursachen differenziert sehen,“ ergänzt Dr. Philipp Wagner, Kurator für Forschung & Artenschutz am Allwetterzoo in Münster und ebenfalls Ko-Autor, „denn einzelne Gruppen innerhalb dieser Reptilien sind deutlich stärker bedroht als andere. Die Studie zeigt nämlich auch, dass 58% aller Schildkrötenarten und 50% aller Krokodilarten von der Ausrottung bedroht sind – und zwar nicht etwa an erster Stelle durch Lebensraumverlust, sondern vor allem durch die illegale Jagd und Handel.“ Zusammen mit den Amphibien gehören diese beiden Gruppen so zu den am stärksten bedrohten Landwirbeltieren weltweit.

Ein weiteres wichtiges Ergebnis der Studie ist, dass für 1500 der insgesamt 10196 Arten nicht genügend Daten vorliegen, um sie aus Sicht des Artenschutzes bewerten zu können. Da es sich dabei meist um Arten mit einem kleinen Verbreitungsgebiet handelt, kann man davon ausgehen, dass die meisten von ihnen ebenfalls stark bedroht sind. „So ist leider davon auszugehen, dass die Bewertungen, wie sie in der Studie vorgenommen wurden, in der Regel sehr konservativ sind. Das heißt, man unterschätzt den Bedrohungsgrad für viele Arten. Oftmals erkennt man zu spät, wie schlecht es um viele Arten steht, vor allem bei den Reptilien,“ ergänzt Ko-Autor Dr. Johannes Penner, Kurator für Forschung und Zoologie bei Frogs and Friends. „Es muss daher noch viel getan werden, um dem Verlust der Biodiversität Einhalt zu gebieten“.

Zusatzinformationen
Am Museum für Naturkunde Berlin wird untersucht, inwieweit sich Lebensraumveränderungen auf Arten und Artengemeinschaften auswirken, sowohl im Laufe der Erdgeschichte, als auch derzeit in Folge menschlicher Aktivitäten. Unter andrem wird beispielweise erforscht ob die selektive Nutzung von Tropenholz nachhaltig möglich ist und ob beziehungsweise wie lange es dauert, bis sich Regenwaldgemeinschaften wieder regenerieren.

Der Allwetterzoo in Münster hat sich dem Artenschutz verschrieben und trägt in Kooperation mit der Zoologischen Gesellschaft für Arten- und Populationsschutz (ZGAP) und der Deutschen Gesellschaft für Herpetologie und Terrarienkunde (DGHT) das Internationale Zentrum für Schildkrötenschutz (IZS). Hier züchtet man zusammen mit Privathaltern kritisch von der Ausrottung bedrohte asiatische Schildkrötenarten. Zudem verantwortet der Allwetterzoo das Angkor Centre for Conservation of Biodiversity (ACCB) in Kambodscha, das ebenfalls einen Schwerpunkt in der Haltung, Zucht und Auswilderung kritisch bedrohter Schildkröten hat. Zusätzlich engagiert sich der Allwetterzoo im Artenschutzprojekt Citizen Conservation.

Citizen Conservation ist ein gemeinschaftliches Produkt von Frogs and Friends, der Deutschen Gesellschaft für Herpetologie und Terrarienkunde (DGHT) und des Verbands der zoologischen Gärten (VdZ). Ziel ist es sich mit koordinierten Erhaltungszuchtprogrammen dem Artensterben und damit dem Rückgang der Biodiversität entgegen zu stemmen. Dabei arbeiten Bürger:innen mit professionellen Institutionen Hand in Hand, um Wissen zu bedrohten Arten zu generieren und zu sammeln, bestehende Kapazitäten zum Artenschutz auszubauen und Reserven zu schaffen, damit Arten langfristig erhalten werden können.

Veröffentlicht in: Cox, N. and Young, B. E., et al. Global reptile assessment shows commonality of tetrapod conservation needs. Nature (2022). https://doi.org/10.1038/s41586-022-04664-7.

(nach oben)


Energieträger der Zukunft auf Schiffen – Deutsches Maritimes Zentrum stellt Kraftstoff-Portfolio vor

Dr. Regine Klose-Wolf Kommunikation und Veranstaltungen
Deutsches Maritimes Zentrum e. V.
Von fossilen zu regenerativen Energieträgern. Erste Gesamtübersicht zur Transformation der deutschen maritimen Industrie.

Mit welchem Kraftstoff kann man heute, in zehn und in 25 Jahren ein Schiff möglichst klimaneutral fahren?
Die Beantwortung dieser Frage ist zentral, um zu Investitionsentscheidungen für neue Schiffe oder den Umbau von vorhandener Tonnage zu kommen, egal, ob Binnenschiff, Küstenfrachter oder 22.000 TEU-Containerschiff.

„Wir müssen wissen, welche Kraftstoffe und Energieträger (einschließlich Verträglichkeit, Verfügbarkeit, Emissionspotenziale nach Schiffssegmenten) für die Schifffahrt verfügbar sind. Hierzu hat das Deutsche Maritime Zentrum 2021 eine Studie bei der Ramboll GmbH beauftragt“ erläutert Claus Brandt, Geschäftsführer des Deutschen Maritimen Zentrums.

Die Ergebnisse der Studie wurden am 27. April auf einer Fachveranstaltung vorgestellt.

Mit Fokus auf eine Flottenanalyse mit engem Bezug zur deutschen maritimen Wirtschaft liefert die Studie einen Überblick über die alternativen Kraftstoffe und Energieträger, die perspektivisch regenerativ erzeugbar sind. Typenabhängige Schiffsdesigns, Versorgungspotenziale weltweit, erforderliche und vorhandenen Regelwerke bis hin zu Handlungsempfehlungen für Entscheidungsträger werden in einem Zusammenhang dargestellt.

„In der Studie wird die Erzeugung dieser Kraftstoffe einschließlich der Energieeffizienzen ebenso betrachtet, wie die Kosten für die Energieträger der Zukunft, sowie für den Neu- und Umbau der Schiffe. Lücken in der Regulative wurden identifiziert und Vorschläge für das zukünftige Regelwerk benannt“, so Thomas Rust von Ramboll.

Die Studie zeigt:
– In der untersuchten Flotte werden bisher kaum alternative Kraftstoffe eingesetzt. Zur Minderung der Treibhausgas-Emissionen werden nahezu ausschließlich die entsprechenden Energieeffizienz-Ziele erfüllt. Ein Einsatz von regenerativen Energieträgern ist bisher nur äußerst selten vorgesehen.
– Das weltweite aktuelle Orderbuch für Neubauten zeigt ein analoges Bild. Der überwiegende Anteil der Schiffe ist auf die Erfüllung der gültigen IMO-Regeln zur Minderung der Schadstoffemissionen (Schwefel- und Stickoxide) ausgelegt, unter Verwendung der etablierten (fossilen) Schiffskraftstoffe.
-Es ist bisher nicht eindeutig absehbar, wie die technischen Lösungen in 30 Jahren aussehen werden.
-Ein genereller Trend, zu nur einem bestimmten regenerativ erzeugbaren Kraftstoff, mit dem sich Versorgung und Speicherung an Bord sowie die Umsetzung in Propulsionsleistung realisieren ließe, ist bisher nicht erkennbar.
-Es fehlt ein gültiges internationales Regelwerk um die CO2-Emissionen der regenerativ erzeugten Kraftstoffe, (auch für fuel blends).
In der Studie werden Handlungsempfehlungen vorgestellt, wie sich der Übergang in die CO2-Neutralität in der Schifffahrt gestalten lässt und welche flankierenden Maßnahmen, Gesetze und Regularien dafür notwendig sind bzw. angepasst werden müssen.

„Wesentlich wird in Zukunft sein, eine tragfähige Aussage über die CO2-Emission der alternativen Energieträger von der Herstellung bis zum Tank an Bord machen zu können,“ erläutert der Projektleiter Ralf Plump, Referent Schiffs- und Meerestechnik im DMZ.

Dieses Problem betrifft nicht nur die Schifffahrt, sondern die Umstellung der globalen Energieversorgung insgesamt. Das Deutsche Maritime Zentrum wird sich auch zukünftig mit Fragen der Dekarbonisierung und Emissionsreduktion befassen.

Für Rückfragen stehen wir gerne zur Verfügung.
Dr. Regine Klose-Wolf
Leiterin Kommunikation
Deutsches Maritimes Zentrum e.V.
Hermann-Blohm-Str. 3
20457 Hamburg
+49 40 9999 698 -51
+49 1590 189 1929
Klose-Wolf@dmz-maritim.de

Wissenschaftliche Ansprechpartner:
Ralf Plump, Referent Schiffs- und Meerestechnik
Deutsches Maritimes Zentrum e.V.
Hermann-Blohm-Str. 3
20457 Hamburg
Telefon: +49 40 9999 698 – 81
E-Mail: Plump@dmz-maritim.de

Weitere Informationen:
https://t1p.de/bz8jv
http://Hier finden sie demnächst die vollständige Studie

(nach oben)


Klimaneutral heizen statt Erdgas verbrennen: So schaffen Städte die Wärmewende

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
► Alternative Wärmequellen wie Abwasserwärme konsequent erschließen
► Öffentliche Gebäude auf erneuerbare Wärme umrüsten und Quartierswärmenetze bilden
► Auch in Milieuschutzgebieten ambitioniert energetisch sanieren, damit Warmmieten bezahlbar bleiben
► BMBF-Projekt „Urbane Wärmewende“ von Institut für ökologische Wirtschaftsforschung, Kanzlei Becker Büttner Held und Berliner Wasserbetrieben legt Empfehlungen vor

Berlin, 26. April 2022 – Die voranschreitende Klimakrise, der Krieg in der Ukraine, die damit verbundenen Unsicherheiten und Preissteigerungen – es gibt viele Gründe, bei der Wärmeversorgung schnellstmöglich aus Öl und Erdgas auszusteigen. Damit die Wärmewende in Städten schneller und effektiver vorankommt, empfehlen Energieexpert*innen des Projekts „Urbane Wärmewende“ einen Maßnahmenmix: Städte sollten eine räumliche Wärmeplanung entwickeln und alle nachhaltigen Wärmepotenziale wie etwa Abwasserwärme erschließen. Zudem sollten sie die Fernwärme ausbauen, Quartierswärmenetze bilden – vor allem rund um öffentliche Gebäude – und faire energetische Sanierungen in Milieuschutzgebieten unterstützen. Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) entwickelte das Institut für ökologische Wirtschaftsforschung (IÖW) mit der Wirtschaftskanzlei Becker Büttner Held (BBH) und den Berliner Wasserbetrieben sowie mit Vertreter*innen der Berliner Senats- und Bezirksverwaltung Empfehlungen für Länder, Städte, Kommunen und Quartiersmanager*innen.

Am Beispiel Berlins untersuchte das Forschungsvorhaben zentrale Aspekte einer klimaneutralen Wärmeversorgung. Bisher hängt die Hauptstadt im Wärmebereich noch zu zwei Dritteln von Erdgas, zu 17 Prozent von Heizöl und zu fünf Prozent von Kohle ab. „Berlin steht bei der Wärmewende vor Herausforderungen, die auch andere Städte kennen: Steigende Mieten schüren Angst vor teuren Sanierungsprojekten, der Wandel kommt trotz Fördertöpfen noch nicht in den Quartieren an und Technologien wie die Nutzung der Abwasserwärme kommen nur langsam in die Umsetzung“, erklärt Projektleiterin Dr. Elisa Dunkelberg vom IÖW. „In zweieinhalb Jahren praxisnaher Forschung haben wir Lösungsstrategien zusammengestellt, die in keiner städtischen Wärmeplanung fehlen sollten.“

Höhere Wärmedämmstandards auch in Milieuschutzgebieten
Auf der nächsten Heizkostenabrechnung bekommen die Mieter*innen zu spüren, wie teuer die Abhängigkeit von fossilen Rohstoffen derzeit ist. Selbst wenn sich die Märkte beruhigen – der CO2-Preis wird steigen. Darum kann sich eine energetische Sanierung, die über die gesetzlichen Mindeststandards hinausgeht, auch aus Sicht der Mieter*innen lohnen: Wenn die Vermieter*innen Fördermittel nutzen und die Modernisierungskosten fair umlegen, bleibt die Warmmiete stabil oder kann sogar sinken, wie die Forscherinnen berechnet haben.

Gerade in Milieuschutzgebieten sollten Kommunen daher ambitionierte Sanierungen stärker als bislang ermöglichen: „In den gut 70 sozialen Erhaltungsgebieten Berlins werden ambitionierte energetische Sanierungen bisher selten genehmigt. Gleiches gilt für einen Wechsel von Gasetagenheizungen zu erneuerbaren Energien oder Fernwärme“, so Charlotta Maiworm von BBH. „Um die Mieten langfristig günstig zu halten, sollten diese Projekte genehmigt werden – allerdings nur unter bestimmten Auflagen oder Bedingungen, etwa dass die Kosten für Mieter*innen nicht höher sein dürfen als die Maßnahmen nach dem ordnungsrechtlichen Mindeststandard.“ Worauf Kommunen und Quartiersmanager*innen dabei achten sollten, fasst das Forschungsteam in einem Leitfaden zusammen.

Alternative Wärmequellen: Abwasserwärme & Co.
Um Ressourcen effizient einzusetzen und Energieimporte zu minimieren, müssen lokale Wärmequellen umfassend genutzt werden. Während manche Städte in einzelnen Bereichen große Potenziale haben, wie München bei der Geothermie und Hamburg bei der industriellen Abwärme, müssen andere Städte wie Berlin alle Potenziale ausschöpfen und einen breiten Mix aus Umweltwärmepumpen, gewerblicher Abwärme, Direktstromnutzung und Biomasse anstreben.

Eine Wärmequelle, die in allen Städten ganzjährig zur Verfügung steht und nur noch „angezapft“ werden muss, ist die Abwasserwärme: Sie könnte ein wichtiger Baustein im künftigen Energiemix sein und zum Beispiel in Berlin zukünftig bis zu fünf Prozent des Wärmebedarfs decken. „Für ihre kommunale Wärmeplanung brauchen Städte Informationen darüber, wo und in welchem Umfang Abwasserwärme zur Verfügung steht und wie sie genutzt werden könnte“, sagt Michel Gunkel von den Berliner Wasserbetrieben. „Im Projekt ‚Urbane Wärmewende‘ haben wir diese Daten daher in einem geobasierten Tool – dem Abwasserwärmeatlas – aufbereitet, den wir derzeit in einer internen Testphase erproben.“

Wärmeplanung und Quartierswärmenetze
Die Informationen aus dem Abwasserwärmeatlas müssen für die Wärmeplanung mit anderen Daten wie etwa der Wärmenachfrage zusammengeführt werden. Ziel der Wärmeplanung ist es herauszufinden, wo mit welcher zukünftigen Wärmeversorgung Klimaneutralität am besten und kosteneffizientesten erreicht werden kann. Quartierswärme ist dort sinnvoll, wo erneuerbare Wärme und Abwärmepotenziale die Bedarfe einzelner Gebäude überschreiten. „Um lokale Wärmequellen zu erschießen, spielen öffentliche Gebäude eine zentrale Rolle“, betont Elisa Dunkelberg. „Wenn dort zum Beispiel eine große Abwasserwärmepumpe installiert wird, kann diese über ein Quartierswärmenetz auch umliegende Häuser mitversorgen.“ Wann immer bei öffentlichen Gebäuden Heizungswechsel oder Sanierungen anstehen, sollte daher geprüft werden, ob ein Quartierswärmesystem möglich ist. Beispielberechnungen zeigen, dass mit der geplanten Bundesförderung für effiziente Wärmenetze Quartierswärme in der Nachbarschaft zu wettbewerbsfähigen Preisen angeboten werden kann. Die Forschenden schlagen zudem Maßnahmen für eine erleichterte Umsetzung vor – etwa Musterverträge und Kriterienkataloge.

Auf der Tagung „Urbane Wärmewende – Wie Städte sich klimaneutral mit Wärme versorgen können“ informierten sich Ende März über 300 Verwaltungsmitarbeitende und Quartiersmanager*innen aus verschiedenen Städten über den aktuellen Forschungsstand zur urbanen Wärmewende. Leitfäden, Infografiken, Publikationen und Materialien zur Tagung: http://www.urbane-waermewende.de.

Mehr Informationen
► Leitfaden: Energetisch sanieren in Berliner Milieuschutzgebieten: So gehen Mieter*innen- und Klimaschutz zusammen (https://www.urbane-waermewende.de/publikationen-1)
► Forschungsbericht: Dunkelberg et al. (2022): Öffentliche Gebäude als Keimzellen für klimaneutrale Quartierswärme (ebd.)
► Infografiken des Projekts: https://www.urbane-waermewende.de/publikationen/infografiken

Über das Projekt
Das Projekt Urbane Wärmewende wurde vom Institut für ökologische Wirtschaftsforschung (IÖW) koordiniert. Verbundpartner waren die Berliner Wasserbetriebe sowie die Wirtschaftskanzlei Becker Büttner Held (BBH). Als Kommunalpartner waren die Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz, der Bezirk Charlottenburg-Wilmersdorf und der Bezirk Neukölln beteiligt. Das Projekt wurde vom Bundesministerium für Bildung und Forschung (BMBF) in der Förderinitiative „Nachhaltige Transformation urbaner Räume“ des Förderschwerpunkts Sozial-ökologische Forschung (SÖF) gefördert.
http://www.urbane-waermewende.de

Pressekontakt
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiter*innen erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.
http://www.ioew.de

Aktuelles aus dem IÖW: http://twitter.com/ioew_de | http://www.ioew.de/newsletter

Wissenschaftliche Ansprechpartner:
Dr. Elisa Dunkelberg
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-36
elisa.dunkelberg@ioew.de

Originalpublikation:
Dunkelberg, Elisa; Kaspers, Juliane; Maiworm, Charlotta; Torliene, Lukas; von Gayling-Westphal, Barbara (2022): Öffentliche Gebäude als Keimzellen für klimaneutrale Quartierswärme: Empfehlungen für die Erschließung öffentlicher Gebäude als Keimzellen für die Umsetzung von Quartierswärmekonzepten am Beispiel von Berlin. https://www.urbane-waermewende.de/publikationen-1

(nach oben)


Fleischkonsum muss um mindestens 75 Prozent sinken

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Damit die Erde uns auch in Zukunft ernähren kann, müssen die Industrienationen den Verzehr von Fleisch deutlich reduzieren – im Idealfall um mindestens 75 Prozent. Zu diesem Schluss kommt eine neue Studie der Universität Bonn. Die Übersichtsarbeit wertet den aktuellen Stand der Forschung zu verschiedenen Aspekten des Fleischkonsums aus. Dazu zählen neben den Auswirkungen auf Umwelt und Klima auch Gesundheits- und wirtschaftliche Effekte. Ein Fazit der Forscher: In geringen Mengen Fleisch zu essen, kann durchaus nachhaltig sein. Die Ergebnisse erscheinen in der Zeitschrift Annual Review of Resource Economics.

Rund 80 Kilogramm Fleisch nimmt jede Bürgerin und jeder Bürger der EU im Jahr zu sich. Doch jedes leckere Steak, jede knackige Grillwurst hat einen Preis, den wir nicht an der Ladentheke bezahlen. Denn die Nutztierhaltung schädigt Klima und Umwelt. Beispielsweise erzeugen Wiederkäuer Methan, das die Erderwärmung beschleunigt. Tiere setzen zudem nur einen Teil der verfütterten Kalorien in Fleisch um. Um dieselbe Zahl an Menschen zu ernähren, braucht man bei Fleisch daher entsprechend mehr Fläche. Das geht zu Lasten der Ökosysteme, da weniger Raum für den natürlichen Artenschutz bleibt. Wer zu viel Fleisch isst, lebt zudem gefährlich – Fleisch in Übermengen ist nicht gesund und kann chronische Krankheiten begünstigen.

Es gibt also gute Argumente, den Konsum tierischer Lebensmittel stark einzuschränken. „Würden alle Menschen so viel Fleisch verzehren wie die Europäer oder die Nordamerikaner, würden wir die Klimaziele weit verfehlen, und viele Ökosysteme würden kollabieren“, erklärt Studienautor Prof. Dr. Matin Qaim vom Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn. „Wir müssen unseren Konsum daher deutlich senken, idealerweise auf 20 Kilogramm oder weniger jährlich. Der Krieg in der Ukraine und die dadurch entstehenden Engpässe für Getreide auf dem Weltmarkt zeigen zudem sehr deutlich, dass weniger Getreide an Tiere verfüttert werden sollte, um die globale Ernährung sicherzustellen.“ Derzeit wandere rund die Hälfte der weltweiten Getreideproduktion in den Futtertrog.

Massen-Vegetarismus ist nicht die beste Lösung
Sollte die Menschheit nicht besser komplett auf vegetarische oder noch besser vegane Kost umschwenken? Laut Studie wäre das die falsche Konsequenz. Einerseits gibt es viele Regionen, in denen sich keine pflanzlichen Lebensmittel anbauen lassen. „Wir können uns nicht von Gras ernähren, Wiederkäuer aber sehr wohl“, verdeutlicht Qaims Kollege und Koautor Dr. Martin Parlasca. „Wenn sich Grasland nicht anders nutzen lässt, ist es daher durchaus sinnvoll, darauf Vieh zu halten.“ Gegen eine schonende Weidehaltung mit nicht zu vielen Tieren sei auch aus Umweltsicht wenig einzuwenden.

Gerade in ärmeren Regionen fehlt es zudem an pflanzlichen Quellen für hochwertige Proteine und Mikronährstoffe. So lassen sich Gemüse und Hülsenfrüchte nicht überall anbauen und zudem nur zu bestimmten Zeiten ernten. „In solchen Fällen sind Tiere oft ein zentrales Element für eine gesunde Ernährung“, betont Parlasca. „Für viele Menschen sind sie außerdem eine wichtige Einnahmequelle. Wenn die Einkünfte aus Milch, Eiern oder auch Fleisch wegfallen, kann das für sie existenzbedrohend sein.“ Ohnehin seien nicht die ärmeren Länder das Problem, verdeutlichen die Autoren. Bei ihren Bewohnern steht Fleisch meist viel seltener auf dem Speiseplan als in den Industrienationen. Vor allem die reichen Länder müssen daher den Fleischkonsum reduzieren.

Steuer auf Fleischprodukte sinnvoll
Im Moment ist davon wenig zu spüren. Obwohl es mehr Vegetarier gibt als früher, stagniert der Fleischkonsum europaweit gesehen. Am höchsten ist er jedoch in Nordamerika und Australien. Qaim hält es für wichtig, auch über höhere Steuern auf tierische Lebensmittel nachzudenken. „Das ist sicher unpopulär, zumal es mit einem zehn- oder zwanzigprozentigen Aufschlag wahrscheinlich nicht getan wäre, falls er eine Lenkungswirkung entfalten soll“, sagt er. „Fleisch verursacht jedoch hohe Umweltkosten, die sich in den aktuellen Preisen nicht widerspiegeln. Es wäre durchaus sinnvoll und gerecht, die Konsumentinnen und Konsumenten stärker an diesen Kosten zu beteiligen.“

Die Autoren fordern zudem, das Thema „nachhaltiger Konsum“ verstärkt in die schulischen Curricula zu integrieren. Auch in der Ausbildung zukünftiger Lehrkräfte müssten diese Inhalte besser berücksichtigt werden. „Wir müssen sensibler für die globalen Auswirkungen unserer Entscheidungen werden“, betont Qaim, der auch Mitglied im Exzellenzcluster PhenoRob sowie (wie sein Kollege Martin Parlasca) im Transdisziplinären Forschungsbereich „Sustainable Futures“ der Universität Bonn ist. „Das gilt nicht nur beim Essen, sondern auch für das T-Shirt, das wir beim Discounter kaufen, um es einen einzigen Abend auf einer Party zu tragen.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matin Qaim
Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn
Tel. +49-228-73-1847
E-Mail: mqaim@uni-bonn.de

Originalpublikation:
Martin C. Parlasca & Matin Qaim: Meat consumption and sustainability; Annual Review of Resource Economics, https://doi.org/10.1146/annurev-resource-111820-032340

https://www.annualreviews.org/doi/abs/10.1146/annurev-resource-111820-032340

(nach oben)


Mit Herzerkrankungen leben – Tipps von Kardiologie-Experten

Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Mit der ersten Diagnose ändert sich für die meisten Patient*innen mit Herz-Kreislauf-Erkrankungen das Leben schlagartig. Drei Experten der Deutschen Gesellschaft für Kardiologie geben Tipps für den Alltag: Wie viel Sport wann angebracht ist, welchen Einfluss elektromagnetische Felder auf Herzschrittmacher und Defibrillatoren haben und wie Smartphone & Co. den Betroffenen helfen können.

Sport oder besser nicht? Die Frage stellen sich viele Patient*innen, nachdem sie von ihrer Herzerkrankung erfahren haben. Ob und wann Sport gesundheitsfördernd oder -schädlich ist, beantwortete Prof. Dr. Ulrich Laufs aus Leipzig heute während einer Pressekonferenz der Deutschen Gesellschaft für Kardiologie (DGK): „Grundsätzlich hat sich die Sichtweise der modernen Kardiologie im Zeitverlauf der vergangenen 20 Jahre hinsichtlich des Nutzens von körperlicher Aktivität weiterentwickelt. Wurde früher bei (schwerwiegenden) Herzerkrankungen eher auf Schonung denn auf Belastung gesetzt, hat sich der Ansatz nahezu völlig umgekehrt. Inzwischen gilt es, generell die enormen gesundheitlich positiven Effekte von körperlicher Aktivität zu nutzen.“ Die europäischen Behandlungsleitlinien empfehlen sowohl Geschicklichkeits-, Kraft- und Gewichts- als auch Ausdauersport, wobei letzterer gerade für Herzpatient*innen am vor-teilhaftesten zu sein scheint. Doch welche Sportart von den Patient*innen gewählt wird, steht für den Kardiologen Laufs letztlich gar nicht an erster Stelle: „Es ist vor allem wichtig, eine Aktivität zu finden, die der persönlichen Neigung entspricht und die auch über längere Zeit ausgeübt werden kann.“

Nur in seltenen Ausnahmen wird Sport nicht empfohlen
Trotz der grundsätzlich kaum zu unterschätzenden Vorteile von körperlicher Aktivität bei Herzerkrankungen, gibt es einige wenige Ausnahmen, in denen Sport eher schädlich sein kann. Bei Herzmuskelentzündungen – die im Zuge der vielen COVID-Erkrankungen derzeit häufiger auftreten als früher – muss Sport unbedingt vermieden werden, um dauerhafte Schädigungen des Herzmuskels zu vermeiden. Ebenso keinen Sport machen sollten Patient*innen mit schweren Formen von Herzklappenerkrankungen und unbehandeltem Bluthochdruck oder nicht therapierten Herzrhythmusstörungen. „Bei schwerwiegenden kardiovaskulären Krankheiten lautet die Reihenfolge: erst um die Erkrankung kümmern, dann die körperliche Aktivität aufbauen“, so Laufs.

Trotz Herzschrittmacher ins Elektroauto, durch den Metalldetektor und ins MRT?
Patient*innen, die so genannte aktive Implantate tragen, beispielsweise Herzschrittmacher oder im-plantierbare Defibrillatoren, machen sich häufig Sorgen, ob elektromagnetische Felder die Funktion ihrer Implantate stören oder sogar unterbrechen können. Die Frage ist von Relevanz, da im Prinzip jedes elektrische Gerät mit seinem elektromagnetischen Feld auf einen Schrittmacher oder implantierten Defibrillator Einfluss nehmen kann.
PD Dr. Carsten Israel gibt im Rahmen der Pressekonferenz jedoch Entwarnung: Moderne Implantate sind deutlich besser vor elektromagnetischen Einflüssen abgeschirmt als ältere Modelle – wobei dies schon für Geräte gilt, die seit dem Jahr 2002 hergestellt wurden. „Heute sind praktisch nur noch Geräte implantiert, die jünger als 20 Jahre sind“, sagt der DGK-Experte. Magnetische Bauteile in Schrittmachern und implantierbaren Defibrillatoren wurden in den neueren Geräten durch nicht-magnetische ersetzt.

Implantatträger*innen können sich auch gefahrlos einer MRT-Untersuchung unterziehen, selbst wenn ihre Geräte nicht ausdrücklich für eine MRT-Untersuchung zugelassen sind. Bereits 2017 konnte das durch zwei Studien belegt werden. Das Fazit der Studien: Bei keinen Patient*innen war es während der MRT-Untersuchung aus technischen Gründen zu einem Problem mit den Implantaten gekommen.

Smarte Geräte im Alltag
Im Alltag übernehmen digitale Geräte durch immer neue Funktionen vielfältige Aufgaben. Im Be-reich der medizinischen Versorgung ist das nicht anders. Smartwatches verfügen teilweise über di-agnostischen Anwendungen, die im Alltag genutzt werden können. Ein aktuelles Beispiel ist die Aufdeckung von Vorhofflimmern-Episoden. Mit Hilfe geeigneter Smartwatches können zum Beispiel 1-Kanal-EKG abgeleitet werden, die einen Nachweis der Herzrhythmusstörung ermöglichen.
„Mit Hilfe solcher und ähnlicher Messungen kann die Wahrscheinlichkeit für ein Vorhofflimmern berechnet werden“, erklärte Prof. Dr. Peter Radke, Experte der DGK für Mobile Devices, während der Pressekonferenz am Freitag. „Diese Technologie reicht aber alleinig nicht aus, um die Diagnose definitiv stellen zu können. Hier muss eine Verifizierung durch Ärztin oder Arzt erfolgen.“

Medienkontakt:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Michael Böhm (Homburg/Saar)
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13
presse@dgk.org

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit mehr als 11.000 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter www.dgk.org. Wichtige Informationen für Nicht-Mediziner*innen stellt die DGK auf den Seiten ihres Magazins „HerzFitmacher“ zusammen: www.herzfitmacher.de

Weitere Informationen:
http://www.dgk.org/presse

Anhang
Mit Herzerkrankung leben – Tipps von Experten

(nach oben)


Quantencomputing: Neue Potenziale für automatisiertes maschinelles Lernen

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Fraunhofer IAO und industrielle Partner entwickeln erste quantengestützte Cloudlösung für das automatisierte maschinelle Lernen.

Quantencomputing ermöglicht es, rechenintensive Technologien wie das maschinelle Lernen (ML) weiterzubringen. Im Projekt »AutoQML« entwickeln acht Partner aus Forschung und Industrie Lösungsansätze, die Quantencomputing und ML verknüpfen. Eine Open-Source-Plattform soll Entwickler*innen befähigen, Algorithmen des Quanten-Machine-Learnings ohne tiefgehendes Fachwissen nutzen zu können.

Wie gelingt es Unternehmen, die Potenziale der Digitalisierung zu nutzen und wettbewerbsfähig zu bleiben? Der Einsatz von Technologien wie Künstlicher Intelligenz kann dabei helfen, von der digitalen Transformation bestmöglich zu profitieren. Vor allem maschinelles Lernen (ML) spielt in der Digitalisierungsstrategie vieler Unternehmen bereits eine große Rolle und ermöglicht unter anderem effizientere Prozesse sowie neue Geschäftsmodelle. Allerdings fehlt es oft an Fachkräften. So ist die Implementierung von ML-Lösungen bisher noch häufig mit hohem Arbeitsaufwand verbunden. Von der Datenakquisition über die Wahl der passenden Algorithmen bis hin zur Optimierung des Trainings ist ein detailliertes Fachwissen in ML notwendig.

Der Ansatz des automatisierten maschinellen Lernens (AutoML) wirkt diesen Herausforderungen entgegen und erleichtert Entwickler*innen den Einsatz von Künstlicher Intelligenz. Dabei wird insbesondere die Wahl der konkreten ML-Algorithmen automatisiert. Anwender*innen müssen sich somit weniger mit ML beschäftigen und auskennen und können sich mehr auf ihre eigentlichen Prozesse konzentrieren. In diesem Zusammenhang markiert Quantencomputing den Durchbruch in eine neue technologische Ära, denn damit lässt sich der AutoML-Ansatz signifikant verbessern. Zudem bietet Quantencomputing die für AutoML oftmals nötige Rechenpower.

Neuer Ansatz: Quantencomputing bringt maschinelles Lernen auf neues Niveau
Das Verbundprojekt »AutoQML« setzt an dieser Innovation an und verfolgt zwei wesentliche Ziele: Zum einen wird der neue Ansatz AutoQML entwickelt. Dieser wird um neu entwickelte Quanten-ML-Algorithmen erweitert. Zum anderen hebt Quantencomputing den AutoML-Ansatz auf ein neues Niveau, denn bestimmte Probleme lassen sich mithilfe von Quantencomputing schneller lösen als mit konventionellen Algorithmen.

Unter Leitung des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO ermöglicht das Projekt Entwickler*innen einen vereinfachten Zugang zu konventionellen und Quanten-ML-Algorithmen über eine Open-Source-Plattform. Neben dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA beteiligen sich die Unternehmen GFT Integrated Systems, USU Software AG, IAV GmbH Ingenieursgesellschaft Auto und Verkehr, KEB Automation KG, TRUMPF Werkzeugmaschinen GmbH + Co. KG und die Zeppelin GmbH am Projekt. Die entwickelten Lösungen werden anhand von konkreten Anwendungsfällen aus dem Automotive- und Produktionsbereich erprobt.

Das Beste aus beiden Welten: Softwarebibliothek für hybride Gesamtlösungen
Das Projektkonsortium wird Komponenten des Quantencomputings in heutige Lösungsansätze des maschinellen Lernens integrieren, um die Performance-, Geschwindigkeits- und Komplexitätsvorteile von Quanten-Algorithmen im industriellen Kontext nutzen zu können. In der sogenannten AutoQML-Developer Suite – einer Softwarebibliothek – sollen entwickelte Quanten-ML-Komponenten und Methoden in Form eines Werkzeugkastens zusammengeführt und den Entwickler*innen in einer Open-Source-Plattform zur Verfügung gestellt werden. Dies befähigt Anwender*innen, maschinelles Lernen und Quanten-Machine-Learning einzusetzen und hybride Gesamtlösungen entwickeln zu können.

Die Laufzeit des Projekts beträgt drei Jahre. Die weiterführende Marktverbreitung durch die Unternehmenspartner ermöglicht den Transfer von forschungsnaher Hochtechnologie in ein breites, industrielles Umfeld mit dem Ziel, den Industriestandort Deutschland signifikant zu stärken. Das Projekt wird vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert.

Ansprechpartnerin:
Yeama Bangali
Quantencomputing
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-5196
Email yeama.bangali@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Dr. Christian Tutschku
Leiter Team Quantencomputing
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-5115
Email christian.tutschku@iao.fraunhofer.de

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/quantencomputing-ne…

(nach oben)


Nach der Kirschblüte lauert die Essigfliege

Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
„Der Frühling ist da und die blühenden Obstbäume und -sträucher machen schon jetzt Lust auf frische Früchte wie Kirschen, Pfirsiche oder Pflaumen“, so Roger Waldmann vom Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL). Doch er weist auf den richtigen Schutz der Obstbäume vor der Kirschessigfliege hin: „Denn die Larven der Drosophila suzukii entwickeln sich in manchen Jahren lokal so schnell, dass die komplette Ernte innerhalb von weniger als 14 Tagen ausfallen kann.“

Die Besonderheit der Kirschessigfliege ist ihre Vorliebe für reifende und reife Früchte. Dorthinein legt das rund drei Millimeter große Schadinsekt seine Eier, also auch in Kirschen, die noch am Baum hängen und kurz vor der Ernte stehen. Dies macht die Bekämpfung des Schädlings mit Insektiziden schwierig, da nur ein kleines Zeitfenster bis zur Ernte verbleibt. Pflanzenschutzmittel gegen die Kirschessigfliege stehen für den Hausgarten nicht zur Verfügung. Selbst beruflich Anwendende mit Pflanzenschutz-Sachkundenachweis können nur befristet zugelassene Insektizide anwenden.

Wie man die Obsternte im heimischen Garten schützen kann:

• Das „Einnetzen“ der Pflanzen. Diese Methode dient der Vermeidung des Befalls. Hierbei werden die zu schützenden Bäume und Sträucher in feinmaschige Netze eingehüllt, sodass die Schadinsekten die Früchte gar nicht erst erreichen können. Eine Maschenweite von 0,8 bis maximal 1,0 Millimetern verspricht die besten Ergebnisse. Der richtige Zeitpunkt: Um die Bestäuber nicht zu beeinträchtigen, wird damit erst beim Farbumschlag (Reifung) der Früchte begonnen.

• Ein trockenes, besonntes Bestandsklima sicherstellen, da die Kirschessigfliege feuchte und kühle Bedingungen bevorzugt. Hierbei helfen geeignete Schnittmaßnahmen und das Entfernen der Blätter um die Früchte herum, um ein schnelles Abtrocknen des Baums zu ermöglichen.

• Verzicht auf eine Überkopfbewässerung und das Kurzhalten des Rasens unter den Obstbäumen, um schattige, kühle Rückzugsbereiche für die Kirschessigfliegen zu vermeiden.

• Ein naturnaher Garten. Hierdurch werden die natürlichen Feinde der Kirschessigfliege, wie Schlupfwespen, Vögel, Spinnen oder Ameisen, gefördert.
Seit 2011 hat sich die aus Asien stammende Kirschessigfliege in Deutschland ausgebreitet. Neben Süß- und Sauerkirschen befällt sie zahlreiche Obstarten wie Brombeeren, Himbeeren, Heidelbeeren, Pflaumen, seltener Erdbeeren und lokal einige rote Traubensorten. Die Pflanzenschutzorganisation für Europa und den Mittelmeerraum EPPO stuft die Kirschessigfliege als eine große Gefahr ein, denn:

• die Klimabedingungen in Europa sind optimal für ihre Vermehrung,
• die Vielzahl an nutzbaren, in zeitlicher Abfolge reifenden Obstkulturen stehen während der gesamten Wachstums- und Vermehrungsphase zur Verfügung,
• der kurze Generationswechsel sorgt, in Abhängigkeit von den jährlichen Klimabedingungen, für eine rasche Ausbreitung und sehr schnell ansteigende Zahlen mit entsprechendem Befall der Wirtsfrüchte.

Kommt es zum Befall, so sollte dieser durch eine frühzeitige und komplette (bei Kirschen) beziehungsweise kontinuierliche Ernte (bei Himbeeren) reifer Früchte reduziert werden. Auf die Kompostierung der befallenen Früchte im eigenen Garten sollte verzichtet werden. Um Eier und Maden abzutöten, sollten befallene Früchte zunächst in einem luftdicht geschlossenen Behälter oder einer Plastiktüte mehrere Tage der Sonne ausgesetzt werden, in reichlich Wasser mit etwas Spülmittel mehrere Stunden stehen gelassen oder mit kochendem Wasser überbrüht werden. Danach können die Früchte entsorgt werden. Abgefallene, auf dem Boden liegende Früchte sollten schnell entfernt werden, denn die gesamte Bestandshygiene ist sehr wichtig, um den Befall der Früchte gering zu halten.

Quellen und weitere Informationen finden Sie hier:
Bundesministerium für Ernährung und Landwirtschaft
(https://www.bmel.de/DE/themen/landwirtschaft/pflanzenbau/pflanzenschutz/kirsches…)

Wissensportal des Julius Kühn-Instituts
(https://drosophila.julius-kuehn.de/)

Bundesanstalt für Landwirtschaft und Ernährung
(https://www.ble.de/DE/Projektfoerderung/Foerderungen-Auftraege/Modellvorhaben/Pf…)

Bayerische Landesanstalt für Landwirtschaft
(https://www.lfl.bayern.de/ips/obstbau/096383/index.php)

Hintergrund:
Das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) ist die zuständige Behörde für die Zulassung von Pflanzenschutzmitteln. An den nationalen Verfahren sind weitere Behörden beteiligt:

Das Bundesinstitut für Risikobewertung (BfR) bewertet die Auswirkungen auf die Gesundheit von Mensch und Tier und die Analysemethoden zum Nachweis möglicher Rückstände.

Das Julius Kühn-Institut (JKI) bewertet die Wirksamkeit, die Pflanzenverträglichkeit, den Einfluss auf die Nachhaltigkeit und mögliche Auswirkungen auf Honigbienen.

Das Umweltbundesamt (UBA) bewertet mögliche Auswirkungen auf den Naturhaushalt.

(nach oben)


Der Himmel benötigt Schutz genau wie die Erde

Dr. Janine Fohlmeister Presse- und Öffentlichkeitsarbeit
Astronomische Gesellschaft
Einer aktuellen Studie zufolge benötigt der Weltraum zum Schutz seiner empfindlichen Umwelt dringend einen ähnlichen rechtlichen Schutz wie die Erde, das Meer und die Atmosphäre.

Die Zunahme von Weltraummüll im erdnahen Orbit – etwa 100 Kilometer über der Erdoberfläche -, der durch das rasche Ansteigen von so genannten Mega-Satelliten-Konstellationen verursacht wird, gefährdet dieses wertvolle Ökosystem, so die Forscherinnen und Forscher.

Die Installation dieser riesigen Hardware-Cluster umfasst bis zu Zehntausende einzelner Satelliten, die Breitbandverbindungen für die Erde liefern. Das führt zu einer Überlastung des Weltraums, und die Raketenstarts verschmutzen darüber hinaus die Atmosphäre.
Bruchstücke von zerbrochenen Satelliten, die mit enormer Geschwindigkeit durch den Weltraum fliegen, bedrohen laut der Studie auch andere Satelliten in ihrer Umlaufbahn.
Ebenso stören die Satelliten, die Lichtstreifen am Himmel und damit eine signifikante Lichtverschmutzung verursachen, in zunehmendem Maße die Forschung im optischen Wellenlängenbereich. Das Vera-C.-Rubin-Observatorium in Chile, das über einen Zeitraum von 10 Jahren den Himmel vermessen soll, ist beispielsweise schon stark beeinträchtigt.
Die Zeitschrift „Nature Astronomy“ veröffentlichte nun eine Studie, in der gezeigt wird, dass der Weltraum ein wichtiges Umfeld für die professionelle Astronomie, Amateurastronomie und indigene Völker darstellt und dass der wissenschaftliche, wirtschaftliche und kulturelle Nutzen des Weltraums sorgfältig gegen diese schädlichen Umweltauswirkungen abgewogen werden sollten.

Die unter Leitung der Universität Edinburgh entstandene Forschungsarbeit steht im Zusammenhang mit einem Rechtsfall, der derzeit vor dem US-Berufungsgericht verhandelt wird und einen wichtigen Präzedenzfall in der wachsenden Kampagne für die Ausdehnung des Umweltschutzes auf den Weltraum darstellen wird.
Die Lösung des Problems erfordert einen ganzheitlichen Ansatz, der den Weltraum als Teil der Umwelt und als schützenswertes Gut auf nationaler und internationaler Ebene betrachtet, so die Experten.

Die Forscherinnen und Forscher fordern die politischen Entscheidungsträger auf, die Umweltauswirkungen aller Aspekte von Satellitenkonstellationen – einschließlich ihres Starts, ihres Betriebs und ihres Wiedereintritts aus dem Orbit – zu berücksichtigen und zusammen an einem gemeinsamen, ethischen und nachhaltigen Ansatz für den Weltraum zu arbeiten.
Andy Lawrence, Professor für Astronomie am Institut für Astronomie der Universität Edinburgh und Hauptautor der Studie, sagt: „Wir stehen an einem Wendepunkt in der Geschichte. Wir können eine große Anzahl von Satelliten kostengünstig starten und sie zum Nutzen des Lebens auf der Erde einsetzen – aber das hat seinen Preis. Die Raumfahrtindustrie schadet nicht nur der Sternbeobachtung, sondern könnte sich so auch selbst ins Bein schießen.“

Professor Lawrence machte die Öffentlichkeit mit seinem Buch „Losing The Sky“ auf diese Probleme aufmerksam. Die Veröffentlichung führte dazu, dass er eine Expertenaussage für einen Rechtsfall verfasste, der derzeit vor dem US-Berufungsgericht verhandelt wird und in dem argumentiert wird, dass die US-Umweltvorschriften auch für die Genehmigung von Weltraumstarts gelten sollten.

Professor Michael Kramer, Präsident der Astronomischen Gesellschaft, weist darauf hin, dass die Vielzahl von Satelliten nicht nur optische sondern auch radioastronomische Beobachtungen stören. Insbesondere aber sagt er, „Wir brauchen Regeln, die sicherstellen, dass unsere Kinder und Enkel immer noch in der Lage sein werden, das Wunder Sternenhimmel zu bestaunen. Schon jetzt ist es in Deutschland schwierig, diese Erfahrung zu machen. Mit den Mega-Konstellationen besteht die Gefahr, dass es überall auf der Welt unmöglich sein wird.”

Professor Moriba Jah, Mitautor der Studie und außerordentlicher Professor für Luft- und Raumfahrttechnik und technische Mechanik an der University of Texas in Austin, sagt: „Wir glauben, dass alle Dinge miteinander verbunden sind und dass wir Verantwortung übernehmen müssen, als ob unser Leben davon abhinge. Traditionelles ökologisches Wissen ist der Schlüssel zur Lösung dieses schwierigen Problems.“
„Die größte Herausforderung besteht darin, Empathie und Mitgefühl für die Lösung dieser Umweltkrisen zu wecken. Wenn es uns gelingt, innovative Wege zu finden, die es der breiten Öffentlichkeit ermöglichen, sich in diese katastrophale Situation hineinzuversetzen und dagegen angehen zu müssen, dann wird die Erde und alles Leben, das sie erhält, dadurch gewinnen“, ergänzt er.

Professor Jah hat kürzlich zusammen mit dem Apple-Mitbegründer Steve Wozniak und dem CEO von Ripcord, Alex Fielding, das Start-up-Unternehmen „Privateer Space“ gegründet. Das Unternehmen verfolgt einen neuartigen Ansatz zur genauen Kartierung von Objekten in der Erdumlaufbahn in nahezu Echtzeit, um die nachhaltige Nutzung des Weltraums durch eine wachsende Zahl von Betreibern zu ermöglichen.

Dr. Meredith Rawls, Mitautorin und Forscherin an der Universität von Washington, sagt: „Das Rubin-Observatorium wird aufgrund seines großen Spiegels und seines weiten Sichtfeldes eine der am stärksten von einer großen Anzahl heller Satelliten betroffenen astronomischen Einrichtungen sein – das sind dieselben Eigenschaften, die es zu einem so bemerkenswerten Motor für Entdeckungen machen. Ich mache mir viele Gedanken darüber, wie sich Satellitenstreifen auf die Wissenschaft auswirken, aber das Anliegen eines dunklen und ruhigen Himmels ist sehr viel umfangreicher.“

„Wir müssen alle an einem Strang ziehen, um die sich rasch verändernde Satellitensituation zu bewältigen, wenn wir hoffen wollen, eine Zukunft mit einem dunklen und ruhigen Himmel für alle zu schaffen“, schließt sie.

Dr. Rawls ist eine Hauptakteurin des neuen Zentrums der Internationalen Astronomischen Union (IAU) für den Schutz des dunklen und ruhigen Himmels vor Störungen durch Satellitenkonstellationen, das die Interessengruppen für Himmelsbeobachtungen zusammenbringen soll, um gemeinsam die Auswirkungen von Satelliten zu quantifizieren und zu deren Abschwächung beizutragen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Kramer
Präsident, Astronomische Gesellschaft
Telefon: +49 228 525 278
praesident@astronomische-gesellschaft.de

Originalpublikation:
Nature Astronomy Artikel: https://www.nature.com/articles/s41550-022-01655-6

Weitere Informationen:
https://www.iau.org/science/scientific_bodies/centres/CPS/
https://mission.privateer.com/

(nach oben)


COVID-19-Therapie: Zusammen ist besser als allein

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Wie ein altbekannter Wirkstoff zum Gamechanger werden kann

Gemeinsame Pressemitteilung von Charité, MDC und FU Berlin
Zur Behandlung von COVID-19 stehen immer mehr Medikamente zur Verfügung. Forschende der Charité – Universitätsmedizin Berlin, des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) und der Freien Universität (FU) Berlin haben die Wirkmechanismen von antiviralen und antientzündlichen Substanzen genauer untersucht. Im Fachjournal Molecular Therapy* beschreiben sie, dass eine Kombination aus beiden am besten funktioniert und das Zeitfenster für den Einsatz einer Antikörpertherapie verlängert.

Noch immer führen Infektionen mit SARS-CoV-2 auch zu Aufnahmen in ein Krankenhaus. Derzeit werden laut Robert-Koch-Institut innerhalb einer Woche pro 100.000 Einwohner etwa sechs bis sieben Menschen mit COVID-19 eingewiesen. Bei der stationären Behandlung von COVID-19-Patient:innen gibt es mittlerweile eine Reihe von Medikamenten, die den Krankheitsverlauf abmildern oder bei Schwerkranken das Risiko eines tödlichen Verlaufs verringern. Einige bekämpfen das Virus, andere die Entzündung, die es hervorruft.

Besonders werden monoklonale Antikörper und das stark entzündungshemmende Medikament Dexamethason eingesetzt. Antikörper fangen das Virus ab, heften sich an die Oberfläche des Spikeproteins und verhindern so, dass es in die menschlichen Zellen eintritt. Diese Therapie wird bis zum siebten Tag nach Beginn der Symptome angewandt. Sauerstoffpflichtige COVID-19-Patient:innen im Krankenaus erhalten in der Regel Dexamethason. Das Glukokortikoid hat sich seit etwa 60 Jahren bei einigen, auf einer übermäßigen Aktivierung des Immunsystems beruhenden Entzündungen bewährt. Auch bei COVID-19 dämpft es die Entzündungsreaktion des Körpers zuverlässig. Allerdings geht der Wirkstoff mit verschiedenen Nebenwirkungen einher, so kann er beispielsweise Pilzinfektionen nach sich ziehen. Deshalb sollte das Mittel nur sehr gezielt eingesetzt werden.

Wissenschaftler:innen der Charité, des Berliner Instituts für Medizinische Systembiologie (BIMSB) am MDC und der FU Berlin haben die Wirkmechanismen beider Therapien untersucht. „Dabei haben wir Hinweise dafür gefunden, dass eine Kombination aus Antikörper- und Dexamethason-Therapie besser wirkt als die einzelnen Therapien für sich genommen“, sagt Dr. Emanuel Wyler, Wissenschaftler der Arbeitsgruppe RNA Biologie und Posttranscriptionale Regulation unter Leitung von Prof. Dr. Markus Landthaler am BIMSB, und Erstautor der Studie.


Da nicht alle Lungenareale anhand von Proben von Patient:innen untersucht werden können, suchten die Forschungsteams im vergangenen Jahr zunächst nach einem geeigneten Modell. Co-Letztautor Dr. Jakob Trimpert, Tiermediziner und Arbeitsgruppenleiter am Institut für Virologie der Freien Universität Berlin, entwickelte in diesem Zuge COVID-19-Hamstermodelle. Die Tiere sind derzeit der wichtigste nicht transgene Modellorganismus für COVID-19, da sie sich mit denselben Virusvarianten wie Menschen infizieren und ähnliche Krankheitssymptome entwickeln. Die Erkrankung läuft bei den einzelnen Arten unterschiedlich ab: Goldhamster erkranken nur moderat, während Roborovski-Zwerghamster einen schweren Verlauf zeigen, der dem von COVID-19-Patient:innen auf Intensivstationen ähnelt.

„In der aktuellen Studie haben wir die Auswirkungen von separaten und kombinierten antiviralen und entzündungshemmenden Behandlungen für COVID-19, also mit monoklonalen Antikörpern, Dexamethason oder einer Kombination aus beiden Therapien, in den vorhandenen Modellen geprüft“, erklärt Dr. Trimpert. Um das Ausmaß der Schädigung des Lungengewebes zu analysieren, untersuchten die Veterinärpathologen der FU Berlin infiziertes Lungengewebe unter dem Mikroskop. Außerdem bestimmte das Team um Dr. Trimpert zu verschiedenen Zeitpunkten der Behandlung die Menge an infektiösen Viren und Virus-RNA. So konnten die Wissenschaftler:innen überprüfen, ob und wie sich die Virenaktivität im Lauf der Therapie veränderte. „Mithilfe von detaillierten Analysen verschiedener Parameter einer COVID-19-Erkrankung, die so nur im Tiermodell möglich sind, ist es uns gelungen, nicht nur die Grundlagen der Wirkungsweise von zwei besonders wichtigen COVID-19-Medikamenten besser zu verstehen, wir fanden auch deutliche Hinweise auf mögliche Vorteile einer Kombinationstherapie aus monoklonalen Antikörpern und Dexamethason“, sagt Dr. Trimpert.

Den Einfluss der Medikamente auf das komplexe Zusammenspiel der Signalwege innerhalb der Gewebezellen und auf die Anzahl der Immunzellen haben Einzelzellanalysen gezeigt. Dabei lassen die Forschenden die einzelnen Zellen einer Probe über einen Chip laufen. Dort werden sie zusammen mit einem Barcode in kleine wässrige Tröpfchen verpackt. Auf diese Weise kann die RNA – der Teil des Erbgutes, den die Zelle gerade abgelesen hatte – sequenziert und später der Zelle wieder zugeordnet werden. Aus den gewonnenen Daten lässt sich mit hoher Präzision auf die Funktion der Zelle schließen. „So konnten wir beobachten, dass die Antikörper die Virusmenge effizient reduzieren konnten“, erläutert Dr. Wyler. „Im Modell half das jedoch nicht viel.“ Denn nicht die Viren schädigen das Lungengewebe, sondern die starke Entzündungsreaktion, die sie auslösen. Die Immunzellen, die die Eindringlinge bekämpfen, schütten Botenstoffe aus, um Verstärkung herbeizurufen. Die Massen an Abwehrkämpfern, die herbeiströmen, können die Lunge regelrecht verstopfen. „Verschlossene Blutgefäße und instabile Gefäßwände können dann zu einem akuten Lungenversagen führen“, erklärt der Wissenschaftler.

Für eine Überraschung sorgte das altbekannte Dexamethason. „Der Entzündungshemmer wirkt ganz besonders stark auf eine bestimmte Art von Immunzellen, die Neutrophilen“, sagt Co-Letztautorin Dr. Geraldine Nouailles, wissenschaftliche Arbeitsgruppenleiterin an der Medizinischen Klinik mit Schwerpunkt Infektiologie und Pneumologie der Charité. Die Neutrophilen gehören zu den weißen Blutkörperchen und treten bei Infektionen mit Viren und Bakterien sehr schnell auf den Plan. „Das Kortison-Präparat unterdrückt das Immunsystem und hindert die Neutrophilen daran, Botenstoffe zu produzieren, die andere Immunzellen anlocken“, führt Dr. Nouailles aus. „So verhindert das Medikament sehr effektiv eine Eskalation der Immunabwehr.“

Die besten Behandlungsergebnisse erreichten die Forschenden, als sie die antivirale mit der antientzündlichen Therapie kombinierten. „Eine solche Kombinationstherapie sehen die medizinischen Leitlinien bislang nicht vor“, betont Dr. Nouailles. „Hinzu kommt, dass eine Antikörpertherapie bislang nur bis zum maximal siebten Tag nach Symptombeginn bei Hochrisikopatient:innen verabreicht werden darf. Dexamethason wird in der Praxis erst verabreicht, wenn die Patient:innen sauerstoffpflichtig werden, also ihre Erkrankung bereits weit fortgeschritten ist. In der Kombination hingegen eröffnen sich ganz neue Zeitfenster der Behandlung.“ Ein Ansatz, der nun in klinischen Studien überprüft werden muss, bevor er für die Behandlung von Patient:innen infrage kommt.

*Emanuel Wyler et al (2022): „Key benefits of dexamethasone and antibody treatment in COVID-19 hamster models revealed by single cell transcriptomics “, in: Molecular Therapy, DOI: https://doi.org/10.1016/j.ymthe.2022.03.014

Über die Studie
:
Gefördert wurden die Arbeiten unter anderem durch die Deutsche Forschungsgemeinschaft (DFG) im Sonderforschungsbereich SFB-TR84, das Bundesministerium für Bildung und Forschung (BMBF) mit den Projekten CAPSyS-COVID sowie PROVID und das Berlin Institute of Health (BIH) in der Charité mit CM-COVID. Ebenfalls ermöglicht hat die Studie das BMBF-geförderte Nationale Forschungsnetzwerk der Universitätsmedizin zu Covid-19 (NUM), im Teilvorhaben Organostrat.


Wissenschaftliche Ansprechpartner:
Dr. Geraldine Nouailles
Arbeitsgruppenleiterin
Medizinische Klinik mit Schwerpunkt Infektiologie und Pneumologie
Charité – Universitätsmedizin Berlin
Tel.: +49 (0)30 450 653 474
geraldine.nouailles@charite.de

Dr. Jakob Trimpert
Arbeitsgruppenleiter / Leiter der Diagnostik
Institut für Virologie
Freie Universität Berlin
Tel.: +49 (0) 30 838 65028
Jakob.Trimpert@fu-berlin.de

Dr. Emanuel Wyler

AG RNA Biologie und Posttranscriptionale Regulation

Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC)

Tel.: +49 (0)30 9406-3009

emanuel.wyler@mdc-berlin.de

Originalpublikation:
https://www.cell.com/molecular-therapy-family/molecular-therapy/fulltext/S1525-0…

Weitere Informationen:
https://infektiologie-pneumologie.charite.de/
https://www.vetmed.fu-berlin.de/index.html
https://www.mdc-berlin.de/de/landthaler
https://www.charite.de/service/pressemitteilung/artikel/detail/lungenschaeden_be…

(nach oben)


Welchen Fußball wollen wir?

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Im Sommersemester 2022 geht an der Universität Würzburg ein Seminar in die nächste Runde, das den Lieblingssport der Deutschen aus unterschiedlichen Perspektiven beleuchtet – den Fußball.

Unter dem Schirm des Lehrstuhls für Sportwissenschaft der Julius-Maximilians-Universität (JMU) Würzburg lädt Lehrstuhlinhaber Professor Harald Lange „Studierende aller Fächer und Fakultäten und auch aller Hochschulstandorte im deutschsprachigen Raum“ dazu ein, am wissenschaftlichen Austausch rund um den Fußball teilzunehmen.

Bereits 2020 war das Seminar erstmals mit dem Titel „Welchen Fußball wollen wir?“ als experimentelle hochschuldidaktische Reaktion auf die Coronapandemie via Zoom angelaufen und wurde von Studierenden verschiedener Fachbereiche aus ganz Deutschland sehr gut angenommen.

Studien wecken Interesse
Durch die mediale Aufmerksamkeit, die Lange zuletzt mit zwei großangelegten Forschungsprojekten, der DFB-Basis-Studie und der Fanrückkehr-Studie, generiert hatte, sieht er nun die passende Gelegenheit, die Veranstaltung nochmals zu bewerben: „Der Erfolg der Studien hat viel angestoßen und große Resonanz ausgelöst.“

Da die ersten Teilnehmerinnen und Teilnehmer des Seminars nun ihre Masterarbeiten schreiben oder auch Promotionsprojekte auf den Weg bringen, gelte es, den Austausch auch für weitere Interessierte zu öffnen. Auch diesmal soll es möglich sein, Interessierte in Forschungsprojekten einzubinden.

„Studentischer Thinktank zur Zukunft des Fußballs“
Gerade der interdisziplinäre Ansatz macht für Lange den besonderen Wert des Seminars aus: „Juristinnen und Juristen haben ihren eigenen Zugang zum Thema Fußball, Fachleute aus der Wirtschafts-, Medien-, Sport- oder Politikwissenschaft wieder einen anderen, und die aus Soziologie, Geschichte oder Linguistik ebenso.“

Angesprochen werden Studierende und wissenschaftlicher Nachwuchs, die den Fußball nicht nur als Hobby oder persönliches Fanthema sehen, sondern ihn auch in ihrem Studium zum Thema interdisziplinärer Lehre und Forschung machen möchten. Als „studentischer Thinktank zur Zukunft des Fußballs“ diene das Seminar als Drehscheibe für den Austausch und biete viele Möglichkeiten zur Netzwerkbildung.

Ausbau ist möglich
Aufgrund des offenen Charakters findet die Veranstaltung weiterhin online über Zoom statt. Der Umfang könne von den bisherigen zwölf Teilnehmern und Teilnehmerinnen auf bis zu 20 erweitert werden. Bei einzelnen komplett offenen Sitzungen mit Gastvorträgen erreichte die Veranstaltung in der Vergangenheit um die 80 Personen.

Dabei sieht Harald Lange das Potential längst nicht ausgeschöpft: „Das Seminar ist eine zarte aber sehr nachhaltig wirkende Pflanze, die ich perspektivisch an einen innovativen Studiengang anbinden möchte.“ Dabei strebt er auch Kooperationen mit bestehenden Studiengängen beziehungsweise Hochschulen aus ganz Deutschland an. Seit dem Start im Mai 2020 seien die Fragestellungen und Themen, die sich von kulturtheoretischen Grundlagen, über sportpolitische Fragestellungen bis hin zum Spannungsfeld zwischen Kommerz und Ethik im Fußball erstrecken, schließlich noch relevanter geworden, so Lange.

Zwischen Mai und Juli werden insgesamt 14 Sitzungen stattfinden. Termin ist immer mittwochs um 18:30 Uhr.
Interessierte können sich direkt bei Harald Lange melden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Harald Lange, Lehrstuhl für Sportwissenschaft, Universität Würzburg, T. +49 151 – 10388104, harald.lange@uni-wuerzburg.de

(nach oben)


Wasseraufbereitung: Licht hilft beim Abbau von Hormonen

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Bei Mikroverunreinigungen im Wasser handelt es sich häufig um Hormone, die sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken können. Forschende am Karlsruher Institut für Technologie (KIT) und am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig haben ein Verfahren zum photokatalytischen Abbau dieser Verunreinigungen im Durchfluss durch Polymermembranen entwickelt und in der Zeitschrift Nature Nanotechnology vorgestellt. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den mit Titandioxid beschichteten Membranen zersetzt. (DOI: 10.1038/s41565-022-01074-8)

Überall wo Menschen leben, gelangen Hormone, wie sie in Arzneimitteln zur Empfängnisverhütung und in der Landwirtschaft eingesetzt werden, in das Abwasser. Steroidhormone wie Sexualhormone und Corticosteroide können sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken, indem sie die Verhaltensentwicklung und die Fortpflanzungsfähigkeit beeinträchtigen. Sexualhormone können beispielsweise dazu führen, dass männliche Fische weibliche Geschlechtsmerkmale entwickeln. Umso wichtiger ist es, neben anderen Mikroverunreinigungen auch Hormone aus dem Abwasser zu entfernen, bevor diese in den natürlichen Wasserkreislauf zurückgelangen, aus dem wiederum das Trinkwasser kommt. „Die Menschen mit sauberem Trinkwasser zu versorgen, gehört weltweit zu den wichtigsten Herausforderungen der Gegenwart“, sagt Professorin Andrea Iris Schäfer, Leiterin des Institute for Advanced Membrane Technology (IAMT) des KIT. „Spurenschadstoffe sind eine enorme Bedrohung für unsere Zukunft, da sie unsere Fruchtbarkeit und Gehirnfunktion beeinträchtigen.“

Inspiration aus der Solarzellentechnologie
Schäfer befasst sich seit Jahren mit der Wasseraufbereitung über Nanofiltration. Dazu setzt sie Polymermembranen mit nanometerkleinen Poren ein. Allerdings arbeitet die Nanofiltration mit hohem Druck und benötigt daher viel Energie. Außerdem kann es passieren, dass sich Mikroverunreinigungen in den polymeren Membranmaterialien ansammeln und allmählich in das gefilterte Wasser übergehen. Selbst wenn die Entfernung der Verunreinigungen vollständig gelingt, entsteht dabei ein Strom mit konzentrierten Schadstoffen, der weiterbehandelt werden muss.

Inspiriert von der Solarzellentechnologie, mit der sich der ebenfalls am KIT tätige Professor Bryce S. Richards befasst, kam Schäfer auf die Idee, Polymermembranen mit Titandioxid zu beschichten und photokatalytische Membranen zu entwickeln: Photokatalytisch aktive Titandioxid-Nanopartikel werden auf Mikrofiltrationsmembranen aufgebracht, deren Poren etwas größer sind als bei der Nanofiltration. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den Membranen zersetzt. Nun hat Schäfer ihre Idee mit ihrem Team am IAMT des KIT und mit Kolleginnen am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig verwirklicht und die neue Technologie in der Zeitschrift Nature Nanotechnology vorgestellt.

Katalysator für Wasser
„Wir haben sozusagen einen Katalysator für Wasser entwickelt“, resümiert Schäfer. Mit den photokatalytischen Polymermembranen gelang es, Steroidhormone im kontinuierlichen Durchfluss so weit zu entfernen, dass die analytische Nachweisgrenze von vier Nanogramm pro Liter erreicht wurde – die Werte kamen sogar ziemlich nah an ein Nanogramm pro Liter heran, was der neuen Trinkwasserrichtlinie der WHO entspricht. Die Forschenden arbeiten daran, ihre Technologie weiterzuentwickeln, um den Zeitbedarf und den Energieverbrauch zu senken sowie die Verwendung von natürlichem Licht zu ermöglichen. Vor allem aber zielt die weitere Forschung darauf ab, auch andere Schadstoffe mithilfe der Photokatalyse abzubauen, beispielsweise Industriechemikalien wie per- und polyfluorierte Alkylsubstanzen (PFAS) oder Pestizide wie Glyphosat. Eine weitere Herausforderung besteht darin, die Technologie in größerem Maßstab zu verwirklichen.

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Regina Link, Pressereferentin, Tel.: +49 721 608-41158, E-Mail: regina.link@kit.edu

Originalpublikation:
Shabnam Lotfi, Kristina Fischer, Agnes Schulze and Andrea I. Schäfer: Photocatalytic degradation of steroid hormone micropollutants by TiO2-coated polyethersulfone membranes in a continuous flow-through process. Nature Nanotechnology, 2022. DOI: 10.1038/s41565-022-01074-8

Abstract unter https://www.nature.com/articles/s41565-022-01074-8

Zum Hintergrund der Publikation: https://engineeringcommunity.nature.com/posts/catalyst-for-water-removing-steroi…

(nach oben)


Ein Schwarm von 85.000 Erdbeben am antarktischen Unterwasservulkan Orca

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
In der abgelegenen Gegend identifiziert ein Mix geophysikalischer Methoden Magmatransfer unter dem Meeresboden als Ursache

Auch vor der Küste der Antarktis gibt es Vulkane. Am Tiefseevulkan Orca, der seit langem inaktiv ist, wurde 2020 eine Folge von mehr als 85.000 Erdbeben registriert, ein Schwarmbeben, das bis dahin für diese Region nicht beobachtete Ausmaße erreichte. Dass solche Ereignisse auch in derart abgelegenen und daher schlecht instrumentierten Gebieten sehr detailliert untersucht und beschrieben werden können, zeigt nun die Studie eines internationalen Teams, die in der Fachzeitschrift „Communications Earth and Environment“ veröffentlicht wurde. Unter Leitung von Simone Cesca vom Deutschen GeoForschungsZentrum Potsdam (GFZ) waren Forschende aus Deutschland, Italien, Polen und den Vereinigten Staaten beteiligt. Mit der kombinierten Anwendung von seismologischen, geodätischen und Fernerkundungs-Techniken konnten sie ermitteln, wie der schnelle Transfer von Magma vom Erdmantel nahe der Krusten-Mantel-Grenze bis fast zur Oberfläche zu dem Schwarmbeben führte.

Der Orca-Vulkan zwischen Südamerikas Spitze und der Antarktis
Schwarmbeben treten hauptsächlich in vulkanisch aktiven Regionen auf. Als Ursache wird daher die Bewegung von Fluiden in der Erdkruste vermutet. Der Orca-Seamount ist ein großer submariner Schildvulkan mit einer Höhe von etwa 900 Metern über dem Meeresboden und einem Basisdurchmesser von rund 11 Kilometern. Er liegt in der Bransfield-Straße, einem Meereskanal zwischen der Antarktischen Halbinsel und den Süd-Shetland-Inseln, südwestlich der Südspitze von Argentinien.

„In der Vergangenheit war die Seismizität in dieser Region mäßig. Im August 2020 begann dort allerdings ein intensiver seismischer Schwarm mit mehr als 85.000 Erdbeben innerhalb eines halben Jahres. Er stellt die größte seismische Unruhe dar, die dort jemals aufgezeichnet wurde“, berichtet Simone Cesca, Wissenschaftler in der Sektion 2.1 Erdbeben- und Vulkanphysik des GFZ und Leiter der jetzt veröffentlichten Studie. Gleichzeitig mit dem Schwarm wurde auf dem benachbarten King George Island eine seitliche Bodenverschiebung von mehr als zehn Zentimetern und einer geringen Hebung von etwa einem Zentimeter aufgezeichnet.

Cesca hat diese Ereignisse mit Kolleg:innen vom National Institute of Oceanography and Applied Geophysics – OGS und der Universität Bologna (Italien), der Polnischen Akademie der Wissenschaften, der Leibniz-Universität Hannover, des Deutschen Luft- und Raumfahrtzentrums (DLR) und der Universität Potsdam untersucht. Dabei standen sie vor der Herausforderung, dass es in der abgelegenen Gegend nur wenige konventionelle seismologische Instrumente gibt, nämlich nur zwei seismische Stationen und zwei GNSS-Stationen (Bodenstationen des Globalen Navigations-Satelliten-Systems, die Bodenverschiebungen messen). Um die Chronologie und Entwicklung der Unruhen zu rekonstruieren und ihre Ursache zu ermitteln, hat das Team daher zusätzlich Daten von entfernteren seismischen Stationen und Daten von InSAR-Satelliten, die mittels Radarinterferometrie Bodenverschiebungen messen, ausgewertet. Ein wichtiger Schritt war dabei die Modellierung der Ereignisse mit einer Reihe geophysikalischer Methoden, um die Daten richtig zu interpretieren.

Die Rekonstruktion der seismischen Ereignisse
Die Forschenden haben den Beginn der Unruhen auf den 10. August 2020 zurückdatiert und den ursprünglichen globalen seismischen Katalog, der nur 128 Erdbeben enthielt, auf mehr als 85.000 Ereignisse erweitert. Der Schwarm erreichte seinen Höhepunkt mit zwei großen Erdbeben am 2. Oktober (Mw 5,9) und am 6. November (Mw 6,0) 2020, bevor er abflaute. Bis Februar 2021 war die seismische Aktivität deutlich zurückgegangen.

Als Hauptursache für das Scharmbeben identifizieren die Forschenden eine Magma-Intrusion, die Ausbreitung eines größeren Magma-Volumens. Denn seismische Prozesse allein können die beobachtete starke Oberflächendeformation auf King George Island nicht erklären. Die Magma-Intrusion wird unabhängig von geodätischen Daten bestätigt.

Die Seismizität wanderte von ihrem Ursprungsort zunächst nach oben und dann seitlich: Tiefere, gebündelte Erdbeben werden als Reaktion auf die vertikale Ausbreitung von Magma aus einem Reservoir im oberen Erdmantel oder an der Grenze zwischen Kruste und Erdmantel interpretiert. Flachere sogenannte Krustenbeben breiteten sich von Nordost nach Südwest aus. Sie wurden durch den sich seitlich ausbreitenden Magmadamm ausgelöst, der eine Länge von etwa 20 km erreicht.

Die Seismizität nahm Mitte November, nach rund drei Monaten anhaltender Aktivität, abrupt ab. Das fällt mit dem Auftreten des größten Erdbebens der Serie mit einer Magnitude von Mw 6,0 zusammen. Das Ende des Schwarms lässt sich durch den Druckverlust im Magmastollen erklären, der mit dem Abrutschen einer großen Verwerfung einhergeht. Das könnte den Zeitpunkt eines Ausbruchs am Meeresboden markieren, der aber bislang nicht durch andere Messungen bestätigt werden konnte.

Die Forschenden schließen durch Modellierung von GNSS- und InSAR-Daten, dass das Volumen der Magma-Intrusion von Bransfield eine Größenordnung von 0,26-0,56 Kubikkilometer aufweist. Das macht diese Episode auch zur größten magmatischen Unruhe, die jemals in der Antarktis geophysikalisch überwacht wurde.

Résumé
Simone Cesca resümiert: „Unsere Studie stellt die erfolgreiche Untersuchung einer seismo-vulkanischen Unruhe an einem abgelegenen Ort der Erde dar, bei der uns die kombinierte Anwendung von Seismologie, Geodäsie und Fernerkundungstechniken ein Verständnis von Erdbebenprozessen und Magmatransport in schlecht instrumentierten Gebieten ermöglicht hat. Dies ist einer der wenigen Fälle, in denen wir mit geophysikalischen Mitteln ein Eindringen von Magma aus dem oberen Mantel oder der Krusten-Mantel-Grenze in die flache Kruste beobachten können – einen schnellen, nur wenige Tage dauernden Magmatransfer vom Mantel bis fast zur Oberfläche.“

Wissenschaftliche Ansprechpartner:
Dr. Simone Cesca
Sektion 2.1 Erdbeben- und Vulkanphysik
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28794
E-Mail: simone.cesca@gfz-potsdam.de

Originalpublikation:
Cesca, S., Sugan, M., Rudzinski, Ł., Vajedian, S., Niemz, P., Plank, S., Petersen, G., Deng, Z., Rivalta, E., Vuan, A., Plasencia Linares, M. P., Heimann, S., and Dahm, T., 2022. Massive earthquake swarm driven by magmatic intrusion at the Bransfield Strait, Antarctica, Communications Earth & Environment, doi: 10.1038/s43247-022-00418-5
https://www.nature.com/articles/s43247-022-00418-5

(nach oben)


Neues Sinnesorgan entdeckt

Dr. Gesine Steiner Pressestelle
Museum für Naturkunde – Leibniz-Institut für Evolutions- und Biodiversitätsforschung
Wissenschaftlerinnen des Zentrums für Integrative Biodiversitätsentdeckung des Museums für Naturkunde Berlin und Wissenschaftler des ZUSE-Instituts Berlin und der RWTH Aachen haben ein neues Sinnesorgan zur Wahrnehmung von Vibrationssignalen bei Kleinzikaden entdeckt und in The Royal Society Biology Letters publiziert. Die Entdeckung dieses neuen Organes bietet zahlreiche neue Forschungsansätze, da einige Arten von Kleinzikaden wirtschaftlich bedeutsame Pflanzenkrankheiten übertragen. Zur Biologischen Schädlingsbekämpfung könnte mittels Störsignal die Paarung der Insekten unterbunden und somit deren Ausbreitung eingedämmt werden.

Die großen Singzikaden sind bekannt für ihre ohrenbetäubenden Gesänge. Jede der über 3000 Arten besitzt einen individuellen Gesang, der sogar zur Artbestimmung genutzt werden kann. Im Mittelmeerraum, den Tropen und den Subtropen sind ihre Paarungssignale prägend für die Geräuschkulisse zahlreicher Regionen.
Weniger bekannt, obwohl mit fast 40000 Spezies weitaus artenreicher, sind die nah verwandten Kleinzikaden, die man zuhauf in unseren heimischen Parks und Gärten finden kann. Trotz ihres oft sehr farbenfrohen Aussehens sind diese hübschen Insekten aufgrund der geringen Größe – manche sind nur wenige Millimeter groß – wenig bekannt. Auch ihre Kommunikationsweise zieht kaum Aufmerksamkeit auf sich. Zwar besitzen Singzikaden und Kleinzikaden ein ähnliches Organ zur Signalerzeugung, aber während die Singzikaden dies zur Schallerzeugung nutzen, werden die Signale der Kleinzikaden als Vibrationen über die Pflanzen zu den Artgenossen gesendet.

Zur Wahrnehmung der Signale besitzen Singzikaden ein sogenanntes Tympanalorgan. Dies ist eine Art Ohr, das die eingehenden Schallwellen mit ca. 2000 Sinneszellen registriert. Bei den Kleinzikaden nahm man bisher an, dass diese die Vibrationssignale zur Kommunikation mit recht simplen, aus nur wenigen Sinneszellen aufgebauten Organen in den Beinen wahrnehmen, wie sie fast alle Insekten besitzen.

Wissenschaftlerinnen des Zentrums für Integrative Biodiversitätsentdeckung des Museums für Naturkunde Berlin und Wissenschaftler des ZUSE-Instituts Berlin und der RWTH Aachen haben kürzlich ein neues Sinnesorgan zur Wahrnehmung von Vibrationssignalen bei Kleinzikaden entdeckt. „In unserer neuesten Studie haben wir herausgefunden, dass Kleinzikaden ein Sinnesorgan im vorderen Bereich des Hinterleibs besitzen, welches im Verhältnis zu solch kleinen Insekten außergewöhnlich groß ist und aus bis zu 400 Sinneszellen besteht“, so die Erstautorin Sarah Ehlers vom Zentrum für Integrative Biodiversitätsentdeckung des Museums für Naturkunde in Berlin. Dass dieses Organ bisher unentdeckt geblieben ist, ist mehr als erstaunlich, da das gleich danebenliegende Organ zur Signalerzeugung vielfach untersucht und beschrieben wurde.

Durch die Kombination klassischer histologischer Methoden mit modernsten bildgebenden Verfahren ist es gelungen, ein 3D-Modell des Sinnesorganes zu generieren. Das Sinnesorgan der Kleinzikaden ist ein ausgeklügeltes System aus feinen Membranen und verstärkten Teilen des Exoskeletts. Aufgrund der Lage und Struktur dieses Organes ist anzunehmen, dass sich aus einem ähnlichen Vorläuferorgan das komplizierte Tympanalorgan der Zikaden entwickelt hat.

Da einige Arten von Kleinzikaden wirtschaftlich bedeutsame Pflanzenkrankheiten übertragen, stehen sie im Fokus vieler Studien zur biologischen Schädlingsbekämpfung. Untersucht wurde zum Beispiel das Paarungsverhalten und die Art und Weise der Signalerzeugung. So existieren schon erfolgreiche Versuche, mittels Störsignalen die Paarung der Insekten zu unterbinden und somit deren Ausbreitung einzudämmen.
Die Entdeckung dieses neuen Organes bietet somit Spielraum für zahlreiche neue Forschungsansätze. Nun gilt es Untersuchungen zu seiner genauen Funktionsweise anzustellen. Damit könnten die Methoden der biologischen Schädlingsbekämpfung weiterentwickelt und optimiert werden. Ein weiteres spannendes Feld stellt die Evolution von Kommunikationssystemen innerhalb der Insekten dar. Anhand dem Beispiel der Zikaden ist es möglich zu erforschen, wie der Übergang von der entwicklungsgeschichtlich älteren Kommunikation über Vibrationssignale, hin zur Kommunikation durch Schallwellen erfolgte.

Publikation:
Sarah Ehlers et. al., Large abdominal mechanoreceptive sense organs in small plant-dwelling insects, Royal Society Publishing, DOI: 10.1098/rsbl.2022.0078

(nach oben)


Social-Media-Workshop „Digitale Zukunft mit Dir!“ am 21. April 2022

Julia Reichelt Universitätskommunikation
Technische Universität Kaiserslautern
Digitalexperte Dr. Michael Gebert führt am 21.04.22 von 14 bis 18 Uhr durch den kostenfreien Onlineworkshop „Digitale Zukunft mit Dir!“, der Social Media aus der Perspektive der Gesellschaft und der Content-Verantwortlichen betrachtet. Ziel des Workshops ist es, gemeinsam das Handeln in den sozialen Medien zu diskutieren und einen selbstreflektierten Blick auf Herausforderungen und Chancen zu entwickeln. Der Workshop findet im Rahmen der Veranstaltungsreihe „Heute. Morgen. Übermorgen.“ der Offenen Digitalisierungsallianz Pfalz statt. Zur Einleitung ins Thema steht die Aufzeichnung eines Impulsvortrags parat.

Welchen Einfluss haben soziale Netzwerke auf unsere Gesellschaft? Dieser zentralen Frage geht steht der Online-Workshop auf den Grund. Dabei wird Digitalexperte Gebert viele Aspekte diskutieren – darunter die Handlungsmöglichkeiten, Werkzeuge und Instrumente im eigenen Alltag, aber auch den sinnstiftenden Umgang im Hinblick auf soziale und gesellschaftliche Zwecke.

Im Rahmen der Veranstaltungsreihe „Heute. Morgen. Übermorgen. – Digitale Zukunft mit Dir!“ möchte die Offene Digitalisierungsallianz Pfalz mit Interessierten in den Diskurs treten.
Dafür konnten die Verantwortlichen an der Technischen Universität Kaiserslautern für das laufende Sommersemester Dr. Michael Gebert, Vorsitzender der European Blockchain Association, Geschäftsführer der CrowdSourcing Association und des German CrowdFunding Network, als Gastdozenten gewinnen. Der international agierende Experte für digitale Transformation und Blockchain kommt für diese Veranstaltungsreihe vor Ort nach Kaiserslautern, um Impulse zu setzen und neue Denkanstöße zu geben.

Weitere Informationen inklusive Link zur Anmeldung sind auf den Webseiten der Offenen Digitalisierungsallianz Pfalz zu finden: https://www.offenedigitalisierungsallianzpfalz.de/workshop-zu-social-media-digit…

„Social Media ist das Instrument, das die Menschen weltweit zusammenbringt und ebenso teilt. Neue Beziehungen werden begonnen oder wieder getrennt, Gesinnungen geteilt. Es ist wichtig zu verstehen, warum wir an diesem Punkt angelangt sind und was wir daraus, auch für uns selbst machen können“, so Gebert. Der Onlineworkshop richtet sich somit an alle, die ihre Rolle in der Gesellschaft diskutieren und Social-Media-Strategien kennenlernen möchten. Teilnehmende erhalten einen Einblick in Handlungsempfehlungen, Instrumente und Werkzeuge, die bei der Gestaltung der eigenen Social-Media-Welt unterstützen.

Ein Zugang zur Aufzeichnung des Impulsvortrages von Gebert, in dem er einen Überblick über die Entwicklung und Wirkung von Social Media gibt, wird den Teilnehmenden nach der Anmeldung zugesandt. Dieser dient als Vorbereitung bzw. Ergänzung für den Workshop.

Über die Offene Digitalisierungsallianz Pfalz
Die Veranstaltungsreihe Heute. Morgen. Übermorgen. findet im Rahmen des Teilprojekts zur gesellschaftlichen Teilhabe am digitalen Wandel im Vorhaben Offenen Digitalisierungsallianz Pfalz statt. Die Offene Digitalisierungsallianz Pfalz ist ein Verbundvorhaben der Hochschule Kaiserslautern, der Technischen Universität Kaiserslautern sowie des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik (ITWM). Das Vorhaben stärkt den Ideen-, Wissens- und Technologietransfer mit Wirtschaft und Gesellschaft und basiert auf einer gemeinsamen Kooperationsstrategie der beiden Hochschulen. Die Offene Digitalisierungsallianz Pfalz wird vom Bundesministerium für Bildung und Forschung im Rahmen der Bund-Länder-Initiative „Innovative Hochschule“ gefördert.

Fragen beantwortet:
Nadine Wermke
Koordinatorin der Offenen Digitalisierungsallianz Pfalz
Referat Technologie und Innovation
TU Kaiserslautern
E-Mail: wermke@rti.uni-kl.de
Tel.: 0631 205-5342

(nach oben)


Wie viel „Ich“ steckt im eigenen Avatar?

Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz
In der zweiten Folge der neuen Staffel des Podcast-Specials zum Sonderforschungsbereich „Hybrid Societies“ geht es um die Verbindung von „Ich“ und „Avatar“, verschiedene Gangarten und unterschiedliche Typen verkörperten Technologien

Durch die Corona-Pandemie sind Online-Plattformen, auf denen man sich zum Beispiel in Form von Avataren – also digitalen Abbildern seiner selbst – begegnen kann, alltäglich geworden. Mit einem solchen Avatars wird es möglich, sich „körperlich“ in Online-Räumen zu treffen, während man eigentlich woanders auf der Welt an einem Computer sitzt. Und jetzt die Frage: Würde Ihr Avatar Ihnen ähnlich sehen? Haben Sie überhaupt schon mal darüber nachgedacht, ob der Avatar Ihnen ähnlich sehen soll? In der zweiten Folge der aktuellen Staffel von „Mensch – Maschine – Miteinander“ sprechen Sabrina Bräuer, Wissenschaftliche Mitarbeiterin an der Professur Bewegungswissenschaft (Prof. Dr. Thomas Milani) und Sarah Mandl, Wissenschaftliche Mitarbeiterin an der Professur für Persönlichkeitspsychologie und Diagnostik (Prof. Dr. Anja Strobel) unter anderem über diese Fragen. Beide sind Doktorandinnen am Sonderforschungsbereich „Hybrid Societies“ der Technischen Universität Chemnitz. Darüber hinaus sprechen die Forscherinnen mit Podcast-Moderator Johannes Schmidt über die vielfältigen Anwendungsmöglichkeiten von Avataren. Zudem ordnen sie ein, welche Wahrnehmungs- und Zuschreibungsprozesse sich auf das digitale Konterfei auswirken.

Im Rahmen des „TUCscicast“-Special zum SFB „Hybrid Societies“ soll zum einen die Breite des Forschungsfeldes des SFB sichtbar werden; zum anderen geht es um die Diskussion aktueller Untersuchungen der beteiligten Teil-Projekte. So sprechen die beiden Wissenschaftlerinnen in der aktuellen Folge unter anderem auch über die kürzlich erschienene Studie zur sozialen und rechtlichen Wahrnehmung von Robotern sowie von Nutzerinnen und Nutzern bionischer Prothesen.

Etabliertes Format der Wissenschaftskommunikation
Damit die Arbeit des Sonderforschungsbereichs mehr Menschen erreicht – und auch die Menschen hinter der Forschung Gelegenheit zum Erklären und Einordnen erhalten, erscheint seit dem 9. Oktober 2020 das Podcast-Special „Mensch – Maschine – Miteinander“. Special deswegen, weil dieser Podcast kein neues Format innerhalb des Kommunikations-Portfolios der TU Chemnitz ist, sondern als Mini-Serie die Reihe „TUCscicast“ ergänzt – nunmehr bereits in der zweiten Staffel.

„Mensch – Maschine – Miteinander – ein TUCscicast-Special zum SFB Hybrid Societies“ wird gemeinsam produziert vom SFB „Hybrid Societies“, der TU Chemnitz und podcastproduzenten.de, Schwester-Firma des Online-Radios detektor.fm, das seit 2009 hochwertige Podcasts für Wirtschaft, Gesellschaft und Forschung produziert. Redakteur des Podcasts ist Johannes Schmidt.

Der Podcast kann auf verschiedenen Wegen gehört werden:
im Web-Player der TU Chemnitz,
in jeder Podcast-App über unseren RSS-Feed,
auf Spotify, Deezer, Apple Podcast und überall dort, wo es gute Podcasts gibt.
Neues aus dem SFB „Hybrid Societies“ gibt es, außer im Podcast, vierteljährlich auch im Newsletter.

Weitere Informationen:
https://www.tu-chemnitz.de/tu/pressestelle/tucscicast.php

(nach oben)


Energiewende: Solarzellen der nächsten Generation werden immer effizienter

Eva Schissler Kommunikation und Marketing
Universität zu Köln
Ein Forschungsteam hat eine Tandem-Solarzelle aus Perowskit und organischen Absorberschichten mit hoher Effizienz entwickelt, die kostengünstiger herzustellen ist als herkömmliche Solarzellen aus Silizium. Die Weiterentwicklung dieser Technologie soll eine noch nachhaltigere Gewinnung von Solarenergie ermöglichen / Veröffentlichung in „Nature“

Ein deutsches Forschungsteam hat eine Tandem-Solarzelle entwickelt, die einen Wirkungsgrad von 24 Prozent erreicht – gemessen anhand des Anteils der in Strom (Elektronen) umgewandelten Photonen. Damit stellt das Team einen neuen Weltrekord auf: Es ist der höchste Wirkungsgrad, der bislang durch die Kombination von organischen und Perowskit-basierten Absorbern erzielt werden konnte. Die Solarzelle wurde in der Arbeitsgruppe von Professor Dr. Thomas Riedl an der Universität Wuppertal zusammen mit Forscher:innen vom Institut für Physikalische Chemie der Universität zu Köln und weiteren Projektpartner:innen von den Universitäten Potsdam und Tübingen sowie dem Helmholtz-Zentrum Berlin und dem Max-Planck-Institut für Eisenforschung in Düsseldorf entwickelt. Die Ergebnisse wurden unter dem Titel „Perovskite/organic tandem solar cells with indium oxide interconnect“ in der Fachzeitschrift Nature veröffentlicht.

Herkömmliche Solarzellentechnologien basieren überwiegend auf dem Halbleiter Silizium und gelten inzwischen als so gut wie „ausoptimiert“. Signifikante Verbesserungen ihres Wirkungsgrades – das heißt, mehr Watt elektrischer Leistung pro Watt eingesammelter Sonnenstrahlung – sind kaum noch zu erwarten. Vor diesem Hintergrund ist die Entwicklung neuer Solartechnologien, die im Kontext der Energiewende einen entscheidenden Beitrag leisten können, dringend erforderlich. Zwei solcher alternativen Absorbermaterialien wurden in der vorliegenden Arbeit kombiniert. Zum einen kamen organische Halbleiter zum Einsatz, also Kohlenstoffverbindungen die unter bestimmten Bedingungen elektrischen Strom leiten können. Diese wurden mit Perowskit-Halbleitern kombiniert, welche auf einer Blei-Halogen-Verbindung basieren und hervorragende halbleitende Eigenschaften besitzen. Zur Herstellung beider Technologien ist der Bedarf an Material und Energie bedeutend geringer als bei konventionellen Siliziumzellen, was die Möglichkeit eröffnet, noch nachhaltigere Solarzellen zu entwickeln.

Da Sonnenlicht aus verschiedenen Spektralanteilen, sprich Farben, besteht, müssen effiziente Solarzellen einen möglichst großen Anteil dieses Sonnenlichtes in Strom umwandeln. Dies kann mit sogenannten Tandem-Zellen erreicht werden, bei denen in der Solarzelle verschiedene Halbleitermaterialien kombiniert werden, welche jeweils unterschiedliche Bereiche des Sonnenspektrums absorbieren. In der aktuellen Studie kamen organische Halbleiter für den ultravioletten und sichtbaren Teil des Lichtes zum Einsatz, während Perowskit den nahen Infrarotbereich effizient absorbieren kann. An ähnlichen Materialkombinationen wurde schon in der Vergangenheit geforscht, doch dem Forschungsteam gelang es nun, deren Leistungsfähigkeit entscheidend zu steigern.

Zu Projektbeginn hatten die weltweit besten Perowskit/Organik-Tandemzellen einen Wirkungsgrad von circa 20 Prozent. Unter Federführung der Universität Wuppertal konnten die Kölner Forscher:innen zusammen mit den weiteren Projektpartnern den neuen Bestwert von 24 Prozent erzielen. „Um solch hohe Effizienz zu erreichen, mussten innerhalb der Solarzelle die Verluste an den Grenzflächen zwischen den Materialien minimiert werden“, erklärt Dr. Selina Olthof vom Institut für Physikalische Chemie der Uni Köln. „Hierzu entwickelten die Wuppertaler Forscher einen sogenannten Interconnect, der die organische Subzelle mit der Perowskitzelle elektrisch und optisch verbindet.“

Um Verluste so gering wie möglich zu halten, wurde als Interconnect eine nur 1,5 Nanometer dünne Schicht aus Indiumoxid in die Solarzelle integriert. Die Forscher:innen aus Köln trugen hier maßgeblich dazu bei, die Grenzflächen sowie den Interconnect elektrisch und energetisch zu untersuchen, um Verlustprozesse zu identifizieren und eine weitere Optimierung der Bauteile zu ermöglichen. Simulationen der Wuppertaler Arbeitsgruppe zeigen, dass mit diesem Ansatz in Zukunft Tandemzellen mit einem Wirkungsgrad jenseits der 30 Prozent erreichbar sind.

Wissenschaftliche Ansprechpartner:
Dr. Selina Olthof
Institut für Physikalische Chemie
selina.olthof@uni-koeln.de

Originalpublikation:
„Perovskite/organic tandem solar cells with indium oxide interconnect“, Nature, https://www.nature.com/articles/s41586-022-04455-0

(nach oben)


Mikroplastik – Erforschen und Aufklären

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Zwischen 18 und 21 Millionen Tonnen Plastikmüll gelangen jährlich in die Gewässer dieser Welt. Die Tendenz: steigend. Um der Herausforderung zu begegnen, ist es nötig, ein breites gesellschaftliches Bewusstsein für die Verschmutzung der Umwelt mit Plastikabfall und dem daraus resultierenden Mikroplastik zu schaffen. Deshalb hat das Helmholtz-Zentrum Hereon nun eine digitale englischsprachige Informationsplattform zur Plastikverschmutzung entwickelt.

Unter Federführung des Instituts für Umweltchemie des Küstenraumes wollen Forschende verschiedener Disziplinen am Helmholtz-Zentrum Hereon dazu beitragen, das öffentliche Bewusstsein für die Plastik- und Mikroplastikkrise zu stärken. Zusätzlich konnten anerkannte Spezialistinnen und Spezialisten aus anderen Zentren der Helmholtz-Gemeinschaft und Universitäten für weitere Beiträge zu ausgewählten Themen gewonnen werden.

Daher wurde kürzlich das sogenannte „Microplastic Compendium“ online veröffentlicht. Die digitale Anwendung in englischer Sprache ist eine Informationsplattform rund um das Thema Plastik- und Mikroplastikverschmutzung sowie deren Gefahren, Verbreitung und zugrundeliegende wissenschaftliche Untersuchungen. Das Kompendium, kurz MPC, ist für eine breite Leserschaft angelegt und enthält komprimierte Informationen zu vielen wissenschaftlichen Studien aus dem Bereich Mikroplastik. Etwa auch zu Themen wie Trinkwasser, Lebensmitteln, Transportpfaden, verschiedenen Ökosystemen, politischen Initiativen, Forschungsprojekten, aber auch Lösungsansätze und verwandte Themen wie Reifenabrieb werden diskutiert.

Das MPC ist Teil der Coastal Pollution Toolbox, einer zentralen Anlaufstelle für Forschende und alle, die an der Bewältigung von Verschmutzung in Küstengebieten und der marinen Umwelt beteiligt sind. Ganz egal, ob die Verschmutzung organischer oder anorganischer, traditioneller oder neuartiger Natur ist oder durch die Dynamik von Nährstoffen und Kohlenstoff beeinflusst wird. Ziel ist, eine dynamisch-lebendige Plattform zu erschaffen, die aktuelle Erkenntnisse integriert und auf hieraus abgeleitete Anforderungen reagiert. Das MPC wird künftig ausgebaut und um Beiträge zu anderen Schwerpunktbereichen globaler Umweltveränderungen erweitert: „Wir laden Wissenschaftlerinnen und Wissenschaftler unseres wachsenden Partnernetzwerkes unterschiedlicher Fachbereiche der Schadstoffforschung ein, Beiträge aus ihren Arbeiten zu unserem Kompendium beizutragen“, sagt Dr. Marcus Lange, Koordinator vom Hereon-Institut für Umweltchemie des Küstenraumes. Das MPC ist damit ein Meilenstein für die betreffende Forschung und die Information darüber.

Hintergrund
Einmal in die marine Umwelt eingetragen, kann Plastikmüll viele Jahre in unseren Gewässern verbleiben. Der World Wide Fund For Nature (WWF) vermutet, dass Meereslebewesen in erheblichem Maße durch Plastikmüll beeinträchtigt sein können. Nach Schätzungen kanadischer Wissenschaftlerinnen und Wissenschaftler nehmen Menschen jährlich zwischen 74.000 und 121.000 Mikroplastikpartikel und –fasern im Größenbereich von 0.001 – 5 Millimeter über die Nahrung und die Atemluft auf. Wegen dieser erschreckenden Zahlen sprechen Umweltschützerinnen und Umweltschützer auch von einer „Plastikkrise“. Dabei geht eine erhöhte Gefahr von Mikroplastik aus, da es wegen seiner Größe leicht von Organismen aufgenommen werden kann.

Die weltweiten Ströme von Mikroplastik kennen dabei keine Ländergrenzen. Flüsse funktionieren als Transportwege. Experten gehen davon aus, dass ein großer Teil des Plastikmülls durch unkontrollierte und zum Teil auch illegale Entsorgung oder Wetterereignisse vom Land in die Meere gelangen. Daher kann die Plastikkrise nur durch globales Handeln bekämpft werden. Eine Vielzahl von Initiativen auf nationaler wie internationaler Ebene kümmern sich bereits um diese Problematik. Erst jüngst erteilte die fünfte Umweltversammlung der Vereinten Nationen (UNEA) in Nairobi das Mandat zur Verhandlung für ein globales Plastikabkommen. Es sieht vor, alle Bereiche der Umwelt entlang des gesamten Lebenszyklus von Plastik – von der Produktion über den Konsum bis zur Entsorgung – zu betrachten und verbindlich zu regulieren.

Kleinsten Plastikpartikeln auf der Spur
Am Helmholtz-Zentrum Hereon wird sowohl zur Existenz von Mikroplastik in der Umwelt als auch den Wechselwirkungen zwischen Mikroplastik und Co-Schadstoffen umfangreich geforscht. Prof. Ralf Ebinghaus, Leiter des Instituts für Umweltchemie des Küstenraumes am Helmholtz-Zentrum Hereon, sagt hierzu: „Mikroplastik-Partikel enthalten je nach Art, Größe und Verweildauer in der Umwelt einen vielfältigen Mix an Chemikalien. Darunter sind solche, die bei der Herstellung absichtlich zugesetzt worden sind und andere, die sich am Partikel später anreichern. In beiden Fällen können es auch für den Menschen gesundheitsschädigende Stoffe sein, die wie mit einem trojanischen Pferd in den menschlichen Organismus gelangen. Ich halte es für zentral, dass solchen Risiken in einem globalen Plastikabkommen oder im Rahmen der Einrichtung eines wissenschaftspolitischen Gremiums zu Chemikalien und Mikroplastik Rechnung getragen wird.“

Wissenschaftliche Ansprechpartner:
Prof. Ralf Ebinghaus I Helmholtz-Zentrum Hereon I Institut für Umweltchemie des Küstenraumes I T: +49 (0) 4152 87-2354 I ralf.ebinghaus@hereon.de I www.hereon.de

Dr. Lars Hildebrandt I Helmholtz-Zentrum Hereon I Institut für Umweltchemie des Küstenraumes I T: +49 (0) 4152 87-1813 I lars.hildebrandt@hereon.de I www.hereon.de

Weitere Informationen:
https://www.microplastic-compendium.eu

(nach oben)


Was machen Vulkane mit unserem Klima?

Jan Meßerschmidt Hochschulkommunikation
Universität Greifswald
Das Forschungsprojekt VolImpact zu den Einflüssen von Vulkanaktivitäten auf Atmosphäre und Klima geht in eine weitere Runde. Der Hauptausschuss der Deutschen Forschungsgemeinschaft (DFG) hat im März 2022 die zweite Förderphase der Forschungsgruppe FOR 2820 „Revisiting the volcanic impact on atmosphere and climate – preparations for the next big volcanic eruption“ (VolImpact) bewilligt. In dem Verbundprojekt arbeiten Wissenschaftler*innen der Universitäten Bremen, Greifswald, Hamburg und Leipzig sowie dem Karlsruher Institut für Technologie (KIT) und dem Max-Planck-Institut für Meteorologie in Hamburg zusammen. Insgesamt stehen für die zweite Phase 3,2 Millionen Euro zur Verfügung.

Vulkanausbrüche sind eine der wichtigsten Ursachen für natürliche Klimavariationen auf Zeitskalen von einigen Jahren bis zu einem Jahrzehnt. Obwohl sich die Forschung bereits seit Jahrzehnten mit vulkanischen Einflüssen auf die Atmosphäre befasst, sind viele grundlegende Prozesse nicht oder nur unzureichend verstanden. Die fünf wissenschaftlichen Teilprojekte der Forschungsgruppe befassen sich beispielsweise mit der Ausbildung der initialen Vulkanwolke in den ersten Stunden und Tagen, dem Einfluss von Vulkanausbrüchen auf die Strahlungsbilanz der Atmosphäre, der Wechselwirkung zwischen vulkanischen Aerosolen und troposphärischen Wolken oder dem Einfluss auf die Winde in der mittleren und oberen Atmosphäre, über den nur wenig bekannt ist.

Ein zentraler Aspekt der Forschungsgruppe ist die Synergie aus globalen Satellitenmessungen relevanter atmosphärischer Parameter und der globalen Modellierung vulkanischer Effekte mithilfe von Atmosphären- und Klimamodellen. Die Verwendung von Satellitenmessungen basiert in weiten Teilen auf numerischen Analyseverfahren, die im Rahmen der Projekte entwickelt werden, beispielsweise um die Größe stratosphärischer vulkanischer Aerosole oder die vertikale Ausdehnung einer Vulkanwolke zu bestimmen. Die Forschungsaktivitäten sind im Wesentlichen auf Vulkaneruptionen der vergangenen vier Jahrzehnte begrenzt, für welche Satellitenmessungen verfügbar sind. Dabei sind nicht nur stärkere Vulkanausbrüche, wie der des Mount Pinatubo 1991 von Interesse. Auch die kleinen und moderaten Ausbrüche der vergangenen 20 Jahre stellen wichtige Beispiele für Fallstudien dar und erlauben es, die Qualität von Modellsimulationen zu überprüfen.
Die DFG-Forschungsgruppe VolImpact trägt dazu bei, wesentliche physikalische und chemische Prozesse von Vulkanausbrüchen auf Atmosphäre und Klima besser zu verstehen und die Modellier- und Beobachtungsmöglichkeiten für zukünftige Vulkaneruptionen zu optimieren.

Weitere Informationen
VolImpact http://volimpact.org/

Ansprechpartner an der Universität Greifswald
Prof. Dr. Christian von Savigny
Institut für Physik | Umweltphysik
Felix-Hausdorff-Straße 6, 17489 Greifswald
Telefon +49 3834 420 4720
csavigny@physik.uni-greifswald.de

(nach oben)


Hohe Erwartungen, unklarer Nutzen: Industrie 4.0 und der Wandel zu nachhaltigem Wirtschaften

Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Unternehmensvertreterinnen und -vertreter erwarten, dass die Digitalisierung zu einer besseren Umweltbilanz ihres Unternehmens beiträgt. Ihre konkreten Erfahrungen zeichnen jedoch ein weniger positives Bild: Bislang helfen die neuen Technologien kaum bei der Verbesserung der Ressourceneffizienz. Um das Potenzial der Industrie 4.0 zu nutzen, braucht es laut Forschenden auch politische Unterstützung.

Die industrielle Produktion muss grundlegend verändert werden, wenn die UN-Nachhaltigkeitsziele erreicht werden sollen. Zwei Hauptziele stehen dabei im Vordergrund: Dekarbonisierung und Dematerialisierung. Ziel der Dekarbonisierung ist die Reduktion von klimaschädlichen Gasen, vor allem CO2. Bei der Dematerialisierung geht es darum, wirtschaftliche Produkte und Dienstleistungen mit einem Minimum an Materialeinsatz zu erzeugen und so weit wie möglich auf umweltverträgliche Materialien oder Prozesse zu setzen. Ein internationales Team um IASS-Forschungsgruppenleiter Grischa Beier untersuchte die Potenziale von Industrie 4.0 für diese beiden Ziele per Online-Umfrage unter Unternehmensvertreterinnen und -vertretern in China, Brasilien und Deutschland, in einer Vielzahl von Industriesektoren und in Unternehmen unterschiedlicher Größe.

Mit größerer Erfahrung sinken die Erwartungen
Die Mehrheit der Industrievertreterinnen und -vertreter – 53 Prozent in Deutschland, 82 Prozent in Brasilien und 67 Prozent in China – erwarten eine Verbesserung der Umweltwirkung ihres Unternehmens durch den Einsatz von Industrie-4.0-Technologien. Besonders hoch ist dieser Anteil bei Unternehmen mit mehr als 5000 Mitarbeitenden in Deutschland und Brasilien.

Große Unterschiede beobachteten die Forschenden in einigen Ländern zwischen den Sektoren: In Brasilien sind die Erwartungen für den Maschinen- und Anlagenbau besonders optimistisch (100 Pro-zent), in Deutschland für den Elektronik-Sektor (75 Prozent) und den Automobilbereich (58 Prozent). In China gibt es hingegen keine großen Unterschiede zwischen den Sektoren.

Die bisherigen Erfahrungen, etwa in Bezug auf Ressourceneffizienz und Energieverbrauch, stützen die hoffnungsvollen Erwartungen jedoch nur zum Teil. „Unsere Ergebnisse deuten darauf hin, dass es eine zu hohe Erwartungshaltung bei den Unternehmen gibt, die noch wenig Erfahrung mit Industrie 4.0 haben. Je weiter das jeweilige Unternehmen mit der Umsetzung war, umso moderater waren beispielsweise die Erwartungen für die tatsächlichen Energieeinsparungen“, sagt Erstautor Grischa Beier. Auch frühere Studien hätten wenig Hinweise darauf ergeben, dass es hier zu erheblichen systematischen Einsparungen kommen würde.

Industrie 4.0 hilft, die Produktion an der Nachfrage auszurichten
Ein erfreuliches Ergebnis der Studie ist, dass Unternehmen mit einem hohen Digitalisierungsniveau durchaus positive Potenziale für ihre Ökobilanz verzeichnen: Je höher das derzeitige Industrie-4.0-Niveau der Unternehmen ist, desto größer ist ihre Fähigkeit, ihre Produktivität an der Nachfrage auszurichten. Zudem steigt ihre Bereitschaft, ihre Produktionszeiten flexibel an die Verfügbarkeit von erneuerbarem Strom anzupassen. Dies ist laut den Forschenden eine wichtige Voraussetzung für die Stabilisierung und effiziente Nutzung künftiger erneuerbarer Energiesysteme.

Ihre Schlussfolgerung ist, dass Industrie 4.0 nur mit politischer Unterstützung zu Umweltverbesserungen führen wird. „Unsere Studie zeigt, dass die Umsetzung des Konzepts Industrie 4.0 vor dem Hintergrund der UN-Nachhaltigkeitsziele kritisch hinterfragt werden sollte: Die reine Digitalisierung von Unternehmensprozessen wird für einen Übergang zu einer nachhaltigen Wirtschaft nicht reichen. Damit das volle Potenzial der Digitalisierung für die Nachhaltigkeit genutzt wird, braucht es ergänzend eine Kombination aus Regulierung und Anreizen, wozu auch die Festlegung verbindlicher Ziele für die Einsparung von Energie und Material gehört“, erklärt Grischa Beier. Auch wenn die Ergebnisse ein gemischtes Bild zeichnen, werde doch deutlich, dass die breite Umsetzung von Industrie 4.0 Chancen für mehr ökologische Nachhaltigkeit von Unternehmen bietet.

Wissenschaftliche Ansprechpartner:
Dr. Grischa Beier
Telefon: +49 331 28822 380
E-Mail: grischa.beier@iass-potsdam.de

Originalpublikation:
Beier, G., Matthess, M., Guan, T., Grudzien, D. I. d. O. P., Xue, B., Lima, E. P. d., Chen, L. (2022): Impact of Industry 4.0 on corporate environmental sustainability: Comparing practitioners’ percep-tions from China, Brazil and Germany. – Sustainable production and consumption, 31, 287-300.
https://doi.org/10.1016/j.spc.2022.02.017

(nach oben)


Mit dem Laser gegen Mikroplastik

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Bislang sind Kläranlagen kaum in der Lage, die winzigen Mikroplastikteile im Abwasser ausreichend herauszufiltern. Nun wird der erste lasergebohrte Mikroplastikfilter in einem Klärwerk getestet. Er enthält Bleche mit extrem kleinen Löchern von nur zehn Mikrometern Durchmesser. Die Technologie, um Millionen von Löchern effizient zu bohren, wurde am Fraunhofer-Institut für Lasertechnik ILT entwickelt. Dort arbeitet man jetzt an der Skalierung der Ultrakurzpuls-Lasertechnologie im kW-Bereich. Auf dem Fraunhofer-Stand A6.441 der LASER World of PHOTONICS erfahren Besucher mehr über den Mikroplastikfilter und die Ultrakurzpuls-Laser.

Nachhaltigkeit ist heute keine Option, sondern eine Pflicht für jede Technologieentwicklung. Dementsprechend werden auch in der Laserbranche viele Projekte vorangetrieben, um diese Technologie für nachhaltige Zwecke zu nutzen. Schon heute ermöglichen Laser höhere Wirkungsgrade in der Wasserstofftechnologie ebenso wie absolut dichte Batteriegehäuse in der Elektromobilität.

Im BMBF-geförderten Projekt »SimConDrill« hat sich das Fraunhofer ILT mit Industriepartnern zusammengeschlossen, um erstmals einen Abwasserfilter für Mikroplastik zu bauen. »Im Kern ging es darum, möglichst viele möglichst kleine Löcher in kürzester Zeit in eine Stahlfolie zu bohren« erklärt Andrea Lanfermann, Projektleiterin am Fraunhofer ILT, die Herausforderung.

Mobile Filteranlage im Klärwerk
Das ist gelungen. Im Rahmen des Projekts bohrten nach der Prozessentwicklung am Fraunhofer ILT die Expertinnen und Experten der LaserJob GmbH 59 Millionen Löcher mit zehn Mikrometern Durchmesser in ein Filterblech und schufen so einen Filter-Prototypen. Für das ambitionierte Projekt arbeiten die Fraunhofer-Forschenden noch mit drei weiteren Firmen zusammen. Neben dem Projektkoordinator KLASS Filter GmbH sind außerdem die LUNOVU GmbH und die OptiY GmbH beteiligt. Inzwischen wurden die lasergebohrten Metallfolien in den patentierten Zyklonfilter der KLASS Filter GmbH eingebaut und umfangreichen Tests unterzogen. Im ersten Versuch wurde mit dem feinen Pulver von 3D-Druckern verunreinigtes Wasser filtriert. Der Aufbau wird jetzt unter realen Bedingungen in einem Klärwerk getestet.

Prozesswissen ist der Schlüssel
Millionen Löcher nacheinander zu bohren, dauert seine Zeit. Schneller geht es mit dem Multistrahlverfahren, bei dem aus einem Laserstrahl über eine spezielle Optik eine Matrix von identischen Strahlen erzeugt wird. Am Fraunhofer ILT hat man so mit einem Ultrakurzpulslaser (TruMicro 5280 Femto Edition) mit 144 Strahlen gleichzeitig gebohrt. Die Basis für solche Anwendungen ist ein detailliertes Prozesswissen. Das wurde am Fraunhofer ILT über Jahrzehnte gesammelt und in entsprechende Modelle und Software umgesetzt. Damit lassen sich alle Parameter am Computer variieren, und optimale Prozessparameter werden schnell gefunden. Auch die Robustheit des Prozesses lässt sich so vor dem Applikationsversuch analysieren.

Parallel zu dieser Bohranwendung arbeitet ein Konsortium aus sechs Partnern an der Umsetzung einer industriellen Maschine zur Multistrahlbearbeitung. Im EU-Projekt »MutiFlex« erhöhen Forschende unter Industriebeteiligung die Produktivität der scannerbasierten Lasermaterialbearbeitung mittels Multistrahlverfahren. Das Besondere besteht bei diesem Vorhaben darin, dass alle Teilstrahlen individuell angesteuert und somit für die Herstellung beliebiger Oberflächenstrukturen genutzt werden können. Ziel ist es, die Geschwindigkeit des Prozesses um das Zwanzig- bis Fünfzigfache zu steigern und somit die Wirtschaftlichkeit des gesamten Verfahrens signifikant zu erhöhen.
CAPS: Skalierung in den kW-Bereich

Das Prozesswissen ist auch ein entscheidender Faktor bei der weiteren Skalierung der Materialbearbeitung mit ultrakurzen (UKP) Laserpulsen mit oder ohne Multistrahloptik. Wenn die Leistung in den Kilowattbereich erhöht wird, kann es zu einer thermischen Schädigung des Werkstücks kommen. Solche Effekte werden durch komplexe Simulationen erforscht, die Prozesse können entsprechend angepasst werden.

Die Laser für solche Versuche stehen im Applikationslabor am Fraunhofer ILT in Aachen zur Verfügung. Sie gehören zum Fraunhofer Cluster of Excellence Advanced Photon Sources CAPS, in dem 13 Fraunhofer-Institute gemeinsam Laserstrahlquellen, Prozesstechnik und Anwendungen für UKP-Laserleistungen bis 20 kW entwickeln. Ein zweites CAPS-Labor wird am Fraunhofer IOF in Jena betrieben.

Fraunhofer Know-how auf der LASER World of PHOTONICS
Auf der Photonik-Weltleitmesse LASER World of PHOTONICS in München werden neben dem lasergebohrten Mikroplastikfilter weitere Highlights des Fraunhofer Clusters ausgestellt. Vom 26. bis zum 29. April 2022 stehen Expertinnen und Experten auf den Fraunhofer-Ständen B4.239 und A6.441 für Auskünfte rund um die Ultrakurzpuls-Lasertechnologie, die Erzeugung von Sekundärstrahlung von THz bis Röntgen und die wegweisenden Anwendungen dieser Technologien zur Verfügung.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/april-2022/mit-dem-…

(nach oben)


Ein einziges Gen steuert die Artenvielfalt in einem Ökosystem

Kurt Bodenmüller Kommunikation
Universität Zürich
Ein einzelnes Gen kann ein ganzes Ökosystem beeinflussen. Das zeigt ein Forscherteam der Universität Zürich in einem Laborexperiment mit einer Pflanze und dem dazugehörigen Ökosystem von Insekten. So fördern Pflanzen mit einer Mutation in einem bestimmten Gen Ökosysteme mit mehr Insektenarten. Die Entdeckung eines solchen «Schlüsselgens» könnte die derzeitigen Strategien zur Erhaltung der biologischen Vielfalt verändern.

Vor mehr als fünfzig Jahren entdeckte der amerikanische Ökologe Robert Paine an der Küste eines felsigen Gezeitenbeckens, dass Struktur und Funktion eines Ökosystems dramatisch verändert werden können, wenn eine einzige Art entfernt wird. Paine hatte herausgefunden, dass Seesterne als Schlüsselart fungieren, da ihre Anwesenheit und ihre Rolle als Raubtier zuoberst in der Nahrungskette die Koexistenz verschiedener Arten im felsigen Ökosystem aufrechterhalten.

Pflanzen-Abwehrgene in vereinfachtem Labor-Ökosystem getestet
Nun berichtet ein Team von Ökologen und Genetikern der Universität Zürich (UZH) und der University of California in Science, dass auch eine Mutation in einem einzigen Gen die Struktur und Funktion eines Ökosystems dramatisch verändern kann. Ein Gen enthält somit nicht nur Informationen, die für die Fitness eines Organismus entscheidend sind, sondern kann auch das Fortbestehen von interagierenden Arten in einer ökologischen Gemeinschaft beeinflussen. Die Entdeckung von Jordi Bascompte, UZH-Professor am Departement für Evolutionsbiologie und Umweltwissenschaften, und seinem Team wurde anhand eines experimentellen Ökosystems im Labor mit einem Räuber (einer parasitären Wespe), zwei Pflanzenfressern (Blattläusen) und der Pflanze Arabidopsis thaliana – einem genetischen Modellorganismus – gemacht.

Schlüsselgen bewahrt Ökosystem vor Zusammenbruch
Die Wissenschaftler testeten die Wirkung von drei Pflanzengenen, die das natürliche Arsenal der chemischen Abwehrkräfte der Pflanze gegen Frassinsekten steuern. Sie fanden heraus, dass die Pflanzenfresser und Raubtiere in ihrer Versuchsgemeinschaft eher auf Pflanzen mit einer Mutation an einem einzigen Gen namens AOP2 überlebten. «Diese natürliche Mutation im AOP2-Gen beeinflusste nicht nur die Chemie der Pflanze, sondern liess sie auch schneller wachsen. Das wiederum förderte die Koexistenz von Pflanzenfressern und Raubtieren und verhinderte so den Zusammenbruch des Ökosystems», sagt UZH-Wissenschaftler und Erstautor Matt Barbour. Ähnlich wie bei einer Schlüsselart wie dem Seestern fungiert AOP2 als «Schlüsselgen», das für das Überleben des experimentellen Ökosystems unerlässlich ist.

Auswirkungen auf Schutz der biologischen Vielfalt
Die Entdeckung eines solchen Schlüsselgens dürfte Auswirkungen darauf haben, wie die biologische Vielfalt in einer sich verändernden Welt erhalten werden kann. «Insbesondere sollte das Wissen aus der Genetik und den ökologischen Netzwerken integriert werden, um die Folgen genetischer Veränderungen für den Fortbestand der biologischen Vielfalt auf verschiedenen Ebenen vorherzusagen», sagt Barbour. Einerseits könnten Individuen mit verschiedenen Varianten eines Gens oder sogar genetisch veränderte Organismen zu bestehenden Populationen hinzugefügt werden, um vielfältigere und widerstandsfähigere Ökosysteme zu fördern. Andererseits könnte eine scheinbar kleine genetische Veränderung eine Kaskade unbeabsichtigter Folgen für die Ökosysteme auslösen, wenn diese nicht vorher eingehend untersucht werden.

«Wir fangen gerade erst an zu verstehen, welche Folgen genetische Veränderungen für das Zusammenspiel und die Koexistenz von Arten haben. Unsere Ergebnisse zeigen, dass der derzeitige Verlust der genetischen Vielfalt kaskadenartige Auswirkungen haben kann, die zu abrupten und katastrophalen Veränderungen im Fortbestand und in der Funktionsweise von Land-Ökosystemem führen können», so Barbour.

Wissenschaftliche Ansprechpartner:
Dr. Matt Barbour
Institut für Evolutionsbiologie und Umweltwissenschaften
Universität Zürich
Tel. +41 78 696 34 74
E-Mail: matthew.barbour@ieu.uzh.ch

Prof. Dr. Jordi Bascompte
Institut für Evolutionsbiologie und Umweltwissenschaften
Universität Zürich
Tel. +41 44 635 61 26
E-Mail: jordi.bascompte@ieu.uzh.ch

Originalpublikation:
Matthew A. Barbour, Daniel J. Kliebenstein, Jordi Bascompte. A keystone gene underlies the persistence of an experimental food web. Science. March 31, 2022. DOI: 10.1126/science.abf2232

Weitere Informationen:
https://www.media.uzh.ch/de/medienmitteilungen/2022/Schlüsselgen.html

(nach oben)


Studie zeigt: Fische können rechnen

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Buntbarsche und Stachelrochen können im Zahlenraum bis Fünf einfache Additionen und Subtraktionen durchführen. Das zeigt eine aktuelle Studie der Universität Bonn, die nun in der Zeitschrift Scientific Reports erschienen ist. Wozu die Tiere ihre mathematischen Fähigkeiten benötigen, ist nicht bekannt.

Mal angenommen, auf der Tischplatte vor Ihnen liegen einige Münzen. Bei einer kleinen Anzahl können Sie auf Anhieb sagen, wieviele es genau sind. Sie müssen sie dazu nicht einmal zählen – ein einziger Blick reicht Ihnen. Buntbarsche und Stachelrochen sind uns in diesem Punkt erstaunlich ähnlich: Auch sie sind dazu in der Lage, kleine Mengen exakt zu erfassen – und zwar vermutlich ebenfalls ohne zu zählen. Sie lassen sich zum Beispiel so trainieren, dass sie zuverlässig Dreier- von Vierermengen unterscheiden.

Diese Tatsache ist schon seit einiger Zeit bekannt. Die Arbeitsgruppe um Prof. Dr. Vera Schlüssel vom Institut für Zoologie der Universität Bonn hat nun aber gezeigt, dass beide Arten sogar rechnen können. „Wir haben den Tieren beigebracht, einfache Additionen und Subtraktionen durchzuführen“, erklärt Schlüssel. „Dabei mussten sie einen Ausgangswert um eins erhöhen oder vermindern.“

Blau heißt „addiere eins“, gelb „ziehe eins ab“
Doch wie fragt man einen Buntbarsch nach dem Ergebnis von „2+1“ oder „5-1“? Die Forschenden nutzten dazu eine Methode, mit der andere Arbeitsgruppen bereits erfolgreich die mathematischen Fähigkeiten von Bienen getestet hatten: Sie zeigten den Fischen eine Ansammlung geometrischer Formen – zum Beispiel vier Quadrate. Waren diese Objekte blau gefärbt, bedeutete das „addiere eins“. Gelb hieß dagegen „subtrahiere eins“.

Danach wurde die Aufgabe ausgeblendet. Stattdessen bekamen die Tiere zwei neue Abbildungen zu sehen – eine mit fünf und eine mit drei Quadraten. Schwammen sie zu dem richtigen Bild (also bei der „blauen“ Rechenaufgabe zu den fünf Quadraten), wurden sie mit Futter belohnt. Bei der falschen Antwort gingen sie leer aus. Mit der Zeit lernten sie so, die blaue Farbe mit der Erhöhung der anfangs gezeigten Menge um eins zu assoziieren, die gelbe Zahl dagegen mit ihrer Verminderung.

Doch konnten die Fische diese Erkenntnis auch auf neue Aufgaben anwenden? Hatten sie also tatsächlich die mathematische Regel hinter den Farben verinnerlicht? „Um das zu überprüfen, hatten wir beim Training einige Berechnungen absichtlich ausgelassen“, erklärt Schlüssel. „Und zwar 3+1 und 3-1. Nach der Lernphase bekamen die Tiere diese beiden Aufgaben zum ersten Mal zu sehen. Und auch in diesen Fällen schwammen sie meistens zu den korrekten Ergebnissen.“ Das galt sogar dann, wenn sie sich nach der Aufgabe „3+1“ zwischen vier und fünf Objekten entscheiden mussten – also zwei Resultaten, die beide größer waren als der Ausgangswert.

Rechnen ohne Großhirnrinde
Diese Leistung hat die Forschenden selbst überrascht – zumal die gestellten Aufgaben in der Realität sogar noch ein Stück schwieriger waren als eben geschildert. So bekamen die Fische nicht Objekte derselben Form gezeigt (also etwa vier Quadrate), sondern eine Kombination unterschiedlicher Formen. Eine „Vier“ konnte zum Beispiel durch einen kleinen und einen größeren Kreis, ein Quadrat und ein Dreieck repräsentiert werden, in einer anderen Berechnung dagegen durch drei unterschiedlich große Dreiecke und ein Quadrat.

„Die Tiere mussten also die Menge der abgebildeten Objekte erkennen und zugleich aus ihrer Farbe auf die Rechenvorschrift schließen“, sagt Schlüssel. „Sie mussten beides im Arbeitsgedächtnis behalten, als das ursprüngliche Bild gegen die beiden Ergebnisbilder ausgetauscht wurde. Und sie mussten sich danach für das richtige Resultat entscheiden. Insgesamt ist das eine Leistung, die komplexe Denkfähigkeiten erfordert.“

Das ist auch deshalb erstaunlich, weil Fische keinen Neocortex besitzen – den Teil des Gehirns, der auch als „Großhirnrinde“ bekannt ist und bei uns für die meisten komplexen kognitiven Aufgaben zuständig ist. Zudem ist von beiden Fischarten nicht bekannt, dass sie in ihrer ökologischen Nische ein besonders gutes Zahlenverständnis benötigen würden. Andere Arten mögen auf die Streifenzahl ihrer Sexualpartner achten oder die Menge der Eier in ihrem Gelege. „Von Stachelrochen und Buntbarsche kennt man das jedoch nicht“, betont die Zoologie-Professorin der Universität Bonn.

Sie sieht in dem Ergebnis der Experimente auch eine Bestätigung dafür, dass wir Menschen dazu neigen, andere Spezies zu unterschätzen – insbesondere solche, die nicht zu unserer engeren Verwandtschaft zählen. Fische sind zudem nicht besonders niedlich und haben auch kein kuschliges Fell oder Gefieder. „Entsprechend weit unten stehen sie in unserer Gunst – und entsprechend wenig scheren wir uns darum, wenn sie etwa im industriellen Fischfang qualvoll verenden“, sagt Vera Schlüssel.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Vera Schlüssel
Institut für Zoologie der Universität Bonn
Tel. +49 228 735476
E-Mail: vschlu@uni-bonn.de

Originalpublikation:
V. Schluessel, N. Kreuter, I. M. Gosemann & E. Schmidt: Cichlids and stingrays can add and subtract ‘one’ in the number space from one to five; Scientific Reports; https://doi.org/10.1038/s41598-022-07552-2

(nach oben)


Einfluss von Handystrahlung auf die Nahrungsaufnahme nachgewiesen

Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
Wissenschaftlerinnen der Universität zu Lübeck decken Einfluss von Handystrahlung auf Gehirnstoffwechsel und Nahrungsaufnahme auf

Handys sind aus der heutigen Zeit nicht mehr wegzudenken. Insbesondere bei Kindern und Jugendlichen kann die vermehrte Nutzung des beliebten Kommunikations- und Spielgerätes auf mehreren Ebenen problematisch sein. Die von Handys ausgesandte Strahlung wird zu großen Teilen vom Kopf absorbiert und kann dadurch u.a. Auswirkungen auf Stoffwechsel und Verarbeitungsprozesse im Gehirn haben. Ob es einen direkten Zusammenhang zwischen Handystrahlung und Nahrungsaufnahme geben könnte, hat Frau Prof. Dr. Kerstin Oltmanns, Leitern der Sektion für Psychoneurobiologie der Universität zu Lübeck, mit ihrem Forschungsteam in einer Studie untersucht.

Aus früheren Studien war bereits bekannt, dass elektromagnetische Strahlung bei Ratten zu einer erhöhten Nahrungsaufnahme führt. Ob ein solcher Zusammenhang möglicherweise auch für Handystrahlung beim Menschen besteht, untersuchte Prof. Kerstin Oltmanns zusammen mit Diplompsychologin Ewelina Wardzinski, Leiterin der Studie, im Rahmen einer DFG-geförderten Beobachtungsstudie, die in der Fachzeitschrift Nutrients veröffentlicht wurde.

Durchdachtes Versuchsdesign
15 junge Männer wurden mit einem Abstand von zwei Wochen insgesamt dreimal einbestellt. Im Experiment wurden die Probanden dann mit zwei verschiedenen Handys als Strahlungsquelle bestrahlt bzw. einer Scheinbestrahlung als Kontrolle ausgesetzt. Im Anschluss durften sich die Probanden für eine definierte Zeit an einem Buffet bedienen. Gemessen wurde die spontane Nahrungsaufnahme, der Energiestoffwechsel des Gehirns anhand von Phosphor-Magnetresonanz-Spektroskopie (MRS) sowie verschiedene Blutwerte vor und nach Bestrahlung.

Erstaunliches Ergebnis
Das Forschungsteam kam zu überraschend deutlichen Ergebnissen: Die Strahlung führte bei fast allen Probanden zu einer Erhöhung der Gesamtkalorienzufuhr um 22 Prozent bzw. 27 Prozent durch die jeweiligen Versuchshandys. Die Blutanalysen zeigten, dass dies vor allem durch eine vermehrte Kohlenhydrat-Aufnahme verursacht wurde. Die MRS-Messungen ergaben eine Steigerung des Energieumsatzes im Gehirn unter Einfluss der Handystrahlung.

Neues Licht auf den Umgang mit Handys
Das Forschungsteam schließt aus diesen Ergebnissen, dass Handystrahlen nicht nur einen potenziellen Faktor für übermäßiges Essen beim Menschen darstellen, sondern dass sie auch die Energiehomöostase des Gehirns beeinflussen. Diese Erkenntnisse könnten neue Wege für die Adipositas- und andere neurobiologische Forschung eröffnen. Insbesondere in Bezug auf Kinder und Jugendliche wird der hier nachgewiesene Einfluss von Handystrahlung auf das Gehirn und das Essverhalten die Forschung auf diesem Gebiet zukünftig mehr in den Fokus rücken.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Dipl.-Päd. Kerstin M. Oltmanns
Universität zu Lübeck
Sektion für Psychoneurobiologie
Email: oltmanns@pnb.uni-luebeck.de

Originalpublikation:
Wardzinski EK, Jauch-Chara K, Haars S, Melchert UH, Scholand-Engler HG, Oltmanns KM, (2022): Mobile Phone Radiation Deflects Brain Energy Homeostasis and Prompts Human Food Ingestion. Nutrients 14, 339
https://www.mdpi.com/2072-6643/14/2/339

Weitere Informationen:
https://www.uni-luebeck.de/aktuelles/pressemitteilung/artikel/einfluss-von-handy…

(nach oben)


Detektion von Wasserstoff durch Glasfasersensoren

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Wasserstoff spielt in der deutschen Energie- und Klimapolitik eine zentrale Rolle. Kommt er zum Einsatz, sind Sicherheitsmaßnahmen von entscheidender Bedeutung. Denn im Unterschied zu anderen gasförmigen oder flüssigen Energieträgern besteht bei Wasserstoff neben einer erhöhten Brandgefahr durch Leckagen unter bestimmten Bedingungen auch Explosionsgefahr. Um die Sicherheit im Umgang mit Wasserstoff noch weiter zu erhöhen, arbeiten Forschende am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI an Glasfaser-basierten Sensoren zu dessen Detektion, die herkömmlichen Sensoren in vielerlei Hinsicht überlegen sind.

Um die gesetzten Klimaziele zu erreichen und die globale Erwärmung einzudämmen, müssen alle Staaten den Anteil an fossilen Energieträgern schnellstmöglich auf ein Minimum reduzieren. Als nachhaltige Alternative wird verstärkt auf Wasserstofftechnologien gesetzt – vor allem im Produktions- und Mobilitätssektor. Überall wo mit Wasserstoff gearbeitet wird, er gelagert, transportiert und weitergeleitet wird, dürfen entsprechende Sicherheitsvorkehrungen nicht fehlen. Denn obwohl Wasserstoff nicht giftig ist, er weniger wiegt als Luft und somit nach oben steigt, kann es zu gefährlichen Situationen kommen: Überschreitet nämlich die Wasserstoffkonzentration in der Luft einen Schwellenwert von vier Prozent, was bei ausreichend Druck in einem Wasserstofftank oder bei mangelnder Belüftung eines Raumes schnell erreicht werden kann, genügt eine kleine Zündquelle, ein einzelner Funken, um eine Explosion auszulösen.

Klein, gut integrierbar und ohne immanentes Sicherheitsrisiko
Dies gilt es vorausschauend zu verhindern und Dr. Günter Flachenecker, Senior Scientist am Fraunhofer HHI, weiß, wie. An der Außenstelle Abteilung Faseroptische Sensorsysteme des Fraunhofer HHI in Goslar forscht der promovierte Physiker zusammen mit seinem Team an Möglichkeiten zur Wasserstoffdetektion mithilfe von Sensoren aus Glasfasern: »Herkömmliche Sicherheitssensoren, die zur Erfassung von Wasserstoff derzeit kommerziell verfügbar sind – das sind in der Regel katalytische Wärmetönungssensoren oder elektrochemische Zellen –, benötigen eine elektrische Stromversorgung. Beide Varianten könnten so, wenn das Gerät oder die elektrischen Zuleitungen einen Defekt aufweisen, im schlimmsten Fall selbst als Zündquelle die Explosion auslösen, die sie eigentlich verhindern sollten«, erklärt Flachenecker. »Bei unseren Glasfasersensoren besteht diese Gefahr nicht. Gleichzeitig müssen sie nicht aufwändig verkabelt werden, sind klein und lassen sich gut in verschiedenste Strukturen der zu überwachenden Anlage oder des Fahrzeugs integrieren.«

Lichtleitende Glasfasern sind aufgrund ihres geringen Durchmessers von etwa einem Viertel Millimeter und ihrer Robustheit geradezu prädestiniert für sensorische Applikationen in einer sicherheitsrelevanten Umgebung. Damit eine Glasfaser zum Wasserstoffsensor wird, muss sie an verschiedenen Stellen modifiziert werden. Hierfür werden zunächst mit einem Laser bestimmte Strukturen in den Glasfaserkern eingeprägt, sodass ein sogenanntes Faser-Bragg-Gitter entsteht – eine periodische Brechungsindexmodulation, die dafür sorgt, dass Licht bei einer bestimmten Wellenlänge reflektiert wird.

Dass die Glasfaser nun speziell auf Wasserstoff reagiert, wird erreicht, indem rund um den Glasfasermantel eine spezifische funktionelle Beschichtung aufgetragen wird: »Wir arbeiten mit katalytischen Schichten, zum Beispiel Palladium oder Palladiumlegierungen«, so Flachenecker. »Palladium hat die Eigenschaft, dass es Wasserstoff aufsaugt, ähnlich wie ein Schwamm. Sobald die beiden Stoffe aufeinandertreffen, zerfällt der Wasserstoff in seine atomaren Fragmente und die freigesetzten Wasserstoffatome dringen in das Kristallgerüst des Palladiums ein. Dies führt zu einer Dehnung in der Glasfaser, die sich über das eingebaute Faser-Bragg-Gitter augenblicklich als Veränderung in den rückgemeldeten Lichtimpulsen messen lässt. Sobald die Wasserstoffkonzentration in der Luft dann wieder abnimmt, löst sich der Wasserstoff auch wieder aus dem Palladium.« Die Beschichtung trägt dadurch also keinen Schaden davon und der Sensor kann wiederverwendet werden. Gleichzeitig funktioniere der beschriebene Vorgang nur, weil Wasserstoffatome sehr klein sind, betont Flachenecker. Andere Stoffe können auf diesem Wege nicht in die Palladiumschicht eindringen.

Potenzial in vielen verschiedenen Anwendungskontexten
Doch das ist nicht die einzige Methode, die von den Forschenden getestet wurde. So ist eine Wasserstoffdetektion auch mit Glasfasern möglich, deren Mantel weggeätzt wurde, oder mit einer sehr dünnen Schicht aus Nanopartikeln, die auf den Glasfasermantel aufgetragen werden. »Das ist eine große Spielwiese und es gibt einiges, was wir noch ausprobieren wollen«, sagt Flachenecker. »Entscheidend ist es für uns, Möglichkeiten zur Wasserstoffdetektion zu finden, die schnell genug sind, um Unfälle zu verhindern, und die zuverlässig im benötigten Empfindlichkeitsbereich reagieren. Und da sind wir aktuell auf einem sehr guten Weg.«

In der Praxis könnten die neuen Glasfasersensoren zum Beispiel integraler Bestanteil von Fahrzeugen mit Wasserstoffantrieb werden und zur Überwachung von Wasserstofftankstellen, Autowerkstätten oder Elektrolyseuren eingesetzt werden. Auch der Aufbau eines größeren Sensornetzwerks, das eine Wasserstoff-Infrastruktur an vielen Stellen gleichzeitig überwacht, ließe sich leicht umsetzen. Die Elektronik für die Messdatenaufnahme, also zum Beispiel ein Spektrometer für die optische Auswertung der Glasfasersensoren, kann räumlich beliebig weit entfernt an einem sicheren Ort installiert sein. Wird eine bestimmte Wasserstoffkonzentration überschritten und der Sensor schlägt an, so wird das je nach konkretem Anwendungsfall angebundene Alarmmanagement ausgelöst und spezifische Maßnahmen, zum Beispiel ein akustisches Warnsignal, das Schließen von Ventilen oder das Öffnen von Fenstern können in Sekundenschnelle eingeleitet werden.

Das derzeitige Forschungsprojekt unter der Leitung von Günter Flachenecker wird vom Bundesministerium für Wirtschaft und Klimaschutz gefördert und findet in Kooperation mit einem lokalen Brandschutzunternehmen statt. Es startete vor zwei Jahren und endet nach einem derzeit noch nicht abgeschlossenen Praxistest, bei dem die Glasfasersensoren in LKWs eingebaut werden, im Sommer. Anschließend ist ein Folgeprojekt geplant, in dem die neuen Sensoren noch ausführlicher getestet und weitere vorbereitende Schritte in Richtung Zertifizierung und Kommerzialisierung unternommen werden sollen. Das Ziel ist klar: Ein noch sichereres und unfallfreies Arbeiten mit Wasserstoff.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/april-2022/detektio…

(nach oben)


H2Wood – BlackForest: Biowasserstoff aus Holz | BMBF fördert Vorhaben zur Einsparung von CO2 mit 12 Millionen Euro

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Eine klimaneutrale Kreislaufwirtschaft auf der Basis von Holz ist das Ziel des Verbundprojekts »H2Wood – BlackForest«, das vom BMBF mit 12 Millionen Euro gefördert wird. Hierfür entwickelt das Fraunhofer IGB ein biotechnologisches Verfahren, um aus Holzabfällen Wasserstoff und biobasierte Koppelprodukte herzustellen. Beim Projektpartner Campus Schwarzwald in Freudenstadt wird das Verfahren in einer eigens dafür ausgelegten Anlage demonstriert. Um aufzuzeigen, wie der regenerative Energieträger durch lokale Betriebe und Energieversorger genutzt werden kann, erstellen Fraunhofer IPA und die Universität Stuttgart im Projekt eine Wasserstoff-Roadmap für die Schwarzwaldregion.

Holz ist das wichtigste Wirtschaftsgut des Schwarzwalds. Bei der Verarbeitung zu Möbeln und Baustoffen, aber auch beim Abbruch von Gebäuden fallen regional beachtliche Mengen an Holzabfällen an. Diese werden derzeit zum Teil kostenintensiv entsorgt und in Holzverbrennungsanlagen allenfalls energetisch genutzt.

Auf der anderen Seite gilt »grüner« Wasserstoff (H2), der mittels Elektrolyse von Wasser mit erneuerbaren Energien hergestellt wird, als Schlüsselelement der Energiewende. Der Bedarf an regenerativ erzeugtem Wasserstoff für eine klimafreundliche Wirtschaft in Industrie, Verkehr und Wärmeversorgung ist enorm. Deutschland und Europa setzen daher vor allem auf Wasserstoffimporte aus südlichen Ländern mit ganzjährig ausreichender Sonneneinstrahlung.

Seit August 2021 schlägt die Region Schwarzwald einen neuen Weg ein, der die Nutzung regionaler Holzabfälle mit der Herstellung von regenerativem Wasserstoff verbindet. »Nach dem Ansatz der Bioökonomie wollen wir mithilfe biotechnologischer Prozesse klimaneutralen Biowasserstoff sowie zusätzlich verwertbare Stoffe wie Carotinoide oder Proteine aus Altholz und Holzabfällen herstellen«, erläutert Dr. Ursula Schließmann vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die das Verbundvorhaben »H2Wood – BlackForest« koordiniert. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt zur Kreislaufwirtschaft regionaler Ressourcen in der Region Schwarzwald bis Mitte 2024 mit rund 12 Millionen Euro. Partner im Forschungsverbund sind neben dem Fraunhofer IGB auch das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, das Institut für industrielle Fertigung und Fabrikbetrieb IFF der Universität Stuttgart sowie das Centrum für Digitalisierung, Führung und Nachhaltigkeit Schwarzwald gGmbH (Campus Schwarzwald).

Kaskadennutzung von Holz ermöglicht Klimaneutralität
»Ziel der Initiative ist es, mithilfe eines umfassenden Konzepts für eine nachhaltige und innovative Versorgung des Schwarzwalds mit Biowasserstoff CO2-Emissionen einzusparen und die Region bei der Erreichung ihrer Klimaziele zu unterstützen«, führt Stefan Bogenrieder, Geschäftsführer von Campus Schwarzwald, aus. Kohlenstoffdioxid wird dabei auf zweierlei Wegen eingespart: Zum einen ersetzt der regenerative Biowasserstoff bisherige fossile Energieträger, zum anderen werden Rest- und Altholz nicht nur Wasserstoff liefern. Durch den neuen biotechnologischen Ansatz wird die energetische Verwertung der Holzabfälle zu Wasserstoff mit einer stofflichen Nutzung verknüpft. »Das aus dem Holz freigesetzte CO2 wird in Form von kohlenstoffbasierten Koppelprodukten gebunden und damit zurück in den natürlichen Kohlenstoffkreislauf geführt«, erläutert Umweltexpertin Schließmann.

Eine Wasserstoff-Roadmap für die Region Schwarzwald
Welche Mengen an Rest- und Altholz fallen im holzverarbeitenden Gewerbe und den Kommunen überhaupt an, wieviel Wasserstoff ließe sich daraus erzeugen und wie groß wäre das Einsparpotenzial an CO2-Emissionen? Diesen Fragen geht das Projektteam in Potenzialanalysen auf den Grund. Zugleich untersuchen die Partner, wie der erzeugte Wasserstoff am besten gespeichert, transportiert und genutzt werden kann. Denn Wasserstoff ist nicht nur flexibler Energiespeicher, sondern auch als Kraftstoff für Fahrzeuge, Brennstoff für Hochöfen und Brennstoffzellen sowie als Grundstoff für zahlreiche industrielle Prozesse und chemische Folgeprodukte einsetzbar.

»Hierzu analysieren und bewerten wir den Energieverbrauch der Industrie, der Haushalte sowie des Nah- und Fernverkehrs und leiten daraus Potenziale einer dezentralen Wasserstofferzeugung und -nutzung innerhalb der Region Schwarzwald ab«, sagt Dr. Erwin Groß vom Fraunhofer IPA. »Die Ergebnisse aller Erhebungen und Berechnungen fassen wir in einer Wasserstoff-Roadmap für die Region Schwarzwald zusammen«, so Groß.

Verfahren und Demonstrationsanlage zur Produktion von Biowasserstoff
Bislang existiert keine Anlage, die Biowasserstoff in größerem Maßstab herstellt. Am Fraunhofer IGB werden daher die dazu notwendigen Prozesse entwickelt und experimentell untersucht, bevor sie in einer integrierten Anlage am Campus Schwarzwald in Freudenstadt umgesetzt werden können. Der erste Schritt und Voraussetzung für die biotechnologische Umwandlung ist die Vorbehandlung des Alt- und Restholzes.

»Wir stehen hier vor einer ziemlichen Herausforderung, denn Holzabfälle aus Hausabbruch, Möbelbau und Baustoffproduktion, darunter Span- oder MDF-Platten, enthalten Klebstoffe wie Harze und Phenole oder auch Lacke. Diese chemischen Bestandteile müssen wir zunächst entfernen, damit die Bakterien und Mikroalgen, also die Akteure der biotechnologischen Wasserstoffproduktion, ihre Arbeit erledigen können«, erläutert Schließmann. Zudem muss das Holz noch in seine Bausteine zerlegt und die hierbei gewonnene Cellulose in einzelne Zuckermoleküle gespalten werden, welche den wasserstoffproduzierenden Mikroorganismen als Futter dienen.

Für die biotechnologische Umwandlung der Holzzucker werden am Fraunhofer IGB zwei Fermentationsverfahren etabliert und miteinander verknüpft. Das eine setzt auf wasserstoffproduzierende Bakterien, welche die Zuckerarten zu CO2, organischen Säuren und Ethanol verstoffwechseln. Die Stoffwechselprodukte der Bakterien stellen die Nahrung für die Mikroalgen dar. Diese synthetisieren daraus Carotinoide oder Proteine als Koppelprodukte und setzen dabei ebenfalls Wasserstoff frei.

Zum Projekt
Das Projekt H2Wood – BlackForest wird vom 1. August 2021 bis zum 31. Juli 2024 mit einer Gesamtsumme von 12 Millionen Euro durch das Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Ideenwettbewerbs »Wasserstoffrepublik Deutschland« gefördert.

Projektpartner
Campus Schwarzwald

Der Campus Schwarzwald ist in der Region Schwarzwald der Ansprechpartner für Lehre, Forschung und Technologietransfer der Maschinenbau- und produzierenden Industrie mit Kompetenzen im Bereich der Digitalisierung, Führung und Nachhaltigkeit. Gemeinsam mit der Universität Stuttgart führt der Campus die Experteninterviews zur Datenerhe-bung der Wasserstoffkreislaufwirtschaft im Schwarzwald durch. Diese Interviews bilden die Basis für weitere Konzepte der technischen Realisierung zur Erzeugung von grünem Wasserstoff sowie deren wirtschaftlichen Verwertung. Das im Projekt H2Wood – BlackFo-rest entstehende Umsetzungskonzept sieht den Aufbau und den Verbundbetrieb der vom Fraunhofer IGB konzipierten Anlage zur Erzeugung von Biowasserstoff zentral am Campus Schwarzwald in Freudenstadt vor.

Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, Stuttgart
Das Fraunhofer IGB entwickelt Verfahren, Technologien und Produkte für Gesundheit, nachhaltige Chemie und Umwelt. Mit der Kombination biologischer und verfahrenstech-nischer Kompetenzen und dem Systemansatz der Bioökonomie trägt das Institut zu einer nachhaltigen Kreislaufwirtschaft und intakten Umwelt bei. Im Projekt ist das Institut für die Entwicklung und Realisierung der Demonstratoren zur Fraktionierung und Verzucke-rung von Holz sowie zur biotechnologischen Konversion zu Wasserstoff und CO2-basierten Koppelprodukten zuständig.

Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Stuttgart
Organisatorische und technologische Aufgaben aus der Produktion sind Forschungs-schwerpunkte des Fraunhofer IPA. Methoden, Komponenten und Geräte bis hin zu kompletten Maschinen und Anlagen werden entwickelt, erprobt und umgesetzt. Ziel der Forschung des Instituts ist die wirtschaftliche Produktion nachhaltiger und personalisierter Produkte. 16 Fachabteilungen arbeiten interdisziplinär, koordiniert durch sechs Ge-schäftsfelder, vor allem mit den Branchen Automotive, Maschinen- und Anlagenbau, Elektronik und Mikrosystemtechnik, Energie, Medizin- und Biotechnik sowie Prozessin-dustrie zusammen.

Universität Stuttgart, Institut für Industrielle Fertigung und Fabrikbetrieb IFF
Das IFF ist eng mit dem Fraunhofer IPA verbunden und arbeitet in gemeinsamen Projek-ten institutsübergreifend zusammen. Zudem lehrt und forscht das IFF u. a. im Bereich der industriellen Produktion und betrachtet hier verschiedene Energiesysteme. Hierbei spielen Produktionsstrategien sowie Wertschöpfungsnetze eine ebenso große Rolle wie neue Methoden der KI zur Flexibilisierung der Produktion und wie KI im Produktionsum-feld flächendeckend zum Einsatz kommen kann. Das Projektportfolio des IFF erstreckt sich dabei von der Erarbeitung konkreter technologischer Lösungen über Simulationen und Konzeptstudien bis zu Stakeholderprozessen und der Politikberatung.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Ursula Schließmann
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Nobelstr. 12; 70569 Stuttgart
Funktion am IGB: Koordinatorin Geschäftsfeld Umwelt
E-Mail: ursula.schliessmann@igb.fraunhofer.de
Telefon: +49 711 970-4222

Originalpublikation:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2022/h2wood-b…

Weitere Informationen:
http://Link zur Projektseite H2Wood:
https://www.igb.fraunhofer.de/de/referenzprojekte/h2wood.html

(nach oben)


Fraunhofer-Projekt ML4P optimiert Effizienz der Industrieproduktion

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Verfahren der Künstlichen Intelligenz werden bisher verstärkt in Bereichen wie der Bildanalyse oder der Spracherkennung eingesetzt. Im Bereich der industriellen Produktion sind sie noch Mangelware. Mehrere Fraunhofer-Institute haben im Leitprojekt »ML4P – Machine Learning for Production« eine Lösung entwickelt, mit der die Industrieproduktion durch maschinelles Lernen deutlich effizienter wird. Die darauf basierende Software-Suite ist sehr flexibel und auch mit älteren Maschinen kompatibel.

Das produzierende Gewerbe ist eine der tragenden Säulen der deutschen Wirtschaft. Nach Angaben des Statistischen Bundesamts gab es 2017 mehr als 700 000 produzierende Unternehmen mit etwa 7,4 Millionen Beschäftigten und einem Umsatz von über 2 Billionen Euro. Zu dieser wirtschaftlichen Stärke tragen Unternehmen aus Branchen wie Automobilbau, Elektrotechnik, Maschinenbau, Nahrungsmittelproduktion, Kunststoff oder Chemie bei. Viele dieser Unternehmen nutzen große Geräteparks und komplexe Produktionsanlagen. Moderne Maschinen, ausgestattet mit umfangreicher Sensorik, liefern immer mehr Daten. Hierdurch ist ein großes Potenzial entstanden, die Produktion durch Analyse der Daten mithilfe von Künstlicher Intelligenz (KI) und Machine Learning (ML) zu optimieren

Ein Konsortium aus mehreren Fraunhofer-Instituten will nun das bisher weitgehend ungenutzte Potenzial für die Industrie nutzbar machen. Unter Federführung des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB haben sie im vierjährigen Leitprojekt »ML4P – Machine Learning for Production« eine leistungsfähige Lösung erstellt, mit der Unternehmen ihre Produktion auf Basis von ML-Technologien optimieren können. Der ML4P-Ansatz ist eine Kombination aus einem wissenschaftlich fundierten Vorgehensmodell und darauf aufbauenden Software-Tools. Ziel ist es, die Produktion schneller, energieeffizienter und ressourcenschonender zu gestalten. Die ML-basierten Software-Tools können beispielsweise durch die Analyse der Maschinendaten versteckte Zusammenhänge entdecken und damit eine Optimierung des Fertigungsprozesses initiieren. Durch ihre Lernfähigkeit sind sie zudem in der Lage, die Produktion kontinuierlich zu verbessern. Das kommt auch der Produktqualität zugute.

Vorgehensmodell in mehreren Phasen
Die Software ist dabei nur ein Teil des ML4P-Ansatzes. Eine entscheidende Grundlage ist das so genannte Vorgehensmodell. Christian Frey, Abteilungsleiter Mess-, Regelungs- und Diagnosesysteme am Fraunhofer IOSB und ML4P-Projektleiter, erklärt: »Wir überfallen die Unternehmen nicht mit einer fertigen Software-Lösung, sondern gehen mit unserem Vorgehensmodell gemeinsam mit dem Unternehmen methodisch und schrittweise vor.« Erster Schritt ist die Analyse des Ist-Zustands des Produktionsprozesses. Auf dieser Basis identifizieren die Experten mögliche Optimierungspotenziale, legen Ziele fest und erarbeiten ein Konzept für den Einsatz von ML4P. In einem nächsten Schritt überprüfen sie, ob das Konzept auf Grundlage der vorhandenen Maschinen und Daten wirklich funktioniert und wie das zu den Unternehmenszielen passt.

»Das Vorgehensmodell ist in mehrere, aufeinander aufbauende Phasen gegliedert. Die Entscheidung, ob ein Unternehmen sich wirklich für den Einsatz von ML4P entscheidet, fällt erst dann, wenn sicher ist, dass das Konzept funktioniert, gut umsetzbar und betriebswirtschaftlich sinnvoll ist«, sagt Lars Wessels, stellvertretender ML4P-Projektleiter.

Im nächsten Schritt werden die Prozessdaten der Anlagen und Maschinen in ein umfassendes, digitales Informationsmodell überführt. Ebenso wichtig wie die Daten ist dabei das Expertenwissen. Hier bringen Ingenieurinnen und Ingenieure ihre Kenntnisse über alle Prozessschritte, die Funktion und das Zusammenspiel aller Maschinen ein. Das Expertenwissen fließt in digitaler Form in eine ML4P-Verarbeitungspipeline zum Erlernen eines Prozessmodells ein. Erst danach folgen die Implementierung und der Probebetrieb. Am Schluss stehen die Übergabe und der Start in den Produktionsalltag.

Flexible Tools und Industriestandards
Für die Implementierung einer ML-optimierten Produktion stellt die Software-Suite eine Reihe Tools zur Verfügung, darunter auch generische Tools für typische Aufgaben wie die Überwachung des Betriebsstatus einer Maschine. Diese sind kompatibel zu einer Vielzahl industrieller Kommunikationsschnittstellen wie beispielsweise OPC UA (Open Platform Communications Unified Architecture). Wo immer möglich verzichten die Fraunhofer-Forschenden auf proprietäre Softwareprotokolle und setzen auf etablierte Standards und Programmierschnittstellen.

Skalierbarkeit und Flexibilität sind weitere Stärken des Konzepts. Nach der Inbetriebnahme sind die einzelnen Module jederzeit anpassbar, lernen mithilfe der eingehenden Maschinendaten laufend dazu und können so Optimierungspotenziale aufzeigen. Neue Anlagen lassen sich problemlos integrieren, ebenso wie die meisten älteren Maschinen, auch solche, die vielleicht schon 30 oder gar 40 Jahre alt sind. »Es kommt weniger auf die Maschine an als darauf, ob sie geeignete Daten liefern kann, etwa wenn sie mit Sensorik ausgestattet ist«, sagt Wessels. Auch kleinere Betriebe können ML4P einsetzen, selbst wenn sie nur bestimmte Abschnitte einer Fertigung optimieren wollen.

»Viele Unternehmen stehen dem Einsatz von Künstlicher Intelligenz oder ML noch skeptisch gegenüber, weil sie das enorme Potenzial von maschinellem Lernen für die Produktion noch nicht erkannt haben. Aber die modular aufgebaute Fraunhofer-Plattform bietet Eigenschaften wie Transparenz, Flexibilität und Skalierbarkeit. Dadurch sinken die Einstiegshürden«, sagt Frey.

Das ML4P-Team hat das Konzept bereits in verschiedenen Anwendungsdomänen erprobt. Am Fraunhofer-Institut für Werkzeugmaschinen und Umformtechnik IWU wurden Lösungen für die Blechumformung entwickelt. Das Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF hat die Fertigung von Membranfiltern optimiert, und das Fraunhofer-Institut für Werkstoffmechanik IWM testete das Konzept bei einer Anlage zum Biegen von Glas. Viele Software-Tools wurden auf Basis dieser Praxistests bereits entwickelt.

»Wir sind sehr froh, dass das ambitionierte Projekt ML4P nach vier Jahren Arbeit erfolgreich abgeschlossen ist. Damit steht Unternehmen des produzierenden Gewerbes erstmals die Möglichkeit offen, das Optimierungspotenzial des maschinellen Lernens für die Produktion voll auszuschöpfen«, sagt Frey.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/april-2022/fraunhof…

(nach oben)


Entstehung von Smog

Maren Mielck Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Ruß als überraschende Quelle für smogbildende Hydroxylradikale

Industriedunst oder Smog bildet sich, wenn ein Cocktail von Industrieabgasen zu aggressiven, Feinstäuben oxidiert wird, die das Sonnenlicht verdunkeln. Treibende Kraft sind Hydroxylradikale – und für deren Bildung hat nun ein Forschungsteam eine neue Quelle gefunden. Der neu entdeckte Entstehungsmechanismus zeigt auch neue Perspektiven zur Luftreinigung und Energiegewinnung auf, zeigt eine in der Zeitschrift Angewandte Chemie veröffentlichte Studie.

Die Dunstglocke über Städten besteht aus rußhaltigem Feinstaub und entsteht, wenn Abgase aus Industrie, Verkehr und Landwirtschaft zu Schwebteilchen kondensieren. „Hydroxylradikale beschleunigen diese Kondensation erheblich,“ sagt Joseph S. Francisco von der University of Pennsylvania in Philadelphia (USA), einer der Hauptautoren der Studie. Als deren Quellen gelten vor allem Stickoxide und Ozon. Allerdings erklärt diese Entstehung nicht vollständig, wie sich immer wieder ein derartig massiver Feinstaubdunst formieren kann, wie er vor allem in smoggeplagten Regionen in Südostasien regelmäßig auftritt.

Die Forschungsgruppen um Joseph S. Francisco von der University of Pennsylvania (USA) und Hong He von der Chinesischen Akademie der Wissenschaften in Beijing, haben nun in einer Zusammenarbeit die chemische Aktivität von Rußteilchen genauer unter die Lupe genommen. Ruß besteht aus unverbranntem Kohlenstoff und stammt aus den Abgasen von Dieselmotoren oder wird durch Brandrodung und Waldbrände verbreitet. Bislang galten Rußteilchen eher als Senke für Hydroxylradikale.

In ihren Experimenten beobachteten Francisco und sein Team jedoch, dass Rußteilchen Hydroxylradikale abgeben, wenn unter Lichteinstrahlung wasserdampfhaltige Luft darüber geleitet wird.

Allerdings hätten die Forschenden erwartet, dass die entstandenen Hydroxylradikale die Rußoberfläche gar nicht verlassen, sondern gleich weiterreagieren. Energetische Berechnungen zeigten jedoch, dass ein Hydroxylmolekül, sobald es entstanden ist, zwar an die Kohlenstoffatome auf der Oberfläche bindet, sich aber auch schnell fortbewegt. „Das geschieht ähnlich wie beim Roaming“, erklären die Autor:innen. Demnach huschten die Teilchen über die Oberfläche und entfernen sich schließlich ganz.

Aus ihren Ergebnissen schließt das Team, dass Rußteilchen aktiv zur Dunst- und Smogbildung beitragen. Ihre Ergebnisse denken die Forschenden aber noch weiter. Da nämlich offenbar Licht ausreicht, um auf Ruß stabile Wassermoleküle zu zersetzen, könnte dieses Material vielleicht zu metallfreien Kohlenstoffkatalysatoren weiterentwickelt werden. Solche Ruß-basierten Katalysatoren könnten Stickoxide und flüchtige organischen Verbindungen (VOCs) aus der Luft entfernen helfen, oder in einer umweltfreundlichen künstlichen Photosynthese aus Lichtenergie chemische Energie erzeugen.

Angewandte Chemie: Presseinfo 06/2022
Autor/-in: Joseph S. Francisco, University of Pennsylvania (USA), https://www.chem.upenn.edu/profile/joseph-s-francisco

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202201638

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Corona macht Frauen unglücklicher als Männer

Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
Eine Studie der Universität Freiburg im Rahmen des „SKL Glücksatlas“ unter Leitung von Pro-fessor Bernd Raffelhüschen zeigt ein »Happiness Gap der Frauen«. Die Pandemie kehrt den früheren Glücksvorsprung der Frauen ins Gegenteil: Je einschneidender die Corona-Maßnahmen, desto größer die Glücksverluste.

In Sachen Glück hatten Frauen bis 65 bislang immer einen Vorsprung vor den Männern. Gemes-sen auf einer Skala von null bis zehn lagen sie in den Zeiten vor Corona um 0,04 Punkte vorn. In der Coronakrise verlieren alle Deutschen an Lebenszufriedenheit – aber Frauen deutlich mehr als Männer. Der »Happiness Gap« beträgt 0,19 Punkte. Je einschneidender die Corona-Maßnahmen, desto größer die Glücksverluste. In Lockdown-Phasen betrug der Glücksabstand zu den Männern bis zu 0,4 Punkte (Mai 2021). Die Pandemie wendet den früheren kleinen Glücksvorsprung der Frauen ins Gegenteil. Zu diesem Ergebnis kommt eine Studie des For-schungszentrums Generationenverträge an der Universität Freiburg mit Unterstützung der Süd-deutschen Klassenlotterie. Im Rahmen des „SKL Glücksatlas“ hat der wissenschaftliche Leiter Prof. Bernd Raffelhüschen vom Institut für Finanzwissenschaft und Sozialpolitik an der Albert-Ludwigs-Universität das Ausmaß der Einbußen an Lebenszufriedenheit der Geschlechter unter-sucht. Insgesamt wurden seit Januar 2020 15.200 Deutsche repräsentativ befragt, zuletzt im De-zember 2021 und Januar 2022 insgesamt 2.075 Personen vom Institut für Demoskopie Allens-bach.

Vor der Pandemie waren junge Frauen zufriedener als junge Männer, jetzt sind sie unglücklicher
„Überraschend sind die großen Glückseinbußen von jungen Frauen bis 25 Jahre“, sagt Raffelhü-schen. Diese jungen Frauen waren vor Corona nicht nur die glücklichsten Menschen der Repub-lik, sie waren auch zufriedener als gleichaltrige junge Männer, ihr Glücksvorsprung betrug 0,2 Punkte. Während der Coronakrise verloren sie 0,6 Punkte, die jungen Männer aber nur 0,3 Punkte. Corona bewirkt bei jungen Frauen einen Kipp-Effekt: Vor der Pandemie waren sie zu-friedener als die Männer, in der Pandemie sind sie eindeutig unglücklicher geworden.

Ähnlich sieht es bei Studentinnen und alleinlebenden jungen Frauen (bis 35) aus. Studentinnen verlieren in der Pandemie 0,8 Punkte, Studenten „nur“ 0,2 Punkte. Alleinlebende junge Frauen verlieren 0,9 Punkte, alleinlebende Männer im gleichen Alter „nur“ 0,6 Punkte. Als Hauptgründe ihrer Unzufriedenheit geben beide Frauengruppen Einsamkeit und Kontaktbeschränkungen an. 55 Prozent geben an, ihre wöchentlichen Treffen auf mindestens monatlich reduziert zu haben. Im Unterschied zu ihren männlichen Pendants leiden diese beiden Frauengruppen deshalb be-sonders stark unter den fehlenden sozialen Kontakten.

Vollzeitarbeitende Mütter mit Kindern verlieren am meisten an Lebensglück
Dass Mütter mit Kindern durch die Corona-Maßnahmen besonders belastet sind und sich das negativ auf ihre Glücksbilanz auswirkt, war zu erwarten. In Vollzeit erwerbstätige Mütter verlie-ren 1,0 Punkte in der Pandemie, ihre Männer »nur« 0,4. Mütter sitzen in der »Multitasking Fal-le«, denn bei ihnen schlagen sowohl das Homeschooling als auch die vermehrte Hausarbeit und hier auch das Homeoffice negativ auf die Lebenszufriedenheit zu Buche. Ihren familiären Zeit-aufwand weiten zwar Mütter und Väter aus, Frauen hatten aber schon vor Corona mehr zu tun. Kontaktreduktionen betreffen sie hingegen kaum. Bei erwerbstätigen Müttern in Teilzeit sind die Glückseinbußen schwächer. Sie verlieren 0,7 Punkte, ihre (in Vollzeit arbeitenden) Männer 0,3.

Weibliche Selbständige büßen während der Pandemie deutlich mehr an Lebenszufriedenheit ein als männliche Selbständige. Sie verlieren 0,8 Punkte, selbstständige Männer dagegen nur 0,4 Punkte. Eine wichtige Rolle für die hohe Unzufriedenheit der weiblichen Selbständigen spielen wirtschaftliche Sorgen: Die Corona-Maßnahmen trafen besonders weiblich dominierte Branchen wie körpernahe Dienstleistungen, Floristen, Kitabetreiber, Innenausstatter, Einzelhandel oder das Reinigungsgewerbe. Männlich dominierte Branchen wie das produzierende Gewerbe waren da-gegen kaum von Einschränkungen und finanziellen Einbußen betroffen.

Ein Sonderfall sind die Rentnerinnen (über 65). Sie waren schon vor Corona etwas unzufriedener (0,1 Punkte) mit ihrem Leben als gleichaltrige Rentner. In der Coronakrise hat sich dieser Abstand vergrößert. Sie sind nunmehr 0,2 Punkte unzufriedener als Rentner.

Der SKL Glücksatlas
Die Studie „Happiness Gap der Frauen in der Coronakrise“ erscheint im Rahmen des SKL Glücksatlas, der aktuellsten regelmäßigen Studie zur Lebenszufriedenheit der Deutschen. Die wissenschaftliche Leitung hat Prof. Bernd Raffelhüschen von der Universität Freiburg. Der Glücksatlas wurde bis Ende 2021 von der Deutschen Post herausgegeben. Als neuer Partner ist seit 2022 die Süddeutsche Klassenlotterie (SKL) an Bord. „Mit unserem Engagement für den Glücksatlas wollen wir die Forschung über Zufriedenheit und Wohlbefinden in Deutschland erweitern und die Ergebnisse der Glücksforschung einer breiteren Öffentlichkeit zugänglich ma-chen“, sagt Dr. Bettina Rothärmel – Vorständin der GKL Gemeinsame Klassenlotterie der Län-der AöR, Veranstalterin der SKL-Lotterien.

Mit Beginn der Partnerschaft initiiert die SKL zudem erstmals eine wissenschaftliche Glücksda-tenbank für Journalistinnen, Journalisten und Interessierte: Unter skl-gluecksatlas.de werden kontinuierlich aktuelle Daten, Analysen und Sonderstudien über die Entwicklung der Lebenszu-friedenheit in Deutschland bereitgestellt und damit einer breiten Öffentlichkeit zugänglich gemacht.

Näheres zur Vorgehensweise und Methodik findet sich in der Langfassung der Sonderstudie: https://www.skl-gluecksatlas.de/info/presse.html

Wissenschaftliche Ansprechpartner:
Max Höfer
T + 49 (0) 172 9243939
E info@skl-gluecksatlas.de

Cornelia Friedrich
T + 49 (0) 89 67903-8086
E info@skl-gluecksatlas.de

(nach oben)


Freiwillige untersuchen die Stickstoffbelastung von Gewässern

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Citizen-Science-Projekts der Universitäten Oldenburg und Osnabrück zeigt, dass Fließgewässer im Weser-Ems-Gebiet stark mit Nitrat belastet sind

Genau 8754 Gewässerproben sammelten die 800 Teilnehmerinnen und Teilnehmer eines von den Universitäten Oldenburg und Osnabrück koordinierten Bürgerwissenschaftsprojekts von September 2019 bis März 2021. An mehr als 540 Standorten in den Landkreisen Osnabrück, Vechta, Emsland und Cloppenburg sowie der Stadt Osnabrück untersuchten die Freiwilligen mit speziellen Teststäbchen Brunnenwasser, Quellenwasser, Fließgewässer, Standgewässer und Regenwasser, um anhand von Farbschattierungen einen Überblick über den Nitratgehalt zu bekommen. Ein großer Teil der beprobten Fließgewässer weist den Ergebnissen zufolge zu hohe Nitratbelastungen auf, berichtete das Projektteam heute auf einer Veranstaltung in der Katholischen Akademie Stapelfeld in Cloppenburg. Die Wissenschaftlerinnen und Wissenschaftler der Universität Osnabrück stuften drei Viertel der beprobten Fließgewässer als hoch oder sehr hoch belastet ein und bestätigten damit Ergebnisse früherer Untersuchungen. Eine interaktive Online-Karte mit Messstandorten und Messwerten findet sich auf der Webseite www.nitrat.uos.de.

„Eine hohe Nitratbelastung ist sowohl für die Gewässerökologie als auch für die menschliche Gesundheit bedenklich“, sagt Melanie Vogelpohl, Referentin für Umweltinformationsvermittlung bei der Deutschen Bundesstiftung Umwelt (DBU). „Die Problematik ist durch das hohe Engagement von Bürgerinnen und Bürger stärker ins Bewusstsein gerückt.“

Im Mittelpunkt des von der Stiftung geförderten Projekts stand der Citizen Science-Ansatz: Die Forschenden haben Bürgerinnen und Bürger an naturwissenschaftlicher Forschung beteiligt. „Die Ergebnisse zeigen, dass Freiwillige einen wichtigen Beitrag zur Forschung zum Thema Gewässerschutz leisten können“, betonte Prof. Dr. Marco Beeken von der Universität Osnabrück. Der Chemiedidaktiker hatte das Projekt gemeinsam geleitet mit Prof. Dr. Verena Pietzner – bis Ende letzten Jahres Chemiedidaktikerin an der Universität Oldenburg, heute Präsidentin der Universität Vechta. Der Ansatz, Freiwillige zu beteiligen, habe sich bewährt, betonte Pietzner: „Die hohe Zahl von 800 Teilnehmerinnen und Teilnehmern zeigt, dass in der Region ein großes Interesse an Umweltthemen besteht.“

Interessierte konnten innerhalb des Projekts nicht nur Messwerte beisteuern, sondern auch weitere Angebote wie beispielsweise Schülerlabore, eine Online-Ausstellung oder eine von der Universität Oldenburg konzipierte Stickstoffbox mit Experimenten nutzen, um Einblicke in das Thema Stickstoffbelastung zu erlangen. In einer Begleitstudie untersucht die Universität Osnabrück aktuell, inwieweit die Teilnahme an dem Citizen Science-Projekt Einstellungen und Kenntnisse zum Thema Gewässerschutz verändert.

Unter den Freiwilligen, die sich im Projekt engagierten, waren auch 200 Schülerinnen und Schüler gemeinsam mit ihren Lehrkräften. „Ohne das großartige Engagement und so viele Teilnehmerinnen und Teilnehmer hätten wir weder diese Datenmenge erheben noch das Projekt so erfolgreich durchführen können“, sagt Mientje Lüsse, von der Universität Oldenburg, Wissenschaftliche Mitarbeiterin im Projekt. Der Citizen-Science-Ansatz könne eine innovative Rolle in der wissenschaftlichen Forschung spielen und gleichzeitig Bildung vermitteln.

Die Messergebnisse zeigten eine hohe Übereinstimmung mit den Resultaten anderer Messinitiativen wie beispielsweise den Brunnenwassermessungen des Umweltvereins VSR-Gewässerschutz. Beeken zeigte sich mit der Qualität der Ergebnisse zufrieden: „Die verwendeten Teststäbchen sind zuverlässig genug, um einen Überblick über die Nitratbelastung zu gewinnen und räumliche und zeitliche Entwicklungen zu verfolgen. Um in weiteren Projekten genauere Messungen durchzuführen, entwickeln wir gerade eine Messmethode mit einem Farbsensor und Elementen aus dem 3D-Drucker.“

Anhand der Daten untersuchte das Team, welche Faktoren die Nitratbelastung beeinflussen. „Die Messungen der Bürgerinnen und Bürger zeigen, dass schmale Bäche wie der Bornbach in der Nähe von Damme besonders gefährdet sind, da bereits ein geringer Nitrateintrag zu hohen Konzentrationen führt“, erläutert Projektmitarbeiterin und Doktorandin Frauke Brockhage von der Universität Osnabrück. Stehende Gewässer wie Seen weisen der Auswertung zufolge eine geringere Belastung auf als Fließgewässer, doch auch hier zeigten sich bei einem knappen Viertel der Messstellen hohe oder sehr hohe Nitratbelastungen. Unter den beprobten Brunnen überschritt etwa ein Sechstel den gesetzlichen Grenzwert von 50 Milligramm pro Liter. Insbesondere die Zusammensetzung des Bodens spielt der Analyse zufolge bei der Belastung des Grundwassers eine große Rolle: So traten in Geestgebieten mit sandigen Böden besonders hohe Nitratkonzentrationen auf.

Die Nitratbelastung der beprobten Fließgewässer ist, so Brockhage, in städtischen und landwirtschaftlich genutzten Flächen höher als in Wäldern und naturnahen Flächen. Über die konkreten Ursachen dafür können die Forschenden anhand der Daten jedoch keine Aussagen machen. Bekannt ist, dass Düngemittel aus der Landwirtschaft eine große Quelle von Nitrat in Gewässern sind. Aber auch Industrie, Verkehr und Abwässer tragen zur Belastung bei. Hohe Nitratwerte führen zu einer Überdüngung von Gewässern mit Algenblüten und Sauerstoffmangel und erhöhen die Kosten für die Trinkwassergewinnung und -aufbereitung. In Folgeprojekten will das Team die Frage nach den Ursachen genauer untersuchen.

Das Projekt wurde durch einen Beirat begleitet, in dem unter anderem der Niedersächsische Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz (NLWKN) sowie der Kreislandvolkverband Cloppenburg vertreten waren.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marco Beeken, Universität Osnabrück, Tel.: 0541/969-3378, E-Mail: marco.beeken@uos.de

Weitere Informationen:
http://uol.de/chemie/chemiedidaktik
http://www.nitrat.uos.de

Anhang
Freiwillige bestimmten die Nitratkonzentration mit Hilfe von Teststäbchen.

(nach oben)


Zurück in den Kreislauf: Menschlicher Urin wird zu Recyclingdünger für Berliner Gemeinschaftsgärten

Ine Haesaert Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ)
„Urban Cycles“, ein Citizen Science Projekt zu nachhaltiger Düngung mit urinbasiertem Recyclingdünger in Berliner Gemeinschaftsgärten, ist als eine von 15 partizipativen Projektideen im Hochschulwettbewerb ausgezeichnet worden.
In teilnehmenden Berliner Gemeinschaftsgärten wird ein Recyclingdünger aus künstlichem Urin getestet – das Besondere daran ist, dass die Experimente von den Gärtnernden selbst durchgeführt und die Ergebnisse gemeinsam mit Forschenden ausgewertet werden. Ziel des Projekts ist es, Gärtnernden interaktiv Wissen zu nachhaltiger Düngung zu vermitteln und sie partizipativ in den wissenschaftlichen Prozess und gesellschaftspolitischen Dialog zu Recyclingdüngern einzubinden.

Der Hochschulwettbewerb wird jährlich von Wissenschaft im Dialog (WiD) im Rahmen des Wissenschaftsjahres ausgerufen. In diesem Jahr lautet das Thema „Nachgefragt“ und passend dazu wurden 15 partizipative Projektideen ausgezeichnet. Zu den diesjährigen Gewinner*innen gehört auch das Projekt „Urban Cycles: ein Citizen Science Projekt zu nachhaltiger Düngung mit urinbasierten Recyclingdüngern in Berliner Gemeinschaftsgärten“, koordiniert vom Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ) in Großbeeren.

Für die sozial-ökologische Transformation ist eine zirkuläre Betrachtung der Dünger- und Nahrungsproduktion zentral. Eine wichtige Nährstoffressource ist menschlicher Urin, der sich in einen sicheren, schadstofffreien und wirksamen Recyclingdünger umwandeln lässt. Im Projekt „Urban Cycles“ soll in Berliner Gemeinschaftsgärten ein Recyclingdünger aus künstlichem Urin getestet werden. Den teilnehmenden Gemeinschaftsgärten wird dafür kostenlos der vom Deutschen Luft- und Raumfahrtzentrum (DLR) entwickelte C.R.O.P®-Dünger (Combined Regenerative Organic Food Production) zur Verfügung gestellt. Der neue Recyclingdünger stammt aus Forschungsanlage des DLR, die aktuell noch mit künstlichem Urin betrieben werden. Die Gärtner*innen führen dann mit dem C.R.O.P®-Dünger selbst Experimente durch und dokumentieren ihre Ergebnisse. In Dialogrunden werten sie ihre Beobachtungen gemeinsam mit Forschenden aus. Ziel des Projekts ist es, Gärtner*innen interaktiv Wissen zu nachhaltiger Düngung zu vermitteln und sie partizipativ in den wissenschaftlichen Prozess und gesellschaftspolitischen Dialog zu Recyclingdüngern einzubinden. Durch offene Formate und das Prinzip “von Gärtnernden für Gärtnernde” soll das gemeinsam erarbeitete Wissen möglichst vielen weiteren Interessierten zugänglich gemacht werden.

Das „Urban Cycles“-Projektteam am IGZ ist eine Kooperation zwischen der Forschungsgruppe „Gartenbausysteme der Zukunft“ und dem Wissenschaftsmanagement. Unterstützt wird das Projekt außerdem vom DLR in Köln.
Der Hochschulwettbewerb wird jährlich von Wissenschaft im Dialog (WiD) in Kooperation mit dem Bundesverband Hochschulkommunikation und der Hochschulrektorenkonferenz ausgerufen und vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres gefördert. Im Hochschulwettbewerb 2022 – Wissenschaftsjahr „Nachgefragt!“ laden junge Forschende Bürger*innen dazu ein, sich aktiv am Forschungsprozess zu beteiligen und gemeinsam den Herausforderungen der Zukunft zu begegnen. Aus 270 Einreichungen hat die Jury nun die besten 15 Projektideen gekürt. Die Gewinnerteams erhalten jeweils 10.000 Euro, um damit bis Ende des Jahres ihre Ideen in die Praxis umzusetzen.

Für das Urban Cycles-Projektteam und die 14 andere Gewinner*innenteams geht es nun direkt weiter: Im März nehmen sie an einem Auftakt-Workshop von Wissenschaft im Dialog zum Thema Wissenschaftskommunikation teil, im Laufe des Jahres folgen weitere Schulungen und Veranstaltungen, bei denen sich die Teams auch untereinander vernetzen können.
Die Fortschritte, Erfahrungen und Ergebnisse des Projekts können über die Projektwebsite, die sozialen Medien und den Blog des Hochschulwettbewerbs verfolgt werden. Genaue Einzelheiten dazu werden in einer separaten Pressemitteilung bekannt gegeben, sobald das Projektteam die ersten Schritte unternommen hat.

Weitere Informationen:
https://www.igzev.de/aktuelles/aktuelles/neuigkeiten/ Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ) e.V.
http://www.dlr.de Deutsches Zentrum für Luft- und Raumfahrt (DLR) e.V.
http://www.wissenschaft-im-dialog.de/projekte/hochschulwettbewerb-mitforschen-er… Wissenschaft im Dialog: Hochschulwettbewerb 2022 – Die Gewinner*innen
http://www.hochschulwettbewerb.net/2022 Hochschulwettbewerb: Blog

(nach oben)


KIT: Bundesweites Pilotprojekt zum Corona-Nachweis im Abwasser

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Mehrere Tage bevor die ersten Krankheitssymptome auftreten, sind Coronaviren bereits im Abwasser nachweisbar. Dies bietet die Möglichkeit, die Fallzahlen schneller erheben, das Infektionsgeschehen präziser abbilden sowie neue COVID-19-Varianten und deren Verbreitung früher erkennen zu können. Der am Karlsruher Institut für Technologie (KIT) koordinierte Projektverbund „Systematische Überwachung von SARS-CoV-2 im Abwasser“ will diese Potenziale heben und prüfen, ob und gegebenenfalls wie in Deutschland ein abwasserbasiertes COVID-19-Frühwarnsystem umgesetzt werden kann. Die Europäische Union fördert das Vorhaben mit rund 3,7 Millionen Euro.

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_015_bundesweites-pilotprojekt-zum-corona-nachwei…

„Dieses ressortübergreifende Forschungsvorhaben bietet die Chance, das wissenschaftliche Know-how und bisherige Erfahrungen im Abwassermonitoring deutschlandweit zu bündeln und bei der Eindämmung der COVID-19-Pandemie systematisch zu nutzen“, sagt Dr. Verena Höckele, Projektkoordinatorin beim Projektträger Karlsruhe (PTKA) am KIT.

In das im Februar gestartete und ein Jahr laufende Pilotprojekt steigen sukzessive bundesweit 20 Standorte ein. An diesen werden zweimal pro Woche und über einen Zeitraum von jeweils 24 Stunden Mischwasserproben aus dem Zulauf der Kläranlagen entnommen, aufbereitet und mittels eines PCR-Tests analysiert. Anschließend sollen die Ergebnisse mit den Pandemiedaten der örtlichen Gesundheitsämter verknüpft werden und nach Möglichkeit in die pandemische Lagebeurteilung einfließen.

Virusvarianten mit Abwassermonitoring schneller erkennen
„Das Verfahren, die Häufigkeit und Dynamik von SARS-CoV-2 Viren über das kommunale Abwasser zu bestimmen, wurde in Deutschland bereits im Zuge einzelner Forschungsprojekte erfolgreich erprobt“, so Professor Harald Horn, Leiter des Bereichs Wasserchemie und Wassertechnologie am Engler-Bunte-Institut des KIT. Es könne nicht nur dazu beitragen, die Dunkelziffer von Infizierten besser abzuschätzen, sondern auch die Verbreitung von Varianten und Mutationen schneller zu erkennen als es durch die Testung einzelner Personen möglich sei, ist Horn überzeugt.

Im Projekt wollen die Forschenden nun auf der Basis vergleichbarer Ergebnisse analysieren, welche Methoden sich für ein flächendeckendes Monitoring eignen könnten und welche Daten hierfür erhoben werden müssen, um Coronaviren im komplex zusammengesetzten Abwasser nachweisen zu können. Dies zeigt sich aktuell bei der Erfassung der Omikron-Variante, deren Virenfragmente vorwiegend über die oberen Atemwege ausgeschieden werden und im Vergleich zur Delta-Variante nur zu einem Drittel ins Abwasser gelangen. Eine besondere Herausforderung für die Wissenschaftlerinnen und Wissenschaftler ist es deswegen, die Qualität der Probenentnahme, der Laboranalyse und der Datenauswertung weiter zu verbessern.

Am Ende der Pilotphase steht die Entscheidung, ob für Deutschland ein flächendeckendes Abwassermonitoring oder eher ein repräsentatives Monitoring empfohlen werden soll. Ein solches flächendeckendes Frühwarnsystem gegen COVID-19, das sich perspektivisch auch für andere Krankheitserreger wie zum Beispiel Polio oder Grippeviren eignen würde, ist bereits in den Niederlanden, Kanada und Australien im Einsatz.

ESI-CorA: Förderung und Projektpartner
Das Projekt „Systematische Überwachung von SARS-CoV-2 im Abwasser“ (ESI-CorA) fördert die Europäische Union im Rahmen des Soforthilfeinstruments ESI (Emergency Support Instrument) mit rund 3,7 Millionen Euro. Initiiert wurde es vom Bundesministerium für Gesundheit, dem Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz sowie dem Bundesministerium für Bildung und Forschung. Der Projektträger Karlsruhe (PTKA) am KIT koordiniert das Projekt, Partner sind neben dem KIT die Technische Universität Darmstadt, das Umweltbundesamt und das Robert Koch-Institut. Ein Steuerungsgremium aus Vertreterinnen und Vertretern von Bund, Ländern und Verbänden soll nach Ende des Pilotierungsvorhabens im Februar 2023 über die Verstetigung der Ergebnisse entscheiden. (sur)

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Margarete Lehné, stellv. Pressesprecherin, Tel.: +49 721 608-41157, E-Mail: margarete.lehne@kit.edu

Weitere Informationen:
https://www.kit.edu/kit/pi_2022_015_bundesweites-pilotprojekt-zum-corona-nachwei…

(nach oben)


Pressemitteilung – Windparks verändern die Nordsee

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Ein Team um Nils Christiansen vom Helmholtz-Zentrum Hereon hat eine Studie zu den Einflüssen von Offshore Windparks auf die Ozeandynamik veröffentlicht. Im Fokus stand eine Abschwächung des Windes und einhergehende Veränderungen der physikalischen Bedingungen der betroffenen Nordseegebiete. Denn die Windkraftanlagen stellen Hindernisse für Wasser und Luft dar. Die Effekte sind im Hinblick auf die Planung zukünftiger Offshore Windparks von großer Bedeutung. Die Studie erschien im Fachmedium Frontiers in Marine Science.

Die imposanten Aufnahmen der Offshore Windparks in der Nordsee mit Blick auf das glitzernde Wasser haben sich fest in den Köpfen eingebrannt. Sie gehören bereits wie der Wattwurm zum Bild der Nordsee. Doch welche nicht sichtbaren Zusammenspiele und Auswirkungen gehen mit dem wichtigen Baustein deutscher Energiewende einher?

Die Studie des Hereon-Instituts für Küstensysteme – Analyse und Modellierung simuliert eine Abschwächung der Windgeschwindigkeit auf der windabgewandten Seite (Lee-Seite) der Parks. Belegt wurde das Phänomen kürzlich von einem Hereon-Team, dessen Studie im Journal Nature erschien (Akthar et al., 2021). Auslöser für die Abschwächung des Windes sind die Turbinen. Für die Stromerzeugung entziehen sie dem Windfeld kinetische Energie. In Lee der Windräder entstehenden sogenannte atmosphärische Wirbelschleppen. Diese sind charakterisiert durch verringerte Windgeschwindigkeit sowie durch spezielle Druckverhältnisse und erhöhte Luftturbulenz. Unter stabilen atmosphärischen Bedingungen breiten sich die Defizite der Windgeschwindigkeit bis zu 70 km hinter den Windparks aus.

Wenn der Wind abflaut
Mithilfe hochauflösender, hydrodynamischen Computersimulationen hat das Team die Effekte auf die südliche Nordsee für den Sommer 2013 (Mai bis September) analysiert.
Die Analyse zeigt einen Zusammenhang von Wirbelschleppen und Änderung des impulsgetriebenen Austauschs zwischen Atmosphäre und Wasser. Hierdurch könnten wiederum die horizontalen Strömungen und die Schichtung des Wassers beeinflusst werden.

Die Effekte der Wirbelschleppen sind stark genug, um die vorhandenen Strömungen umzulenken. Was eine Verschiebung der mittleren Temperatur- und Salzgehaltsverteilung in den Gebieten der Windparks zur Folge hat. „Die auftretenden Änderungen bleiben im Rahmen der interannuellen Variabilität. Dennoch, zeigen sie ähnliche Größenordnungen auf, wie die vermuteten mittleren Änderungen aufgrund des Klimawandels oder der Variabilität von Jahr zu Jahr“, so Nils Christiansen, vom Hereon Institut für Küstensysteme, der federführender Autor bei der Studie war.

Es wird neu geschichtet
Eine weitere Konsequenz der Wirbelschleppen ist die Minderung von scherungsbedingten Prozessen an der Meeresoberfläche. In anderen Worten: Die vom Winden hervorgerufene turbulente Durchmischung der Wasseroberfläche wird dutzende Kilometer um den Windpark reduziert. Wasser ist meist geschichtet, so liegt z.B. eine Schicht mit wärmerem Wasser auf einer Schicht mit kaltem. Durch die Windparks wird die natürliche Schichtung gestört. Aufgrund der reduzierten Durchmischung wird eine stabilere Schichtung des Wassers begünstigt. Besonders auffällig war das während des Rückgangs der Sommerschichtung.
Die natürliche Sichtung des Wassers ist im Sommer besonders markant und nimmt zum Herbst hin ab. Im Gebiet der Windparks wurde jedoch eine stabilere Schichtung außerhalb der jahreszeitlichen Schwankung berechnet.

Was bedeuten die Ergebnisse für die Nordsee?
„Die Größenordnung der induzierten mittleren Veränderungen deutet nicht auf schwerwiegende lokale Auswirkungen hin, allerdings treten weitreichende strukturelle Veränderungen im System auf“, sagt Christiansen. „Die Veränderungen in der Strömung und Durchmischung beeinflussen voraussichtlich die Planktonproduktion und die Struktur des Nahrungsnetzes und können die Wirkungsweise von Schutzgebieten beeinflussen. Es ist also wichtig diese Folgen bei der Entwicklung von Meeresschutzkonzepten zu berücksichtigen“, sagt die Hereon-Institutsleiterin Prof. Corinna Schrum und gibt einen Ausblick für die Implementierung der Ergebnisse. Es seien aber weitere Untersuchungen erforderlich, um mögliche Rückkopplungen auf den Luft-Meer-Austausch zu analysieren. Eine Änderung dieses Austausches wirke sich potenziell auf regionale atmosphärische Bedingungen und die Ökosystemdynamik aus und wird Gegenstand weiterführender Studien sein.

Wissenschaftliche Ansprechpartner:
Nils Christiansen I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I T: +49 (0) 4152 87-2132 I nils.christiansen@hereon.de 
www.hereon.de

Originalpublikation:
https://www.frontiersin.org/articles/10.3389/fmars.2022.818501/full

Weitere Informationen:
https://www.hereon.de/institutes/coastal_systems_analysis_modeling/index.php.de

(nach oben)


SARS-CoV-2 geht ins Auge

Dr. Jeanine Müller-Keuker Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für molekulare Biomedizin
SARS-CoV-2 verursacht nicht nur Infektionen der Atemwege. Es kann auch in die Netzhaut gelangen und Schäden anrichten. Unklar ist, welche Netzhautstrukturen infiziert werden und ob die Schäden direkt oder indirekt Folge einer Infektion sind. Ein Team um Thomas Rauen und Hans Schöler vom Max-Planck-Institut für molekulare Biomedizin und dem Virologen Stephan Ludwig der Westfälischen Wilhelms-Universität hat nun menschliche Netzhaut-Organoide verwendet, um die SARS-CoV-2 Infektion der Netzhaut zu untersuchen. Demnach werden vor allem retinale Ganglienzellen, aber auch Lichtsinneszellen infiziert. Zudem zeigen die Forscher, dass sich Coronaviren in diesen Zelltypen sogar vermehren können.

Dass das von Yotam Menuchin-Lasowski am münsterschen Max-Planck-Institut etablierte menschliche Organoidmodell der Netzhaut in der Erforschung von SARS-CoV-2 Anwendung finden würde, hätte der Wissenschaftler vor gut drei Jahren nicht gedacht. Damals begann der Wissenschaftler mit der Arbeit an dem Modellsystem, das auf menschlichen reprogrammierten Stammzellen basiert, als Teil des von der Max-Planck-Gesellschaft geförderten White Paper Projektes “Brain Organoids: Alternatives to Animal Testing”.

Als immer mehr Fälle von neurologischen Beeinträchtigungen und auch Sehstörungen während oder nach einer Corona-Infektion durch die Medien gingen, schien es den Max-Planck-Forschern nur logisch, Netzhautorganoide für Untersuchungen zu SARS-CoV-2 in der Netzhaut einzusetzen. Denn verschiedene Studien an Retina-Biopsien von mehreren Patienten, die an COVID-19 gestorben waren, konnten das Virus in der Netzhaut nachweisen.

Tatsächlich erweist sich nun das Retina-Organoid-Modell als relevante Alternative zu Tierversuchen, da sich SARS-CoV-2-Infektionen beim Menschen nicht oder nur unzulänglich im Tiermodell nachbilden lassen. „Unser Retina-Organoidsystem bildet die anatomisch komplexe Struktur der menschlichen Netzhaut erstaunlich gut nach“, sagt Yotam Menuchin-Lasowski.

Als Ausgangszelltyp für die Netzhautorganoide wurden menschliche iPS-Zellen verwendet. Das sind Zellen, die aus Biopsien gewonnen und zu künstlich induzierten Stammzellen umprogrammiert wurden. „In vier bis fünf Monaten entstehen aus den iPS-Zellen unter geeigneten Kulturbedingungen ausgereifte Retina-Organoide, in denen sich die verschiedenen Zelltypen in Netzhaut-typischer Weise anordnen“, sagt Menuchin-Lasowski.

Die ausgereiften Netzhautorganoide wurden von André Schreiber und Stephan Ludwig vom Institut für Molekulare Virologie der Westfälischen Wilhelms-Universität Münster in einem Sicherheitslabor der Schutzstufe 3 mit SARS-CoV-2 Viren inkubiert und anschließend nach festgelegten Inkubationszeiten analysiert. So gelang den Forschern mittels quantitativer PCR-Analyse der Nachweis von SARS-CoV-2 mRNA in den Organoiden, was darauf hindeutet, dass Zellen in den Organoiden tatsächlich vom Virus infiziert wurden.

Um darüber hinaus die aktiven Viruskonzentrationen zu messen, die von den infizierten Organoiden nach verschiedenen Inkubationszeiten produziert wurden, verwendeten die Wissenschaftler einen sogenannten viralen Plaque-Assay. Und tatsächlich: dieser Test zeigte, dass sich in den Retina-Organoiden neue Virusnachkommen gebildet hatten.

„Dies ist der erste Nachweis, dass sich SARS-CoV-2 in menschlichen Netzhautzellen repliziert“, sagt Thomas Rauen, der mit Hans Schöler die White Paper Projektgruppe “Brain Organoids: Alternatives to Animal Testing” leitet. „Unser von der MPG gefördertes Projekt hat jetzt Früchte getragen“, freut sich Thomas Rauen.

Um zu erfahren, welche Zellen in den Retina-Organoiden betroffen sind, analysierten die Forscher die Organoide im Fluoreszenzmikroskop. Mithilfe verschiedener Immunmarker für die unterschiedlichen Zelltypen der Netzhaut und mit einem fluoreszierenden Antikörper gegen das Nucleoprotein (N-Protein) von SARS-CoV-2 zeigte sich, dass hauptsächlich zwei Zellschichten der Retina-Organoide infiziert wurden.

„Zum einen befanden sich viele der N-Protein-angefärbten Zellen in der äußeren Körnerschicht der Organoide,“ sagt Yotam Menuchin-Lasowski. Das ist die Zellschicht, in der sich die Photorezeptoren befinden – also die Zapfen und Stäbchen, die das eintreffende Licht in Nervenimpulse umwandeln. „Einige dieser Zellen mit dem N-Protein wiesen tatsächlich das typische Aussehen der Lichtsinneszellen auf“, ergänzt er.

„Der Zelltyp, in dem wir jedoch am häufigsten das N-Protein von SARS-CoV-2 nachweisen konnten, sind retinale Ganglienzellen“, sagt Menuchin-Lasowski. Diese Zellen befinden sich in der innersten Schicht der Retina und geben alle Signale von der Netzhaut über den Sehnerv ins Gehirn weiter.

Interessanterweise hängen viele der mit COVID-19 assoziierten Netzhautsymptome mit retinalen Ganglienzellen zusammen, die bisher allerdings vorwiegend mit sekundären Auswirkungen anderer SARS-CoV-2-verursachter Krankheitssymptome in Verbindung gebracht wurden, wie z. B. Schäden an den Blutgefäßen oder einer Erhöhung des Augendrucks.

„Unsere aktuelle Retina-Organoid Studie zeigt jedoch, dass eine Infektion mit SARS-CoV-2 direkte pathologische Folgen für die retinalen Ganglienzellen haben kann, auch wenn Sehbehinderungen bei Patienten mit COVID-19 nicht häufig vorkommen“, sagt Thomas Rauen. „Doch unsere Daten geben uns Grund zur Annahme, dass sogenannte Long-COVID-Symptome degenerative Erkrankungen der Netzhaut einschließen können.“

Hans Schöler, der als Emeritus die MPG White Paper Forschungsgruppe zusammen mit Thomas Rauen leitet, sagt: „Hier zeigt sich das volle Potential der Organoidforschung: Retina-Organoide eignen sich besonders gut für die Untersuchung von Netzhautpathologien. Durch die fruchtbare interdisziplinäre Zusammenarbeit mit der Abteilung von Stephan Ludwig konnten wir Einblicke in die Netzhautbeteiligung bei COVID-19 und möglicherweise auch bei Long-COVID gewinnen.“

Wissenschaftliche Ansprechpartner:
Dr. Thomas Rauen
thomas.rauen@mpi-muenster.mpg.de

Originalpublikation:
Yotam Menuchin-Lasowski*, André Schreiber*, Aarón Lecanda, Angeles Mecate-Zambrano, Linda Brunotte, Olympia E. Psathaki, Stephan Ludwig, Thomas Rauen#, Hans R. Schöler#.
SARS-CoV-2 infects and replicates in photoreceptor and retinal ganglion cells of human retinal organoids.
Stem Cell Reports, April 12, 2022, online advance publication March 24, 2022.
* joint first authors and # corresponding authors.

Weitere Informationen:
https://www.mpi-muenster.mpg.de/690849/20220324-sars-cov-2-retina-organoid

(nach oben)


Mikrobiologen zeigen, wie wichtig Ammonium-oxidierende Mikroorganismen für Deutschlands größten See sind

PhDr. Sven-David Müller Stabsstelle Presse und Kommunikation
Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH
Eine neue weltweit verbreitete Art von Archaea setzt Tonnen von Ammonium in einem der größten Seen Europas um. Damit tragen die Mikroorganismen zur Sicherheit der Trinkwasserversorgung von über fünf Millionen Menschen bei. Das konnten Wissenschaftler*innen aus Braunschweig, Bremen und Konstanz nachweisen. Ihre Ergebnisse haben sie jetzt in der Fachzeitschrift „The ISME Journal“ der Nature Publishing Group veröffentlicht.

Pressemitteilung der Technischen Universität Braunschweig und des Leibniz-Instituts DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH

Seen sind wichtig für die Trinkwasserversorgung, Binnenfischerei und als Naherholungsgebiete. Eine Anreicherung von Ammonium würde diese Ökosystemdienstleistungen gefährden. Gleichzeitig ist Ammonium ein wichtiger Bestandteil landwirtschaftlicher Düngemittel, weshalb seine Konzentrationen in der Umwelt dramatisch zugenommen hat und der globale Stickstoffkreislauf als Ganzes aus dem Gleichgewicht geraten ist. Die Überversorgung mit Nährstoffen (zum Beispiel Stickstoff) in Gewässern führt beispielsweise zu einer Steigerung des Algenwachstums, somit auch zu Sauerstoffmangel und in der Folge zu lebensfeindlichen Bedingungen für die Pflanzen- und Tierwelt.

Nährstoffarme Seen mit großen Wasserkörpern – wie der Bodensee und viele andere voralpine Seen – beherbergen in ihrer Tiefe große Populationen von Archaea, einer speziellen Gruppe von Mikroorganismen. Man nahm bisher nur an, dass diese Archaea an der Umwandlung von Ammonium zu Nitrat beteiligt sind, das in Sedimenten und anderen sauerstoffarmen Habitaten weiter in harmlosen Stickstoff (N2) – ein Hauptbestandteil der Luft – umgewandelt wird.

Ein Team von Umweltmikrobiologen der Technischen Universität Braunschweig, des Leibniz-Instituts DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH, des Max-Planck-Instituts für marine Mikrobiologie und der Universität Konstanz konnte erstmalig nachweisen, dass diese Archaea tatsächlich an der Ammoniumoxidation beteiligt sind. Sie konnten diese Aktivität in einem der größten Seen Europas, dem Bodensee, quantifizieren.

Wie Mikroben den Stickstoffgehalt in Süßwasserökosystemen regulieren
Unser Planet ist zu einem Großteil mit Wasser bedeckt, jedoch sind davon nur 2,5 Prozent Süßwasser. Rund 80 Prozent dieses Süßwassers stehen dem Menschen nicht zur Verfügung, da es in Gletschern und den Polkappen gespeichert ist. In der Europäischen Union stammen etwa 36 Prozent des Trinkwassers aus Oberflächengewässern. Daher ist es wichtig zu verstehen, wie diese Ökosystemleistung durch Umweltprozesse wie die sogenannte mikrobielle Nitrifikation aufrechterhalten wird. Die Nitrifikation verhindert eine Anreicherung von Ammonium und wandelt es über Nitrit zu Nitrat um. Obwohl die Nitrifikation die Menge an anorganischem Stickstoff (N) in Süßwasserökosystemen nicht direkt verändert, stellt sie eine entscheidende Verbindung zwischen der Mineralisierung von organischem Stickstoff oder der Ammoniumverschmutzung und seiner letztendlichen Umwandlung zu harmlosem Stickstoff (N2) durch anaerobe Prozesse dar.

Die nun publizierten Ergebnisse zeigen, dass im Bodensee eine einzelne Art von Archaea bis zu 1760 Tonnen N-Ammonium pro Jahr umsetzt. Das entspricht elf Prozent der jährlichen von Algen produzierten Stickstoff-Biomasse. Dabei bauen die neu entdeckten Archaea eine enorme Biomasse in der Tiefe auf, die zwölf Prozent des jährlich vom pflanzlichen Plankton produzierten organischen Kohlenstoffs entspricht.

Neuartige Archaea-Art für Ammoniumumwandlung verantwortlich
Mit Hilfe modernster Methoden aus der Umweltmikrobiologie und Biogeochemie identifizierten die Wissenschaftler*innen eine neuartige Archaea-Art, Candidatus Nitrosopumilus limneticus, die für die Ökosystemdienstleistung der Ammoniumoxidation im Bodensee verantwortlich ist. Diese Art bildet mit bis zu 39 Prozent aller Mikroorganismen riesige Populationen im Tiefenwasser dieses großen Sees mit einer Fläche von 536 Quadratkilometern aus.

Mittels Metagenomik und Metatranskriptomik konnte das Genom dieses neuartigen Mikroorganismus aus der Umwelt gewonnen und seine Aktivität über die Jahreszeiten verfolgt werden. Auf stabilen Isotopen basierende Aktivitätsmessungen ergaben, dass diese einzelne Art für die Umwandlung von Ammonium im Bereich von über 1000 Tonnen verantwortlich ist. Derzeit bleibt noch ungeklärt, wie dieser neu entdeckte und in großen Binnengewässern weitverbreitete Mikroorganismus auf Veränderungen durch die Klimaerwärmung reagieren wird.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Pester
Technische Universität Braunschweig/Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH
Inhoffenstraße 7B
38124 Braunschweig
E-Mail: Michael.Pester@dsmz.de

Originalpublikation:
Klotz F, Kitzinger K, Ngugi DK, Büsing P, Littmann S, Kuypers MMM, Schink B, Pester M. 2022. Quantification of archaea-driven freshwater nitrification from single cell to ecosystem levels. The ISME Journal doi:10.1038/s41396-022-01216-9.
https://www.nature.com/articles/s41396-022-01216-9

(nach oben)


Umdenken bei der Bekämpfung von Infektionskrankheiten durch gezielte Strategien für den Arbeitsplatz

Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Maßnahmen zur räumlichen Distanzierung und insbesondere Homeoffice-Regelungen können erwiesenermaßen helfen, die Ausbreitung des Coronavirus einzudämmen. Diese Maßnahmen hatten jedoch auch zahlreiche unerwünschte Folgen, darunter einen dramatischen Rückgang der wirtschaftlichen Produktivität. Gibt es alternative Maßnahmen, mit denen die Pandemie eingedämmt und gleichzeitig die negativen wirtschaftlichen Auswirkungen minimiert werden können? Forschende des Max-Planck-Instituts für Bildungsforschung untersuchten diese Frage anhand von Daten und Methoden, die üblicherweise nicht zur Pandemiebekämpfung herangezogen werden. Ihre Ergebnisse wurden im Fachjournal Scientific Reports veröffentlicht.

Während der gesamten COVID-19-Pandemie zählte die räumliche Distanzierung, einschließlich der Kontaktreduzierung am Arbeitsplatz und soweit möglich die Verlagerung auf das mobile Arbeiten zu den wirksamsten nicht-pharmazeutischen Maßnahmen zur Pandemiebekämpfung. Diese Maßnahmen belasten nicht nur Arbeitnehmende, gefährden Arbeitsplätze und die Wirtschaft, sondern werden wahrscheinlich auch langfristige Verschiebungen in den Arbeitsmodellen bewirken. Die wirtschaftlichen Folgen sind beträchtlich, einschließlich des Verlusts an Arbeitsstunden und eines Rückgangs des weltweiten Bruttoinlandsprodukts (BIP), dessen ganzes Ausmaß erst nach Ende der Pandemie ermessen werden kann.

Forschende des Max-Planck-Instituts für Bildungsforschung haben die Wirksamkeit verschiedener Maßnahmen zur Pandemieeindämmung anhand datenbasierter Simulationen untersucht. Indem sie sich auf berufsbezogene Maßnahmen fokussierten und detaillierte Daten über die Verteilung der Arbeitskräfte über Berufe, Löhne und ihrer physischen Nähe zum Arbeitsplatz verwendeten, konnten sie die wirtschaftlichen und epidemiologischen Auswirkungen bestimmter Eindämmungsstrategien modellieren.

„Wir haben simuliert, wie sich Krankheiten wie COVID-19 über die Gruppe von Erwerbstätigen ausbreiten und nicht nur über die gesamte Bevölkerung hinweg. Das ist eine Vereinfachung, die sonst oft gemacht wird, erklärt Co-Autor der Studie Alex Rutherford. Er ist Senior Research Scientist und Principal Investigator am Forschungsbereich Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. „Wir konnten feststellen, dass sich die Art der Arbeit stark auf den Ausgang der Pandemie auswirkt.“

Die Forschungsgruppe nutzte öffentlich zugängliche Daten über Arbeitsplätze, um jedem Beruf einen „Proximitätswert“ zuzuordnen. Diese Zahl gibt an, mit wie vielen Personen ein Arbeitnehmender wahrscheinlich in Kontakt kommen wird. Daraus erstellten sie ein „Kontaktnetzwerk“, anhand dessen ersichtlich wird, wie sich eine Infektionskrankheit wie COVID-19 von Mensch zu Mensch ausbreitet.

Die Daten stammen aus der Stadt New York, die als modellhaftes, urbanes Umfeld betrachtet wird, und umfassen sowohl berufliche Angaben als auch Daten aus öffentlichen Datenbanken, wie dem „Occupational Information Network“ (O*NET), das Berufsdaten sowie statistische und wirtschaftliche Informationen aus den USA erfasst. Solche Datenkategorien spielen bei der Konzeption von Maßnahmen zur Pandemiebekämpfung nur selten eine Rolle. Anhand von Daten zu Gehältern, der Anzahl der Personen einer bestimmten Berufsgruppe in New York und deren Möglichkeit von zu Hause aus zu arbeiten, ermittelte das Team die sozialen und wirtschaftlichen Auswirkungen einzelner Maßnahmen zur Pandemiebekämpfung. Die sozialen Auswirkungen messen sich an der Anzahl der Menschen, die infiziert wurden. Die wirtschaftlichen Kosten ergeben sich daraus, wie viele Menschen beurlaubt werden und ihr Gehalt nicht beziehen können, weil sie nicht von zu Hause arbeiten können.

Die Forschenden verglichen, wie effektiv verschiedene Maßnahmen zur Kontaktreduzierung waren, um die Auswirkungen der Epidemie zu verringern – sozial wie wirtschaftlich. Diese reichten von keiner Intervention bis hin zu sehr komplexen Maßnahmen auf Basis der Struktur des Kontaktnetzwerks der jeweiligen Berufsgruppe.

„Unsere Ergebnisse zeigen, dass die Struktur des Kontaktnetzwerks die Krankheitsdynamik auf nicht unerhebliche Weise stark beeinflusst“, sagt Demetris Avraam, Hauptautor der Studie und Postdoktorand am Forschungsbereich Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. Beispielsweise kann die Beurlaubung eines kleinen Teils der Arbeitnehmenden dazu führen, dass das Kontaktnetzwerk so beschnitten wird, dass die Infektionszahlen auf niedrigem Niveau über einen längeren Zeitraum stagnieren. Dies kann perspektivisch kostspieliger sein, da die Pandemie länger andauert. Intuitive Strategien wie Beurlaubung von Arbeitnehmenden auf der Grundlage ihrer Notwendigkeit, nach Lohn oder nach dem Zufallsprinzip schnitten auf dieser Grundlage schlecht ab. Im Gegensatz dazu sind netzwerkbasierte Metriken wie Grad und Zentralität in der Lage, den Höhepunkt der Infektion zu reduzieren (Abflachung der Kurve) und auch die Epidemie zu verkürzen.

Die Forschenden fanden heraus, dass die grundlegende Strategie der Entfernung von Arbeitnehmenden entsprechend der Anzahl ihrer engen persönlichen Kontakte ungefähr die gleiche Leistung erbringt wie komplexere Metriken, die auf der vollständigen Netzwerkstruktur oder anderen beruflichen Merkmalen basieren.

„In der Praxis ließe sich die Anzahl der Kontakte einfach mit einer Smartphone-App abschätzen, die die Bluetooth-Nähe zu anderen Endgeräten schätzt, ohne die IDs zurückzuverfolgen,“ sagt Manuel Cebrian, Mitautor der Studie und Leiter der Gruppe Digitale Mobilisierung am Forschungsbereich Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. Er hat unter anderem erforscht, wie Smartphone-Daten und Tracing-Apps zur Pandemiebekämpfung eingesetzt werden können.

Die COVID-19-Pandemie hat viele tiefgreifende gesellschaftliche Veränderungen verursacht, die auch nach deren Abklingen wahrscheinlich nicht rückgängig gemacht werden können. Dazu gehören enorme Veränderungen in der Nachfrage in allen Sektoren, die großflächige Einführung von Fernarbeit und das Infragestellen tief verwurzelter Verständnisse von Arbeitsplätzen. Dies hat auch Auswirkungen auf die zukünftige Automatisierung von Arbeitsplätzen. Automatisierungsprozesse werden zunehmend in Berufen eingesetzt, die mit einer großen Anzahl an Kontakten einhergehen. Zum Beispiel sind Online-Konsultationen mit Ärzt*innen oder Online-Trainings in Sport und Bildung auf dem Vormarsch.

Max-Planck-Institut für Bildungsforschung
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Originalpublikation:
Avraam, D., Obradovich, N., Pescetelli, N., Cebrian, M., & Rutherford, A. (2021). The network limits of infectious disease control via occupation-based targeting. Scientific Reports, 11, Article 22855. https://doi.org/10.1038/s41598-021-02226-x

Weitere Informationen:
https://www.mpib-berlin.mpg.de/pressemeldungen/umdenken-bei-der-bekaempfung-von-…

(nach oben)


Entscheidende Phase für erfolgreichen Wasserstoff-Markthochlauf

Simone Angster Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
Wie stellen sich Wissenschaft, Wirtschaft, NGOs und öffentliche Verwaltung die künftige Wasserstoffwirtschaft in Deutschland vor? Eine neue Umfrage von acatech – Deutsche Akademie der Technikwissenschaften und der DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V. gibt nun Antworten. Die beiden Projektpartner präsentierten heute erste Ergebnisse der Öffentlichkeit – und gaben eine Prognose ab: Laut einer wissenschaftlichen Metaanalyse wird der Wasserstoffbedarf im Jahr 2030 um ein Vielfaches höher sein als die inländischen Erzeugungskapazitäten.

Herkunftsnachweise für klimaverträglichen Wasserstoff sind laut Aussage einer Mehrheit von Expertinnen und Experten ein zentraler fördernder Faktor für den Hochlauf der Wasserstoffwirtschaft in Deutschland. Das geht aus der Umfrage „Wasserstoffwirtschaft 2030/2050: Ziele und Wege“ von acatech und DECHEMA unter knapp 600 Vertreterinnen und Vertretern aus Wissenschaft, Wirtschaft, NGOs und öffentlicher Verwaltung hervor. Die Studie ist Teil des Kooperationsprojekts „Wasserstoff-Kompass“. Erste Ergebnisse stellten die Projektpartner schon heute in einer Online-Konferenz vor, bevor im März die Publikation aller Umfrageergebnisse erfolgt.

Als Keynote zu Beginn der Konferenz sprachen Judith Pirscher, Staatssekretärin im Bundesministerium für Bildung und Forschung, und Patrick Graichen, Staatsekretär im Bundesministerium für Wirtschaft und Klimaschutz. Sie machten deutlich: Die aktuelle Legislaturperiode ist entscheidend, um die Rahmenbedingungen für eine wettbewerbsfähige Wasserstoffwirtschaft in Deutschland zu schaffen. Staatssekretärin Pirscher betonte: „Wir setzen beim Klimaschutz auf Technologien, nicht auf Verzicht. Grüner Wasserstoff ist deshalb ein Schlüsselelement für das Erreichen unserer ambitionierten Klimaziele. Gleichzeitig bieten Wasserstofftechnologien enorme Chancen für neues Wachstum und Exportmärkte und für gute Jobs. Um diese Chancen zu nutzen, brauchen wir einen massiven Innovationsschub. Das Bundesministerium für Bildung und Forschung steht mit seiner technologieoffenen Forschungsförderung für diesen Innovationsschub.“ Staatssekretär Graichen unterstrich: „Forschung und Innovation für die Energiewende und den Klimaschutz sind ein strategisches Element unserer Klima- und Energiepolitik. Wir brauchen einen Hochlauf von Wasserstoff in den No-regret-Anwendungen. Dafür müssen wir wissen, wie eine klug ausgerichtete und anwendungsorientierte Energieforschung aussieht, die dazu beiträgt, Technologiekosten zu senken.“

Wasserstoff-Markthochlauf: Unzureichende Flächen für erneuerbare Energien als Hemmnis
Um den Markthochlauf anzustoßen, sind aus Sicht der Befragten neben Herkunftsnachweisen für klimaverträglichen Wasserstoff weitere Maßnahmen notwendig. Unter anderem solle der für die Wasserstofferzeugung eingesetzte Strom von staatlichen Preisbestandteilen weitestgehend befreit werden. Überdies sind nach Meinung der Befragten staatliche Zuschüsse für Wasserstoffprojekte vonnöten. Die Umfrageergebnisse weisen außerdem auf zentrale Hemmnisse für eine großskalige Erzeugung von klimaneutralem Wasserstoff in Deutschland hin: 59 Prozent der Befragten sehen die hohen Investitions- und Unterhaltskosten als hinderlich für die Wirtschaftlichkeit von Produktionsanlagen. Ebenfalls 59 Prozent der Befragten betrachten die unzureichenden Flächen für Erneuerbare-Energien-Anlagen als zentralen Hemmschuh. Um Wasserstoff als Energieträger zu etablieren, braucht es aus Sicht der Befragten auch akzeptanzfördernde Maßnahmen, insbesondere für den Ausbau erneuerbarer Energien, in Bezug auf das Thema Sicherheit bei der Wasserstofferzeugung und -nutzung sowie für neue Wasserstoff-Transport-Infrastrukturen.

„Unsere Umfrageergebnisse verdeutlichen, dass Wissenschaft, Wirtschaft, NGOs und öffentliche Verwaltung einen sehr ähnlichen Blick auf Treiber und Hemmnisse für den Wasserstoff-Markthochlauf haben“, resümierte Prof. Dr.-Ing. Jan Wörner, acatech-Präsident. „Diese Ergebnisse sind ein wichtiger Anhaltspunkt bei der Erstellung einer Wasserstoff-Roadmap auf Basis der demnächst überarbeiteten Nationalen Wasserstoff-Strategie. Diese Wasserstoff-Roadmap kann nur erfolgreich sein, wenn sie auf einen ebenso koordinierten wie flexiblen Instrumenten-Mix abzielt. So können zeitgleich und schnell Erzeugung, Transport- und Speicherinfrastrukturen wie auch Anwendungsbereiche entstehen.“

Wasserstoffmarkt 2030: große Differenz zwischen inländischer Erzeugung und Nachfrage
acatech und DECHEMA erarbeiten derzeit eine Metaanalyse, in der sie fortlaufend Studien und Strategiepapiere zum Thema Wasserstoff auswerten. Heute präsentierten sie einen ersten Zwischenstand zu den Bereichen Mobilität, Stahlindustrie, chemische Industrie sowie zur Wasserstoff-Erzeugungskapazität in Deutschland. Die Auswertung weist bislang Elektrolyseprojekte aus, die 2030 eine Gesamtkapazität von ca. fünf Gigawatt haben werden. Im Koalitionsvertrag hat sich die neue Bundesregierung auf ein Elektrolysekapazitätsziel von 10 Gigawatt bis 2030 verständigt. Allerdings zeigt die Metaanalyse des Wasserstoff-Kompasses: Selbst bei optimistischen Annahmen der Laststunden und bei Erreichen der politischen Zielsetzung, werden die bis 2030 aufgebauten heimischen Kapazitäten nicht ausreichen, um den Minimalbedarf von etwa 50 Terawattstunden zu decken. „Nachhaltiger Wasserstoff wird in den nächsten Jahren eine knappe Ressource bleiben, die einem wachsenden Bedarf gegenübersteht“, folgerte Klaus Schäfer, Vorstandsvorsitzender der DECHEMA. „Um zukünftig Nachfrage und Angebot in Einklang zu bringen, ist es unverzüglich notwendig, die richtigen politischen Weichen zu stellen. Dabei stehen der Politik verschiedene Handlungsoptionen zur Verfügung. Mit dem Projekt Wasserstoff-Kompass tragen wir dazu bei, die ökologischen, ökonomischen und gesellschaftlichen Aspekte der verschiedenen politischen Handlungsoptionen aufzuzeigen.“

Über das Projekt Wasserstoff-Kompass
acatech und DECHEMA führen seit Juni 2021 das zweijährige Projekt Wasserstoff-Kompass durch. Gemeinsam erarbeiten sie mithilfe einer Metaanalyse einen Überblick über verschiedene Entwicklungspfade für den Markthochlauf sowie entsprechende Handlungsoptionen mit ihren jeweiligen Vor- und Nachteilen. Weiterhin organisiert der Wasserstoff-Kompass einen Dialog mit Stakeholdern aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft, um deren Sichtweisen einzuholen und auf ein gemeinsames Zielbild einer deutschen Wasserstoffwirtschaft hinzuwirken. Die Projektergebnisse kann die Politik für die Erarbeitung ihrer Wasserstoff-Roadmap nutzen. Das Projekt Wasserstoff-Kompass wird vom Bundesministerium für Bildung und Forschung sowie vom Bundesministerium für Wirtschaft und Klimaschutz gefördert.

Im März 2022 veröffentlichen acatech und DECHEMA ihren vollständigen Bericht zu den Umfrageergebnissen. Ausgewählte Ergebnisse der Umfrage stellen acatech und DECHEMA Ende Februar 2022 als Kurz-Dossier auf wasserstoff-kompass.de zum Download bereit.

Kontakt für weitere Informationen:
Alena Müller, Referentin Presse- und Öffentlichkeitsarbeit
acatech – Deutsche Akademie der Technikwissenschaften
Tel.: 030/2 06 30 96-33
mueller@acatech.de

Simone Angster, Leitung Kommunikation
DECHEMA e.V.
Tel. +49 69 7564-540
simone.angster@dechema.de

Weitere Informationen:
https://www.wasserstoff-kompass.de/

(nach oben)


Blutfette geben neue Einblicke in den Zusammenhang von Ernährung mit Diabetes und Herz-Kreislauf-Erkrankungen

Birgit Niesing Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Diabetesforschung
Typ-2-Diabetes und Erkrankungen des Herzkreislaufsystems gehen Veränderungen im Stoffwechsel voraus. Eine aktuelle Studie des DZD und DIfE deutet darauf hin, dass bestimmte Fettmoleküle (Ceramide), die im Stoffwechsel gebildet werden, an der Entstehung von Typ-2-Diabetes und CVD beteiligt sind. Die Studie stellt ausserdem einen Zusammenhang zwischen ungesunder Ernährung und nachteiligen Ceramidwerten im Blut her. Das könnte zum Beispiel erklären, warum das Diabetesrisiko durch häufigen Verzehr von rotem und verarbeitetem Fleisch erhöht. Als potenzielle Biomarker könnten Ceramide präzisere Ernährungsansätze für die Prävention kardiometabolischer Erkrankungen ermöglichen.

Ungesundes Essen kann zur Entstehung von Herzinfarkten, Schlaganfällen und Typ-2-Diabetes (kardiometabolische Erkrankungen) beitragen. Doch welche biochemischen Prozesse hier zugrunde liegen, ist bisher nicht genau bekannt. Moderne Messverfahren ermöglichen es, gleichzeitig eine große Anzahl von Stoffwechselprodukten im Blut zu messen und liefern dadurch umfassende Stoffwechselprofile in großen Studiengruppen. Dabei zeigt sich, dass bestimmte Fettmoleküle, die Ceramide und Dihydroceramiden, kritische Faktoren für die langfristige kardiometabolische Gesundheit sein könnten. Ausserdem beeinflusst die Ernährung die Zusammensetzung der Ceramide und Dihydroceramide.
Umfassende Untersuchungen zum Einfluss der Ernährung auf die Ceramidwerte im Blut und moögliche Auswirkung auf die Entstehung von kardiometabolischen Erkrankungen im Menschen fehlten bislang. Die Forschenden haben daher mehrere Tausend Teilnehmer:innen der EPIC-Potsdam-Studie** über mehrere Jahre beobachtet, um zu prüfen, ob man anhand von bestimmten, durch die Ernährung beeinflusste Ceramiden das Auftreten von kardiometabolischen Erkrankungen vorhersagen kann. Die Studie wurde unter Leitung des Deutschen Instituts für Ernährungsforschung (DIfE) durchgeführt und vom Deutschen Zentrum für Diabetesforschung (DZD) und dem BMBF-geförderten Projekt „FAME“*** unterstützt. Die Studienergebnisse zeigen, dass Ceramidprofile Einblicke in die Entwicklung von kardiometabolischen Erkrankungen bieten und das Verständnis vom Einfluss der Ernährung auf das Krankheitsrisiko verbessern können.

Erstellen von Ceramid-Profilen
Zu Beginn der Studie gaben alle Teilnehmer:innen Auskunft über ihre Ernährung und stellten Blutproben zur Verfügung. Die Probanden hatten weder Typ-2-Diabetes noch Herz-Kreislauf-Erkrankungen. In den folgenden Jahren entwickelten etwa 550 Proband:innen Herzkreislauferkrankungen und knapp 800 erkranketen an Typ-2-Diabetes. Mithilfe einer neuartigen analytischen Plattform – s.g. Lipidomics – erstellten die Forschenden Profile der Ceramide und Dihydroceramide im Blut der EPIC-Potsdam-Teilnehmer:innen.

Bestimmte Ceramide vermitteln nachteilige Auswirkung von ungesundem Essen
Die Forschenden untersuchten darüber hinaus, ob krankheitsrelevante Ceramide und Dihydroceramide auch mit dem Verzehr von Lebensmitteln in Verbindung stehen. „Menschen, die viel Fleisch essen, haben ein höheres Diabetesrisiko. Wir konnten jetzt erstmals zeigen, dass ein hoher Verzehr von rotem und verarbeitetem Fleisch mit ungünstigen Spiegeln diabetesbezogener Ceramide verbunden war. Unsere Ergebnisse legen nahe, dass der Zusammenhang von Fleischverzehr und Diabetesrisiko durch den Einfluss auf Ceramidspiegel im Blut vermittelt werden könnte“, berichtet Erstautor Clemens Wittenbecher, Mitarbeiter der Abteilung Molekulare Epidemiologie am DIfE und der Harvard T.H. Chan School of Public Health. Matthias Schulze, Leiter der Abteilung Molekulare Epidemiologie am DIfE und Letztautor der Studie ergänzt: „Detaillierte Stoffwechselprofile in grossen Kohortenstudien helfen uns, den Zusammenhang zwischen Ernährung und Krankheitsrisiko besser zu verstehen. Das trägt letzendlich zu evidenzbasierten und genaueren Ernährungsempfehlungen bei.“

Studie eröffnet neue Präventionsansätze
Kardiometabolische Erkrankungen wie Herzinfarkt, Schlaganfall und Typ-2-Diabetes sind weltweit für mehr als ein Drittel der Todesfälle verantwortlich. Die Ergebnisse der aktuellen Studie identifizierten bestimmte Ceramide als potenzielle Biomarker für den Zusammenhang zwischen Ernährung und Krankheitsrisiko und könnten so präzisere Ernährungsansätze für die Prävention kardiometabolischer Erkrankungen ermöglichen.

Original-Publikation:
Wittenbecher, C. … Schulze, M. et al: Dihydroceramide- and ceramide-profiling provides insights into human cardiometabolic disease etiology. Nature Communications (2022) DOI: https://doi.org/10.1038/s41467-022-28496-1

*Ceramide sind eine Untergruppe der Sphingolipide, die wichtige Bestandteile von Zellmembranen sind und als Signalmolekuele wirken. Sie beeinflussen verschiedene Stoffwechselprozesse, darunter auch die Insulinempfindlichkeit und Entzuendungsreaktionen. Ceramide könnten an der Pathogenese von Typ-2-Diabetes und Herz-Kreislauf-Erkrankungen beteiligt sein.

Die EPIC-Potsdam-Studie ist eine bevölkerungsbasierte prospektive Kohortenstudie und Teil der internationalen EPIC-Studie. Sie umfasst ca. 27.500 Teilnehmende. Zu Beginn der Studie im Jahr 1994 waren die Frauen im Alter von 35 bis 64 Jahren und die Männer im Alter von 40 bis 64 Jahren. Die EPIC-Potsdam-Studie dient mit ihrer umfangreichen Datenbasis als Grundlage für bevölkerungsbasierte epidemiologische Forschung am DIfE. Die Forschungsergebnisse tragen dazu bei, die wissenschaftliche Grundlage für mögliche Präventionsmaßnahmen zu schaffen und die Gesundheit der Bevölkerung zu verbessern. https://www.dife.de/forschung/kooperationen/epic-studie/

Das Verbundprojekt FAME („Fettsäuremetabolismus als Marker für Ernährung und kardiometabolische Gesundheit“) wurde im Rahmen der europäischen Programminitiative „Eine gesunde Ernährung für ein gesundes Leben“ (JPI HDHL) durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert. In dieser Initiative arbeiten EU-Mitgliedsstaaten, assoziierte Staaten sowie Kanada und Neuseeland zusammen, um die Ernährungsforschung über Ländergrenzen hinweg zu bündeln und zu stärken. Ziel der transnationalen Fördermaßnahme „Biomarker für Ernährung und Gesundheit“ der JPI HDHL ist es, neue Biomarker zu identifizieren, die den Ernährungszustand erfassen und damit zur Aufklärung der Zusammenhänge zwischen Ernährung und Gesundheit beitragen können. Neben dem DIfE sind die Universitäten Navarra und Cordoba (Spanien) sowie Reading und East Anglia (Großbritannien) am FAME-Verbund beteiligt.
https://fame.dife.de/

Das Deutsche Zentrum für Diabetesforschung e.V. ist eines der sechs Deutschen Zentren der Gesundheitsforschung. Es bündelt Experten auf dem Gebiet der Diabetesforschung und verzahnt Grundlagenforschung, Epidemiologie und klinische Anwendung. Ziel des DZD ist es, über einen neuartigen, integrativen Forschungsansatz einen wesentlichen Beitrag zur erfolgreichen, maßgeschneiderten Prävention, Diagnose und Therapie des Diabetes mellitus zu leisten. Mitglieder des Verbunds sind das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, das Deutsche Diabetes-Zentrum DDZ in Düsseldorf, das Deutsche Institut für Ernährungsforschung DIfE in Potsdam-Rehbrücke, das Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen und das Paul-Langerhans-Institut Dresden des Helmholtz Zentrum München am Universitätsklinikum Carl Gustav Carus der TU Dresden, assoziierte Partner an den Universitäten in Heidelberg, Köln, Leipzig, Lübeck und München sowie weitere Projektpartner.

Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)
Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Schulze
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Leiter der Abteilung Molekulare Epidemiologie

Tel.: + 49 33 200 88 – 2434
E-Mail: mschulze@dife.de

Originalpublikation:
Wittenbecher, C. … Schulze, M. et al: Dihydroceramide- and ceramide-profiling provides insights into human cardiometabolic disease etiology. Nature Communications (2022) DOI: https://doi.org/10.1038/s41467-022-28496-1

(nach oben)


Weltwassertag am 22. März – Genug trinken: Reicht der Durst als Signalgeber?

Dr. Andreas Mehdorn Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.
Ausreichend Wasser zu trinken, regt den Stoffwechsel an, sorgt für eine funktionierende Verdauung und kann hohen Blutdruck senken. Der tägliche Flüssigkeitsbedarf ist individuell unterschiedlich und hängt von Faktoren wie dem Körpergewicht, Alter, Gesundheitszustand und der physischen Belastung ab. Gerade wer an Erkrankungen wie Diabetes, Gicht oder Herzschwäche leidet, sollte gut auf eine angemessene Trinkmenge achten, rät die Deutsche Gesellschaft für Innere Medizin e.V. (DGIM) anlässlich des Weltwassertags am 22. März.

Eine zu geringe wie auch eine zu hohe Flüssigkeitszufuhr können – je nach Gesundheitszustand – gleichermaßen schädlich sein, warnen die Experten der Fachgesellschaft, die Ende April 2022 in Wiesbaden ihren Kongress abhalten, bei dem sie das dort derzeit gefeierte „Jahr des Wassers“ aufgreifen.

Der menschliche Körper besteht zu rund 70 Prozent aus Wasser, das Blut sogar zu über 90 Prozent. Aufwändige Regelmechanismen sorgen dafür, dass diese Werte auch bei wechselnden Temperaturen und unterschiedlichen körperlichen Belastungen weitgehend konstant bleiben. Die augenscheinlichsten: Die produzierte Harnmenge – erkennbar am Harndrang – und das Durstgefühl. „Bei gesunden Menschen spricht nichts dagegen, sich im Großen und Ganzen auf das Durstgefühl zu verlassen“, sagt der Gastroenterologe und DGIM-Vorsitzende Professor Dr. med. Markus M. Lerch. So ergeben sich meist von selbst Trinkmengen von eineinhalb bis zwei Litern täglich – wobei feuchte Nahrungsmittel wie Suppen, Obst und Gemüse durchaus mitgerechnet werden dürfen, erläutert Lerch, der zugleich Ärztlicher Direktor am LMU Klinikum München ist.

Einige Faktoren können jedoch dafür sorgen, dass auf den Durst als Ratgeber nicht mehr uneingeschränkt Verlass ist. Einer davon ist das Alter. „Bei älteren Menschen lässt das Durstempfinden deutlich nach“, so Lerch. Ältere blieben daher oft unter der Zielmarke von eineinhalb Litern und sollten sich ab und zu bewusst ein Glas Wasser einschenken. Auch Menschen mit Diabetes wird eher zu einer leicht erhöhten Trinkmenge geraten, um die Zuckerausscheidung über die Niere zu unterstützen. Und nicht zuletzt sollten Menschen, die Medikamente zur Entwässerung einnehmen und daher besonders viel Harn bilden, auf eine ausreichende Trinkmenge achten.

Warnzeichen für einen Flüssigkeitsmangel ist zunächst eine Dunkelfärbung des Urins, der konzentriert und in geringerer Menge ausgeschieden wird. Auch der Stuhl kann fester werden und Verstopfungsbeschwerden auslösen. „Gerade an heißen Tagen kann sich der Flüssigkeitsmangel verschärfen und kritisch werden, was sich durch Herzrasen, Verwirrtheit und Kreislaufschwäche bis hin zur Ohnmacht äußert“, erklärt Professor Dr. med. Georg Ertl, Internist, Kardiologe und Generalsekretär der DGIM. Unter Dehydrierung leiden auch die Nieren, im schlimmsten Fall kommt es zum akuten Nierenversagen.

Lebt man also umso gesünder, je mehr man trinkt? „Diesen Umkehrschluss darf man nicht ziehen“, mahnt DGIM-Experte Ertl. Bei gewissen Krankheiten können große Trinkmengen sogar schädlich sein. „Das ist etwa bei Patienten mit fortgeschrittener Herzschwäche der Fall, bei denen zu viel Flüssigkeit das Herz über Gebühr belastet“, so Kardiologe Ertl. Auch Nierenerkrankungen wie die chronische Niereninsuffizienz können es erforderlich machen, die Trinkmenge zu verringern. Der Flüssigkeitshaushalt ist zudem untrennbar verwoben mit dem Mineralhaushalt des Körpers. Und auch hier gilt: Wer zu viel trinkt, riskiert unter Umständen einen Mangel an Elektrolyten. Diese Gefahr besteht besonders dann, wenn gleichzeitig wenig oder gar nichts gegessen wird – wie es bei manchen Fastenkuren oder bei einer Essstörung der Fall sein kann. „Auch Sportler oder Menschen, die körperlich arbeiten und mit dem Schweiß viele Elektrolyte verlieren, können ihren Mineralhaushalt durch große Trinkmengen in Schieflage bringen“, sagt Ertl. Statt Leitungswasser sollte der Durst dann lieber mit einer Saftschorle oder einem alkoholfreien Bier gestillt werden.

Ihr Kontakt für Rückfragen:
DGIM Pressestelle
Dr. Andreas Mehdorn
Postfach 30 11 20
70451 Stuttgart
Tel.: 0711 8931-313
Fax: 0711 8931-167
E-Mail: mehdorn@medizinkommunikation.org
http://www.dgim.de | http://www.facebook.com/DGIM.Fanpage/ | http://www.twitter.com/dgimev

(nach oben)


Tippen mit beiden Händen beugt dem Handydaumen vor

Swetlana Meier Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.
Tag der Hand am 1. März: Macht uns das Handy krank?
Häufiges Tippen auf dem Smartphone kann zu einem schmerzhaften Handydaumen führen. Um das zu vermeiden, empfehlen Orthopäden und Unfallchirurgen beide Daumen beim Tippen zu verwenden. „Für die meisten ist das Handy nicht mehr aus dem Alltag wegzudenken. Immer wieder führt das viele Schreiben von Nachrichten zu schmerzhaften Entzündungen der Sehnen am Daumen.

Die Beachtung einiger Regeln beugt chronischem Schmerz vor“, sagt Prof. Dr. Andreas Halder, stellvertretender Präsident der Deutschen Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) sowie Ärztlicher Direktor und Chefarzt der Klinik für Operative Orthopädie der Sana Kliniken Sommerfeld anlässlich des Tags der Hand am 1. März.

Knapp vier Stunden beträgt die durchschnittliche tägliche Handyzeit aller Nutzer in Deutschland. Der Daumen fliegt dabei pausenlos auf dem Display hin und her. Dass die Hand das mitmacht, erscheint uns selbstverständlich. Der Daumen ist jedoch von der Natur dafür gemacht, das Zugreifen der Hand zu unterstützen und das Umschließen zu ermöglichen. „Eine kräftige Beugung des Daumens ist dabei natürlich, eine Streck- oder Abspreizbewegung wie bei der Handy-Nutzung auf Dauer jedoch nicht“, sagt Halder. Der Zusammenhang zwischen dem Vieltexten auf dem Mobiltelefon und Entzündungen der Sehnenscheiden des langen Daumenstreckers und -spreizers ist wissenschaftlich belegt. So ist das Entzündungsrisiko bei intensiver Nutzung fast siebenfach erhöht. Wird der Daumen dann nicht geschont, wird der Schmerz chronisch und dehnt sich auf Greifbewegungen mit der ganzen Hand aus. Selbst das Auf- und Zuknöpfen von Kleidung kann dann Probleme bereiten.

Orthopäden und Unfallchirurgen geben 5 Tipps zur Vermeidung eines Handydaumens:
1) besser beide Daumen als nur einen verwenden, um die Belastung zu mindern
2) bei langer Smartphone-Nutzung Pausen und Dehnübungen einbauen
3) ab und an im Stehen zu tippen, denn das ist für den Daumen weniger anstrengend als im Sitzen
4) zur Abwechslung Sprachnachrichten schicken, statt zu schreiben
5) beim Schreiben im Sitzen möglichst den Unterarm auflegen

Was passiert aus orthopädischer Sicht genau, wenn es zu einem Handydaumen kommt? Generell gilt: Je schneller wir tippen, desto eher überlasten wir die Gelenke und Sehnen. Benutzen wir nur eine Hand, muss sich der Daumen oft quer über das ganze Display strecken, um Buchstaben und Zahlen zu erreichen. Je größer das Display, desto anstrengender wird es für den Daumen. Deshalb haben es Menschen mit kleinen Händen schwerer. Sie müssen das Handy häufiger kippen und zeigen beim Tippen mehr Muskelaktivität im Daumenstrecker. Sind die Tasten auf dem Display zudem klein, muss der Daumen steiler gehalten werden. Das heißt, er muss mehr gebeugt werden, um genau zu treffen, was wiederum die Daumenbeuger stärker beansprucht. Interessanterweise ist das Tippen im Stehen für den Daumen weniger anstrengend als im Sitzen, wahrscheinlich weil das Handgelenk mehr Bewegungsfreiheit hat. Im Sitzen wird das Tippen für den Daumen erst leichter, wenn der Unterarm aufliegen kann. Jugendliche halten das Handy lockerer in der Hand als Ältere und erlauben so mehr Bewegungsspiel in den Daumengelenken.

Doch wie macht sich ein Handydaumen bemerkbar? „Eine Überbelastung durch zu häufiges Strecken und Abspreizen des Daumens verursacht Schmerzen auf der Daumenseite des Handgelenks. Diese entstehen durch eine Sehnenscheidenentzündung und sind vor allem bei der Tippbewegung des Daumens spürbar“, sagt Dr. Thomas Brockamp aus der Sektion Prävention der DGOU, er ist Handchirurg in Münster. Ein einfacher Selbsttest, der sogenannte Finkelstein-Test, gibt einen Hinweis: Typischerweise wird der Schmerz verstärkt, wenn man den Daumen in die Handfläche legt und die Hand in Richtung Kleinfinger beugt. Der Arzt kann in schweren Fällen zusätzlich eine Ultraschall- oder MRT-Untersuchung veranlassen.

Doch was tun, wenn es zu Schmerzen im Daumen kommt? „Die gute Nachricht ist, dass in den allermeisten Fällen keine Operation nötig ist. Der Arzt kann Physiotherapie verordnen, ein Schmerzmittel oder eine Kortisoninjektion geben“, sagt Brockamp. Oftmals reicht es aber schon aus, das eigene Verhalten am Handy zu ändern, was aber gerade für intensive Handynutzer nicht leicht ist. Die wichtigste Maßnahme ist die Schonung des Daumens und der Hand, indem die Handynutzung reduziert wird. Pausen zwischendurch sind daher ebenso wichtig wie bewusst die Tippgeschwindigkeit zu verringern. Dabei sollten besser beide Daumen als nur einer verwendet werden, um die Belastung des einzelnen zu mindern. Schließlich kann es helfen, den Daumen und das Handgelenk zu dehnen, um die Sehnen zu lockern.

Hintergrund
Mehr als 62 Millionen Handys gibt es in Deutschland und fast 98 Prozente der Haushalte besitzen eins. Und die Nutzung fängt früh an: 94,2 Prozent der 14- bis 19-jährigen Jugendlichen haben bereits ein Smartphone, bei Erwachsenen sind es sogar mehr. Schon vor der Corona-Pandemie nutzten deutsche Jugendliche zwischen 16 und 18 Jahren das Handy im Schnitt knapp 36 Stunden pro Woche. Die durchschnittliche tägliche Handyzeit aller Nutzer liegt bei 229 Minuten, also knapp vier Stunden.

Referenzen:
• Ali, M., Asim, M., Danish, S. H., Ahmad, F., Iqbal, A., & Hasan, S. D. (2014). Frequency of De Quervain’s tenosynovitis and its association with SMS texting. Muscles Ligaments Tendons J, 4, 74-78.
• Gustafsson, E., Johnson, P. W., & Hagberg, M. (2010). Thumb postures and physical loads during mobile phone use – a comparison of young adults with and without musculoskeletal symptoms. Journal of Electromyography and Kinesiology, 20, 127-135.
• Gustafsson, E., Johnson, P. W., Lindegård, A., & Hagberg, M. (2011). Technique, muscle activity and kinematic differences in young adults texting on mobile phones. Ergonomics, 54, 477-487. Otten, E. W., Karn, K. S., & Parsons, K. S. (2013). Defining thumb reach envelopes for handheld devices. Hum Factors, 55, 48-60.
• Park, Y. S., & Han, S. H. (2010b). Touch key design for one-handed thumb interaction with a mobile phone: Effects of touch key size and touch key location. International Journal of Industrial Ergonomics, 40, 68-76.
• Xiong, J., & Muraki, S. (2014). An ergonomics study of thumb movements on smartphone touch screen. Ergonomics, 57, 943-955.
• Xiong, J., & Muraki, S. (2016). Effects of age, thumb length and screen size on thumb movement coverage on smartphone touchscreens. International Journal of Industrial Ergonomics, 53, 140-148.
• Postbank Jugend-Digitalstudie 2019

Kontakt für Rückfragen:
Swetlana Meier
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) e.V.
Straße des 17. Juni 106-108, 10623 Berlin
Telefon: +49 (0)30 340 60 36 -16 oder -00
Telefax: +49 (0)30 340 60 36 01
E-Mail: presse@dgou.de

Weitere Informationen:
http://www.dgou.de

(nach oben)


Praxiseinstieg in digitale Ökosysteme am Beispiel Gaia-X

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Fraunhofer IAO bietet Orientierungshilfe für Anbieter von Produkten und Dienstleistungen

Anbietern von Produkten und Dienstleistungen fehlt es an Wissen, praktischen Werkzeugen und etablierten Standards zu einem sicheren, vertrauensvollen und interoperablen Datenaustausch und der Bereitstellung digitaler Services. Das Fraunhofer IAO gibt in einer Publikation mit einem Anwendungsfall einen methodischen Einstieg sowie Handlungsoptionen für eine strategische Positionierung in digitalen Ökosystemen.

Im Zeitalter der Digitalisierung und Plattformökonomie haben sich in den letzten Jahren neue digitale, datenbasierte Wertschöpfungsnetzwerke gebildet. Daten und ihre ökonomischen Auswirkungen durchdringen alle Bereiche der Wirtschaft und bis 2025 rechnet die Europäische Kommission mit einer weltweiten Zunahme des Datenvolumens um mehr als das Fünffache. Dadurch steigt auch für Anbieter von Produkten und Dienstleistungen die Bedeutung einer Teilhabe an digitalen Daten- und Serviceplattformökosystemen. Vielen Anbieterunternehmen fehlen jedoch noch die notwendigen Ressourcen und das entsprechende Know-how zu Digitalisierung und Daten.

Lösungskonzepte, Normen und Standards führender Initiativen können eine gute Grundlage zur wettbewerbsfähigen Teilhabe sein
Das Ministerium für Wirtschaft, Arbeit und Tourismus Baden-Württemberg will diese Wissenslücken nun schließen. Es fördert deshalb die nun erschienene Publikation »Praxisorientierter Einstieg für Service-Anbieter in digitale Wertschöpfungsnetzwerke Gaia-X«, die gemeinsam von Wissenschaftler*innen des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO, des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA, des Fraunhofer-Instituts für Software- und Systemtechnik ISST, dem Institut für Enterprise Systems (InES) an der Universität Mannheim, der bwcon research gGmbH, der Virtual Fort Knox AG sowie der incontext.technology GmbH erstellt wurde. Die Publikation entstand im Ergänzungsprojekt des Förderprojekts Cloud Mall BW mit dem Fokus auf digitale Daten- und Serviceökosysteme.

»Gerade für Service-Anbieter gibt es aktuell enorme Herausforderungen mit dem Umgang und der strategischen Positionierung hinsichtlich digitaler Wertschöpfungsnetzwerke. Viele Fragen bezüglich Datensouveränität, Interoperabilität, Vertrauen und Sicherheit sind derzeit noch ungeklärt«, sagt Sandra Frings, Projektleiterin Cloud Mall BW am Fraunhofer IAO und Mitautorin der Publikation. Führende Initiativen und Leuchtturmprojekte wie beispielsweise Gaia-X oder die International Data Space Association haben sich in den vergangenen Jahren gebildet mit dem Ziel, Lösungskonzepte, Normen und Standards zu erarbeiten, auf denen Unternehmen zukunftsfähige Produkte aufbauen können. In der Publikation hat das Expert*innenteam am Beispiel des Praxispiloten »KI-gestützte Energieoptimierung in der Produktion (KIEP)« im Rahmen von Workshops einen kooperativen Geschäftsmodellansatz, ein Wertschöpfungsnetzwerk und eine IT-Architektur unter Berücksichtigung der Gaia-X-Spezifikationen konzipiert. Die gewonnenen Erkenntnisse und daraus abgeleitete Handlungsoptionen sowie eine Übersicht über wesentliche Initiativen sollen Anbieterunternehmen als Orientierungshilfe im Aufbau von digitalen Ökosystemen als Werkzeuge an die Hand gegeben werden.

Handlungsempfehlungen für den Praxistransfer: Entwicklung eines Nutzenszenarios und fundierte Einarbeitung
Um einen erfolgreichen Transfer in die Praxis zu ermöglichen, ist laut den Expert*innen die gemeinsame Entwicklung eines Nutzenszenarios mit einem schlagkräftigen Kern an Partnerunternehmern ein Erfolgsfaktor und wesentliche Grundlage für die Konzeptentwicklung. Die klare Herausarbeitung von Zielgruppen vereinfache die Identifizierung konkreter und entscheidender Nutzenvorteile für alle Stakeholder im Ökosystem. Ökosysteme auf föderativer Basis stellten in diesem Zusammenhang eine große Herausforderung dar, aber ermöglichten eine aktive und gleichberechtigte Partizipation insbesondere von kleinen und mittleren Anbietern von Produkten und Dienstleistungen an digitalen Wertschöpfungsnetzen. »Neulinge« in Daten- und Serviceökosystemen sollten Zeit zur Einarbeitung in die Thematik mitbringen. Denn eine gründliche Einarbeitung in die Dokumentationen und Terminologien wird dringend empfohlen, auf deren Basis eine gemeinsame Vision und Verständnis für technische Grundlagen entwickelt werden könne. So könnten auch die Möglichkeiten für eine Umsetzung der Strategien und Visionen von Ökosystemen realistisch eingeschätzt werden. Die nationalen und domänenspezifischen Gaia-X Hubs bieten eine Anlaufstelle, um die Einarbeitung und den Austausch mit anderen Interessierten zu erleichtern.

Im Rahmen der Arbeiten am Praxispilot stellten die Beteiligten fest, dass die Rollenverteilung und rollenspezifische Mechanismen in der Gaia-X-Spezifikation weiter detailliert und ausgebaut werden sollten. Insbesondere sollte mehr Transparenz für kleine und mittlere Unternehmen (KMU) bei der Umsetzung von Gaia-X-Netzwerken geschaffen werden. Ebenso sei es wichtig, dass die Inhalte der Gaia-X-Dokumente und Aktivitäten vor allem noch KMU-orientierter gestaltet werden. Gaia-X solle auch KMU-freundlichere Technologien und Methoden berücksichtigen. In diesem Zusammenhang sollte insbesondere die Partizipation und Zusammenarbeit der beteiligten Stakeholder überdacht und optimiert werden. Begleitend sei es mit diesem Hintergrund hilfreich, vielleicht sogar notwendig, dass Transferinitiativen des Mittelstands die Inhalte niederschwellig für KMU aufbereiten und vermitteln, um sie so besser auf eine Beteiligung vorzubereiten und die möglichen Vorteile zu verdeutlichen. Auf diese Weise könne Gaia-X auch bei KMU als strategische Option weiterentwickelt werden.

Ansprechpartnerin Presse:
Juliane Segedi
Presse und Öffentlichkeitsarbeit
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2343
juliane.segedi@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Holger Kett
Leiter Team Digital Business Services
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-2415
holger.kett@iao.fraunhofer.de

Sandra Frings
Digital Business Services
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-2460
sandra.frings@iao.fraunhofer.de

Originalpublikation:
http://publica.fraunhofer.de/dokumente/N-645791.html

Praxisorientierter Einstieg für Service-Anbieter in digitale Wertschöpfungsnetzwerke
Gaia-X am Beispiel des Praxispiloten »KI-gestützte Energieoptimierung in der Produktion«

Autor(en): Frings, Sandra; Kett, Holger; Härle, Julia; Meyer, Olga; Schel, Daniel; Himmelsbach, Timo; Halckenhäußer, André; Schleimer, Anna Maria; Spiekermann, Markus; Tordy, Robert; Junge, Jörg; Mordvinova, Olga; Waguet, Cyrille; Mietzner, Rudolf

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/praxiseinstieg-in-d…
https://cloud-mall-bw.de/

(nach oben)


Kohlenstoffspeicherung in Küstenökosystemen verbessern

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Forschungsverbund sea4soCiety unter Beteiligung der LUH untersucht innovative Ansätze zur klimaregulierenden Wirkung in Deutschland und in den Tropen

Küstenökosysteme wie Mangrovenwälder, Seegraswiesen oder Algenwälder speichern riesige Mengen an Treibhausgasen aus der Atmosphäre. Das natürliche Potenzial der Kohlenstoffspeicherung in diesen vegetationsreichen Küstenökosystemen kann aber noch stark verbessert werden: Das ist das Ziel des Forschungsverbundes sea4soCiety, das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird. Durch die Aufnahme von Kohlenstoff leisten diese Küstenbereiche einen entscheidenden Beitrag dafür, den Klimawandel zu bremsen. Maritime Ökosysteme können deutlich mehr Kohlenstoff speichern als Wälder an Land. Der gesamte Kohlenstoff, der in küstennahen Ökosystemen gespeichert ist, wird als blauer Kohlenstoff bezeichnet.

sea4soCiety will untersuchen, wie das Potenzial der Kohlenstoffspeicherung in diesen Küstenbereichen vergrößert werden kann, etwa durch Flächenerweiterungen. Dafür sollen in der dreijährigen Förderphase bis 2024 innovative und gesellschaftlich akzeptierte Ansätze entwickelt werden. Zusammengetan haben sich neun Forschungsinstitute (Koordination: Prof. Dr. Martin Zimmer, Leibniz-Zentrum für Marine Tropenforschung – ZMT). Die Leibniz Universität Hannover (LUH) ist mit dem Ludwig-Franzius-Institut für Wasserbau und Ästuar- und Küsteningenieurwesen beteiligt. Der Forschungsverbund wird die Speicherkapazität für blauen Kohlenstoff in vier verschiedenen Arten von Küstenökosystemen – Seegraswiesen, Mangroven, Algenwälder und Salzmarschen – an den deutschen Nord- und Ostseeküsten, in der Karibik und an indonesischen Küsten untersuchen und bewerten.

Die Wissenschaftlerinnen und Wissenschaftler des Ludwig-Franzius-Instituts untersuchen im Projekt schwerpunktmäßig, wie stabil diese Ökosysteme sind, wenn klimawandelbedingt häufigere und stärkere Stürme und Wellen auftreten werden. Wie beständig bleibt diese Ressource in der Zukunft? Zudem forschen sie an Co-Nutzungen, also ob etwa Algenwälder oder Seegraswiesen zuverlässig als Wellenbrecher fungieren können. „Wir planen Feldkampagnen in Deutschland und in den Tropen, holen aber auch Pflanzen ins Labor“, erläutert PhD Maike Paul vom Ludwig-Franzius-Institut.

Der Schwerpunkt der hannoverschen Forschenden liegt auf den Braunalgen und dem tropischen Seegras, das im Gegensatz zum europäischen Seegras noch recht unerforscht ist. „Wir schauen uns unter anderem die Strömungsverhältnisse an“, sagt Paul. Diese Messungen können Aufschluss darüber geben, welche Strömungen diese Pflanzen überstehen. Wichtig für Neuansiedlungen sei zum Beispiel, zu verstehen, unter welchen Bedingungen kleine Pflanzen überleben. „Diese Belastungsgrenzen wollen wir im Labor untersuchen.“ Die Pflanzen werden hier experimentell an zukünftig eintretende klimatische Bedingungen akklimatisiert. Für Sommer 2022 ist aber auch die erste Feldkampagne in Braunalgenwäldern bei Helgoland unter Beteiligung der Universität Bremen und der Universität Kiel mit ihrem Forschungsschiff geplant.

Andere Partner im Projekt sea4soCiety untersuchen weitere Teilaspekte der Verbesserung des natürlichen Potenzials der blauen Kohlenstoffspeicherung. So forscht die Universität Hamburg etwa partizipativ an der gesellschaftlichen Akzeptanz von Maßnahmen in den Küstenökosystemen.

sea4soCiety ist Teil der Forschungsmission „Marine Kohlenstoffsenken in Dekabonisierungspfaden (CDRmare)“ der Deutschen Allianz Meeresforschung (DAM). Ziel ist es, die Meere als Kohlenstoffspeicher weiter zu erforschen. Insgesamt untersuchen rund 200 Forschende in sechs Verbundprojekten, wie die klimaregulierende Bremswirkung des Ozeans in Zukunft verstärkt werden kann. sea4soCiety ist eines der sechs seit August 2021 geförderten Projekte. Mehr Informationen zur Forschungsmission unter http://www.allianz-meeresforschung.de/news/klimawandel-mit-ozean-effektiver-begrenzen/ und unter https://cdrmare.de/

Für weitere Informationen steht Ihnen PhD Maike Paul, Ludwig-Franzius-Institut, unter Telefon +49 511 762 2584 oder per E-Mail unter paul@lufi.uni-hannover.de gern zur Verfügung.

(nach oben)


Übergewicht vorbeugen

SRH Hochschule für Gesundheit Marketing / PR
SRH Hochschule für Gesundheit
Prof. Dr. Dorothea Portius von der SRH Hochschule für Gesundheit klärt über Ursachen von Übergewicht und Adipositas auf.

Fettleibigkeit, auch als Adipositas bezeichnet, stellt heutzutage eine große gesundheitliche Herausforderung dar – eine, die in den letzten Jahrzehnten stetig gewachsen ist. Allein in Deutschland sind rund zwei Drittel der Männer und die Hälfte der Frauen übergewichtig (BMI über 25) bzw. adipös (BMI über 30), wie eine Studie des Robert-Koch-Instituts ergab. Die Weltgesundheitsorganisation spricht sogar von einer Adipositas-Epidemie in Europa. Prof. Dr. Dorothea Portius, Studiengangsleiterin im Bachelor-Studiengang Ernährungstherapie und -beratung am Campus Gera der SRH Hochschule für Gesundheit, erklärt: „Man nahm an bzw. so denken immer noch einige Wissenschaftler:innen und Ärzt:innen, dass die Ursache der Epidemie sehr einfach sei: Konsum zu vieler Kalorien + bewegungsarmer Lebensstil = Übergewicht. Doch die Forschung der letzten Jahre hat gezeigt, dass die Gründe für Übergewicht viel komplizierter sind. Natürlich spielen die Nahrungsaufnahme und Bewegung eine entscheidende Rolle, aber der Vorgang ist viel komplexer als nur ‚Energie rein‘ versus ‚Energie raus‘.“

Demnach tragen Umweltfaktoren, der Lebensstil und die Nahrungsmittelindustrie wesentlich zu dem Problem bei. Konkret verweist Prof. Portius auf fünf hauptsächliche Ursachen: Diäten, chronischen Stress, Schlafmangel, das Darmmikrobiom sowie Umweltgifte. So kann etwa der Kampf gegen die Gewichtszunahme für viele Übergewichtige zu einem Teufelskreis werden, wenn sie die Kalorienzufuhr für eine Weile einschränken und dann den Jo-Jo-Effekt erleben: Gewichtsabnahme gefolgt von Gewichtszunahme, und das immer wieder. Dieser stetige Gewichtswechsel kann zu einer Verringerung der Stoffwechselrate führen, einer erheblichen Hürde, wenn man versucht, Pfunde loszuwerden. Extreme Crash-Diäten mit einer enormen Drosselung der Kalorienzufuhr führen letztendlich dazu, dass der Körper den Stoffwechsel lahmlegt. Dies wiederum begünstigt, dass man nach einer Diät wieder leichter an Gewicht zulegt.

Der Zusammenhang zwischen Stress und Übergewicht liegt vor allem in Hormonen, insbesondere dem Stresshormon Cortisol. Stetig hohe Cortisolwerte steigern den Appetit. Emotionales Essen – sich bei Anspannung, Stress, Angstzuständen und Depressionen an Komfortnahrung zu bedienen – kann ebenfalls Teil dieses Musters werden. Prof. Portius empfiehlt daher, durch tägliche Bewegung und andere Anti-Stress-Methoden wie Meditation zur Ruhe zu kommen und dem Körper eine Auszeit zu geben. Untersuchungen haben auch gezeigt, dass es einen klaren Zusammenhang zwischen Schlafmangel und Fettleibigkeit gibt. Personen, die sechs oder weniger Stunden schlafen, haben demnach ein größeres Risiko für Fettleibigkeit. Doch nicht nur die Schlafdauer, auch die Schlafqualität spielt hier eine wichtige Rolle. Alkohol, schwere späte Mahlzeiten, langes Fernsehen, Arbeiten bis kurz vor das Schlafengehen oder zu wenig Bewegung können Ursachen für eine verminderte Schlafqualität sein.

Darüber hinaus zeigen neuere Studien, dass Veränderungen des Mikrobioms, d. h. der Population von Bakterien und anderen Mikroorganismen in und auf unserem Körper, eine Rolle bei der Entwicklung von Übergewicht spielen. Eine Ernährung bestehend aus wenig Ballaststoffen, vielen Einfachzuckern, ungesunden Fetten und Zusatzstoffen, schädigt unsere Darmflora und Darmbarriere. Daher sollte häufiger zu präbiotischen Lebensmitteln wie Hülsenfrüchten, Rohkost und Vollkorngetreide sowie probiotischen Lebensmitteln wie Sauerkraut und Naturjoghurt gegriffen werden. Weiterhin kommen wir täglich mit Hunderten von Chemikalien in Kontakt, darunter etwa Shampoo, Baumaterialien und Haushaltsreiniger. Die Chemikalien Bisphenol A und Phthalate zählen zur Gruppe der endokrinen Disruptoren, welche häufig mit Fettleibigkeit in Verbindung gebracht werden. Es gibt jedoch einige Möglichkeiten, wie der Kontakt mit diesen Chemikalien minimiert werden kann, z. B. die Verwendung von Glas- und Edelstahlbehältern anstelle von Kunststoff sowie natürliche Schönheitsprodukte.

Mehr zum Thema Ernährung erfahren Interessierte im März im Rahmen des Themenmonats „Food and Mood – Wie Ernährung unser Wohlbefinden beeinflusst“ an der SRH Hochschule für Gesundheit.
Alle Veranstaltungen unter https://www.srh-gesundheitshochschule.de/srh/events/

Wissenschaftliche Ansprechpartner:
https://www.srh-gesundheitshochschule.de/unsere-hochschule/hochschulteam/dorothe…

(nach oben)


Starke Kooperation von Universität in Koblenz, Hochschule Koblenz und Bundesanstalt für Gewässerkunde vereinbart

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Die Universität Koblenz-Landau, die Hochschule Koblenz und die Bundesanstalt für Gewässerkunde wollen noch enger im Bereich Wasser zusammenarbeiten. Dazu schlossen die drei Einrichtungen nun ein Kooperationsabkommen.

In diesem Kooperationsabkommen vereinbaren die drei Institutionen eine engere Zusammenarbeit auf verschiedenen wissenschaftlichen Gebieten. Mit dem Abkommen sollen unter anderem der freie Austausch von Erkenntnissen sowie Daten gefördert und gemeinsame wissenschaftliche Projekte unterstützt werden. Studierende und Mitarbeitende der drei Einrichtungen profitieren unmittelbar: So wollen die drei Einrichtungen zukünftig vermehrt gemeinsame Bachelor-, Master- und Doktorarbeiten ermöglichen und den Zugang zu den jeweiligen Bibliotheken vereinfachen. Die Kooperationsvereinbarung beinhaltet zudem die gegenseitige Nutzung von Groß- und Laborgeräten.

Neuer Studiengang „Gewässerkunde und Wasserwirtschaft“
Herzstück der Kooperation sind Vereinbarungen, die Lehrangebote für gemeinsame Studiengänge ermöglichen. Die Planungen für einen von der Universität in Koblenz, Hochschule Koblenz und der Bundesanstalt für Gewässerkunde getragenen Bachelor- sowie Master-Studiengang sind bereits weit fortgeschritten. Der Studiengang „Gewässerkunde und Wasserwirtschaft“ soll voraussichtlich im Wintersemester 2023/2024 starten.

Der Studiengang beinhaltet aktuelle Themen: Der Klimawandel, der Eintrag von Spurenstoffen in Gewässer, eine alternde Wasserverkehrs-Infrastruktur und veränderte gesellschaftliche Ansprüche stellen die Gewässer-Ökosysteme überall und die Wasserstraßen vor große Herausforderungen. Zur Bewältigung und Lösung der drängenden Aufgaben wird eine neue Generation interdisziplinär ausgebildeter Wasser-Expert/-innen benötigt. Der Koblenzer Wasserstudiengang ist durch die Beteiligung der Bundesanstalt für Gewässerkunde, einer Ressortforschungseinrichtung des Bundes, etwas Besonderes und kombiniert die Wasser-Expertise der drei beteiligten Einrichtungen.

„Der neue Studiengang erweitert das attraktive Studien-Angebot der Universität in Koblenz um ein innovatives, zukunftsweisendes Fach mit exzellenten beruflichen Perspektiven. Unsere Kooperation stellt eine Bereicherung für die im Bereich Wasser Forschenden, die Studierenden sowie Absolventen der Gewässerkunde und Wasserwirtschaft dar. Darüber hinaus bilden wir Fachkräfte aus, die dem Klimawandel entgegenwirken können“, betont Prof. Dr. Stefan Wehner, Vizepräsident für Koblenz der Universität Koblenz-Landau.

„Die Kooperation ist eine großartige Möglichkeit, den Wissenschaftsstandort Koblenz im Bereich der Hydrologie, der Gewässerkunde und Wasserwirtschaft zu positionieren und die fachliche Expertise der drei Einrichtungen zu bündeln“, erklärt der scheidende Präsident der Hochschule Koblenz, Prof. Dr. Kristian Bosselmann-Cyran.

„Wir engagieren uns seit Jahren mit zwei Professuren in der Lehre der Universität Koblenz-Landau und haben ausgezeichnete Erfahrungen mit in unserem Haus betreuten Absolventen gesammelt. Durch die Kooperation bauen wir zudem unsere Beratungskompetenz rund um die Bundeswasserstraßen weiter aus. Der geplante Studiengang ist eine große Chance für uns, hervorragend ausgebildete Fachkräfte zu gewinnen“, sagt die Leiterin der BfG, Direktorin und Professorin Dr. Birgit Esser.

Weitere Informationen:
http://Dr. Sebastian Kofalk, Pressesprecher, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5000, E-Mail: presse@bafg.de

(nach oben)


Zwei Extreme zur gleichen Zeit: Niederschläge entscheiden, wie oft Dürren u. Hitzewellen gemeinsam auftreten werden

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Langanhaltende Dürren und Hitzewellen haben negative Folgen für Mensch und Umwelt. Treten beide Extreme zur gleichen Zeit auf, können die Auswirkungen zum Beispiel in Form von Waldbränden, Baumschäden und Ernteverlusten noch gravierender ausfallen. Klimaforscher des UFZ haben nun herausgefunden, dass unter Annahme eines globalen Temperaturanstiegs von zwei Grad im Zuge der Erderwärmung die Häufigkeit dieser gleichzeitig auftretenden Extremereignisse vor allem durch lokale Niederschlagstrends bestimmt wird. Das zu wissen ist wichtig, weil man so die Risikoanpassung an den Klimawandel und die Abschätzung seiner Folgen verbessern kann, schreiben sie in der Fachzeitschrift Nature Climate Change.

Dass sich infolge der globalen Erwärmung über den Landmassen die Temperaturen erhöhen werden und dies die Häufigkeit von Dürreperioden und Hitzewellen zunehmen lässt, gilt als gesichert – genauso wie die Tatsache, dass sich durch den Klimawandel die durchschnittliche Niederschlagsmenge an Land verändert. Unklar war aber bislang, unter welchen Konstellationen beide Extremereignisse gemeinsam auftreten, als sogenannte „compound hot-dry-events“. Als solche Ereignisse definierten die UFZ-Forscher Sommer, in denen die Durchschnittstemperatur höher war als in 90 Prozent der Sommer zwischen den Jahren 1950 und 1980 und der Niederschlag gleichzeitig geringer ausfiel als in 90 Prozent der Fälle im selben Vergleichszeitraum. „In der Vergangenheit wurden Dürreperioden und Hitzewellen oft separat betrachtet, doch tatsächlich sind beide Ereignisse stark korreliert, was man zum Beispiel an den beiden Extremjahren 2003 und 2018 sehen kann. Die negativen Folgen dieser kombinierten Extreme sind dann oft größer als nur bei einem Extrem“, sagt der UFZ-Klimaforscher Dr. Jakob Zscheischler, Letztautor der Studie. Doch wovon das gleichzeitige Auftreten dieser Extreme in der Zukunft genau abhängt, war bislang nicht bekannt – zu groß waren die Unsicherheiten, die die Forschung bei der Simulation bisheriger Klimamodelle in Kauf nehmen musste, um zu robusten Aussagen zu kommen.

Die Forscher nutzten nun ein neues, aus sieben Klimamodellen bestehendes Modellensemble, um diese Unsicherheiten zu reduzieren. Darin wurde jede Modellsimulation bis zu 100 Mal durchgeführt, um die natürliche Klimavariabilität abzudecken. Sie betrachteten den historischen Zeitraum der Jahre 1950 bis 1980 und verglichen die Ergebnisse mit denen eines potenziellen um zwei Grad wärmeren Klimas (im Vergleich zum vorindustriellen Niveau). „Der Vorteil dieser Mehrfachsimulationen besteht darin, dass wir einen viel größeren Datenumfang als bei herkömmlichen Modellensemblen haben und daher kombinierte Extreme besser abschätzen können“, erklärt Dr. Emanuele Bevacqua, Erstautor und ebenfalls Klimaforscher am UFZ. Bestätigen konnten die Forscher mit der Modellierung die bisherige Annahme, dass die durchschnittliche Häufigkeit gleichzeitiger Dürre- und Hitzeereignisse künftig zunimmt: Lag diese zwischen 1950 und 1980 noch bei 3 Prozent, was statistisch gesehen alle 33 Jahre auftritt, wird sie in einem zwei Grad wärmeren Klima rund 12 Prozent betragen. Das wäre eine Vervierfachung im Vergleich zum historischen Zeitraum.

Neu ist nun, dass die Klimaforscher durch die Simulationen feststellen konnten, dass es nicht Temperatur-, sondern Niederschlagstrends sind, die über die Häufigkeit gleichzeitiger Dürre- und Hitzeereignisse in Zukunft entscheiden. Der Grund: Selbst bei einer moderaten Erwärmung von zwei Grad wird der lokale Temperaturanstieg so groß sein, dass künftig alle Dürren überall auf der Welt mit Hitzewellen einhergehen, unabhängig, um wie viel Grad genau sich lokal die Temperatur verändert. Die Unsicherheit in der Häufigkeitsvorhersage lag nur bei 1,5 Prozent. Damit scheidet die Temperatur als entscheidende Dimension für die Unsicherheit aus. Anders der Niederschlag, für den die Forscher eine Unsicherheit von bis zu 48 Prozent berechneten: „Damit entscheidet die lokale Niederschlagsmenge, ob gleichzeitig Dürreperioden und Hitzewellen auftreten werden“, bilanziert Emanuele Bevacqua. Für Zentraleuropa bedeutet das zum Beispiel in der Prognose, dass im Fall eines „feucht“- Szenarios mit Zunahme des Niederschlags im Schnitt alle zehn Jahre gleichzeitige Dürreperioden und Hitzewellen auftreten, im Falle eines „trocken“-Szenarios bei abnehmenden Niederschlägen dagegen mindestens alle vier Jahre. Für Zentral-Nordamerika würden solche Ereignisse alle neun Jahre („feucht“-Szenario) und sechs Jahre („trocken“-Szenario) erwartet. Diese regionalen Szenarien der Niederschlagstrends können als Grundlage für Anpassungsentscheidungen genutzt werden, um zum Beispiel Best- und Worst-Case-Szenarien zu evaluieren.

Doch auch wenn man weiß, dass Niederschlagstrends maßgebend sind für das Auftreten von gleichzeitigen Dürren und Hitzewellen, ist es immer noch schwierig, sie sicherer vorherzusagen: „Durch den Klimawandel kann sich die Verteilung von Niederschlägen in bestimmten Regionen verschieben. Das Niederschlagsregime hängt von der atmosphärischen Zirkulation ab, die durch Wechselwirkungen über große Teile des Erdballs die regionale Wetterdynamik bestimmt “, sagt Emanuele Bevacqua. Weil die Dynamik vieler dieser Prozesse noch nicht vollständig verstanden ist, ist es schwer, diese Unsicherheiten weiter zu reduzieren.

Die Erkenntnis, dass ein Trend einer Variablen das künftige Auftreten von zwei gleichzeitigen Extremereignissen bei einem globalen Temperaturanstieg von zwei Grad bestimmt, lässt sich auch bei anderen kombinierten Extremen nutzen. Das gilt zum Beispiel für das Zusammenwirken von tropischen Stürmen und Hitzewellen oder in den Ozeanen von marinen Hitzewellen und der Versauerung. „Dort ist jeweils der Trend in der Sturmfrequenz oder der Ozeanversauerung der entscheidende Faktor, der über das gleichzeitige Auftreten der beiden Extremereignisse in Zukunft entscheidet“, sagt Jakob Zscheischler.

Wissenschaftliche Ansprechpartner:
Dr. Jakob Zscheischler
UFZ-Department Hydrosystemmodellierung
jakob.zscheischler@ufz.de

Originalpublikation:
Emanuele Bevacqua, Giuseppe Zappa, Flavio Lehner, and Jakob Zscheischler: Precipitation trends determine future occurrences of compound hot-dry events; Nature Climate Change,
https://doi.org/10.1038/s41558-022-01309-5

(nach oben)


Zwischen Datenschutz und Vertrauen – wenn das Auto zu viel weiß

Sandra Sieraad Medien und News
Universität Bielefeld
Chatbots, intelligente Staubsauger, autonome Fahrzeuge: Smarte Produkte können das Leben in vielen Bereichen leichter machen und sind dabei, sich zu einem Milliarden-Markt zu entwickeln. Doch wo diese Technik im Einsatz ist, sammelt sie Daten – über Lebensgewohnheiten, Wohnungsgröße, Fahrstil und vieles mehr. Wer bekommt diese Daten? Und was wird mit ihnen gemacht? Können Nutzer*innen solchen Produkten vertrauen? Diese Fragen stehen im Mittelpunkt der Tagung „Smart Products, Privacy and Trust“ (Smarte Produkte, Privatsphäre und Vertrauen) vom 14. bis zum 16. März am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.

Veranstalter ist die interdisziplinäre Forschungsgruppe „Ökonomische und rechtliche Herausforderungen im Kontext intelligenter Produkte“. Die Tagung wird in hybrider Form abgehalten.

Die Forschenden bearbeiten das Thema aus verschiedenen Perspektiven. „Die Frage nach dem Vertrauen in diese relativ neue Technik muss aus dem Blickwinkel der technischen Möglichkeiten, des Marktes, aber auch der rechtlichen Bedingungen und der Psychologie angegangen werden“, sagt der Ökonom Professor Dr. Herbert Dawid (Universität Bielefeld). Er leitet die ZiF-Forschungsgruppe zusammen mit der Juristin Professorin Dr. Sabine Gless (Universität Basel) und dem Ökonom Professor Dr. Gerd Muehlheusser (Universität Hamburg).

Wie Systeme technisch sicher und datensparsam eingerichtet werden können, wird in den Vorträgen der Tagung ebenso diskutiert wie Zertifizierungsmöglichkeiten. „Schon die Frage, wieviel Transparenz nötig ist, um bei Nutzer*innen Vertrauen zu erzeugen, ist nicht leicht zu beantworten“, erklärt Sabine Gless. „Manche nehmen die Datenspeicherung für mehr Bedienungsfreundlichkeit in Kauf und bei ihnen müsste erst einmal das Bewusstsein dafür geweckt werden, dass es hier Probleme gibt. Andere sind sehr misstrauisch und verlangen strikte Regelungen.“

Zudem gibt es große Unterschiede zwischen den Geräten und Verfahren, die als „smart“ bezeichnet werden. „Ein Auto, das selbst die Spur halten kann und Daten über den individuellen Fahrstil sammelt, ist etwas ganz anderes als ein Algorithmus, der bei Gerichtsverhandlungen zum Einsatz kommen könnte“, so Gerd Muehlheusser. „Noch einmal eine ganz andere Herausforderung ist es, Firmen zu ermöglichen, untereinander Daten zu teilen, um ihre Produkte zu verbessern, ohne Datenschutz und Firmengeheimnisse zu vernachlässigen.“

Sicher ist nach Ansicht der Forschenden: Auf die Dauer werden sich smarte Produkte nur etablieren können, wenn diese Fragen geklärt werden und Nutzer*innen darauf vertrauen können, sich mit der intelligenten Technik keine digitalen Spione ins Haus zu holen oder am Arbeitsplatz mit heimlichen digitalen Aufpassern konfrontiert zu sein. „Mit dieser Tagung möchten wir Wege aufzuzeigen, wie ein vertrauenswürdiger Umgang mit den Daten, die smarte Produkte generieren und sammeln, aussehen könnte“, sagt Herbert Dawid.

Die Tagung findet im hybriden Format in englischer Sprache statt. Journalist*innen sind herzlich eingeladen, über die Veranstaltung zu berichten. Eine Anmeldung ist erforderlich bei: smart-products@uni-bielefeld.de. Die Tagungsleiter*innen stehen für Medienanfragen zur Verfügung.

Wissenschaftliche Ansprechpartner:
Nadine Sutmöller, Universität Bielefeld
Zentrum für interdisziplinäre Forschung (ZiF)
Telefon 0521 106-12836
E-Mail: smart-products@uni-bielefeld.de

Weitere Informationen:
https://www.uni-bielefeld.de/(de)/ZiF/FG/2021SmartProducts/Events/03-14-Dawid.ht… Website der Forschungsgruppe
https://ekvv.uni-bielefeld.de/blog/pressemitteilungen/entry/wenn_die_kaffeemasch… Pressemitteilung zum Start der Arbeitsgruppe

(nach oben)


Pandemiegefahren sicher simulieren

Elena Hungerland Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Studie testet Verhaltensinterventionen in einem Spiel-Experiment

Kann risikoreiches Verhalten in der Pandemie untersucht werden, ohne Proband*innen zu gefährden? Um gefahrlos die Wirksamkeit von Gesundheitsmaßnahmen untersuchen zu können und die Übertragunsdynamik von Viren zu simulieren, entwickelten Wissenschaftler*innen der University of Plymouth, UK, der IESE Business School in Spanien und des Max-Planck-Instituts für Bildunsgforschung ein spielerisches Online-Experiment. Ihre Befunde sind im Fachjournal Science Advances erschienen.

Seit Ausbruch der Corona-Pandemie muss man sich weltweit auf die Akzeptanz nicht-pharmazeutischer Interventionen verlassen, wie das Tragen von Masken oder Abstand Halten, die während der gesamten Pandemie unsere Sicherheit erhöhen konnten. Diese Maßnahmen spielen selbst nach dem Einsatz von Impfstoffen weiterhin eine wichtige Rolle. Wissenschaftlich ist belegt, dass Masken und körperliche Distanz die Verbreitung des Virus eindämmen können. Bei diesen Maßnahmen stehen jedoch individuelle Eigeninteressen – der Wunsch nach einem sozialen Leben, die Unannehmlichkeit des Tragens einer Maske – dem Gemeinwohl entgegen.

Eine internationale Studie aus Deutschland, Großbritannien und Spanien konnte zeigen, dass es möglich ist, die Effektivität von Maßnahmen zur Pandemiebekämpfung zu testen. Insgesamt 700 US-Amerikaner*innen spielten Varianten eines Online-Spiels für jeweils 100 Mitspieler*innen, in denen die Übertragung eines Virus simuliert wurde. Die Forschenden entwickelten einen neutralen Forschungsrahmen, ohne die Erwähnung von Masken, Maßnahmen oder medizinischen Begriffen. Sie entwickelten ein Spiel, das drei zentrale Elemente einer Pandemie umsetzt: das schwierig vorherzusehende Potenzial für exponentielles Wachstum in Fallzahlen, das soziale Dilemma zwischen Eigennutz und kollektivem Risiko und die Akkumulation von kleinen Übertragungsrisiken.

100 Spielende starten dieses Spiel im blauen Zustand (gesund), bevor acht Spieler*innen zufällig ausgewählt werden und sich in einem ersten Ausbruch violett (infiziert) verfärben. Im gesamten Spielverlauf kennen die Spielenden ihre eigene Farbe nicht. In 25 Runden wählen sie jeweils zwischen zwei möglichen Handlungen: G (die sicherere Alternative mit einer möglichen Belohnung von acht Punkten, stellvertretend für das Tragen von Masken oder Abstand Halten) und H (die riskantere Alternative mit einer möglichen Belohnung von 40 Punkten). Die mögliche Belohnung steht stellvertretend für das persönliche Wohlbefinden, beziehungsweise das eigennützige Interesse.

Spielende, die zufällig mit einem violetten Spielenden gepaart werden, laufen Gefahr, selbst violett zu werden, mit einer Übertragungswahrscheinlichkeit zwischen 0,05 und 0,25. Das bedeutet, dass bei 20 Begegnungen im Schnitt zwischen einer und fünf Übertragungen passieren, je nach gewählter sicherheitsvorkehrender Aktion. Dieser Wahrscheinlichkeitswert wird von der Wahl der Handlungsalternativen (G oder H) von beiden Spielenden bestimmt. Nach 25 Runden erhalten nur jene Spielenden eine finanzielle Belohnung, die bis zum Ende blau, also „gesund“ geblieben sind. Wenn mehr Spielende also „infiziert“ werden, erhalten weniger Spielende eine Bezahlung. Die Höhe der Bezahlung steigt mit den gesammelten Punkten.

In der Studie wurde die Wirksamkeit von fünf Interventionen zur Verringerung von Risikoverhalten im Vergleich zu einer Situation ohne Intervention getestet. Die Interventionen, die mit einer moralischen Botschaft verbreitet wurden, erwiesen sich als am effektivsten. Die Durchführung von zahlreichen Spieldurchläufen mittels Computersimulation oder die Darstellung der möglichen Konsequenzen einer anfänglichen Infektion zeigten ebenfalls Erfolg. Hingegen erwies sich die Präsentation von erwarteten Fallzahlen für die aktuelle Runde als ineffektiv: Teilnehmende schienen nicht in der Lage, das exponentielle Wachstum der Übertragungen vorauszuahnen. Es mag überraschen, dass Informationen über die Handlungen anderer (beispielsweise die Beschreibung, wie oft andere Masken trugen) im Experiment sogar zu einer höheren Risikobereitschaft und zu damit verbundenen negativen Konsequenzen führte. An dieser Stelle ist es wichtig zu betonen, dass der neutrale Kontext hier verhindern konnte, dass dieses Ergebnis realweltliche Gesundheitskonsequenzen haben konnte.

Die Ergebnisse zeigen, dass nichts so effektiv ist, wie die Kommunikation einer klaren Regel in Kombination mit einer überzeugenden moralischen Begründung. Sie deuten auch darauf hin, dass manche Personen sich selbst und andere trotz allem immer aus eigennützigem Interesse einem Risiko aussetzen. Gleichzeitig gibt es aber eine deutliche Anzahl von Menschen, die mit der richtigen Intervention davon überzeugt werden können, weniger Risiken einzugehen. Das erlangte Wissen aus dem beobachteten Verhalten während des Simulations-Experiments kann Konsequenzen für reale Bedingungen haben: die Verlangsamung der Übertragung des Virus sowie die Entlastung von Gesundheitssystemen.

„Nichtpharmazeutische Interventionen – so wie das Tragen von Masken, das Einhalten von Abstand oder die Reduzierung von Kontakten – benötigen weitreichende Verhaltensänderungen. Die Verhaltenswissenschaften bieten Hilfsmittel an, um die inviduelle Akzeptanz der Maßnahmen zu verbessern. Die relative Effektivität dieser Methoden wurde hingegen selten in kontrollierten, experimentellen Szenarios getestet, die die Dynamik von Virusausbrüchen reflektieren. Was an diesem Forschungsrahmen besonders hervorzuheben ist, ist die Tatsache, dass er es ermöglicht, Interventionen auf sichere Weise zu testen, bevor sie mit möglichen gesundheitlichen Folgen für die Teilnehmenden tatsächlich umgesetzt werden“, erklärt Jan Woike, Associate Research Scientist am Forschungsbereich Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung und Erstautor der Studie.

„Die nächste Corona-Variante oder die nächste Pandemie warten möglicherweise in der Zukunft. Politische Entscheider*innen müssen wissen, welche Interventionen am effektivsten sind, um sozial vorteilhaftes Verhalten zu verstärken. Dieses Forschungsprojekt ist ein Schritt in die Richtung, diese Frage ohne Gefährdung der Teilnehmenden zu beantworten“, so Jan Woike weiter.

Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Originalpublikation:
Woike, J.K., Hafenbrädl, S., Kanngiesser, P., & Hertwig, R. (2022). The Transmission Game: Testing behavioral interventions in a pandemic-like simulation. Science Advances. doi: 10.1126/sciadv.abk0428 https://www.science.org/doi/10.1126/sciadv.abk0428

Weitere Informationen:
https://www.mpib-berlin.mpg.de/pressemeldungen/pandemiegefahren-sicher-simuliere…

(nach oben)


Energiekrise: „Japan kann ein Vorbild sein“

Klaus Becker Corporate Communications Center
Technische Universität München
Der Krieg in der Ukraine hat enorme Auswirkungen auf die deutsche Energiepolitik und -wirtschaft. Im Interview erklären die Ökonomin Prof. Svetlana Ikonnikova und die Politologin Prof. Miranda Schreurs, an wem sich Deutschland in der Krise orientieren kann, wie der Einsatz von Flüssigerdgas und Wasserstoff zusammenhängen und welche Rolle eine geplante Pipeline zwischen Russland und China spielt.

Der politische Druck steigt, den Import von Gas, Öl und Kohle aus Russland zu stoppen. Es scheint nahezu unmöglich, dass Deutschland dies kurzfristig verkraften könnte. Gibt es Vorbilder, die einen plötzlichen Ausfall großer Teile der Energieversorgung bewältigt haben?

Miranda Schreurs: Nach dem Reaktorunfall von Fukushima hat Japan 2011 aus Sicherheitsgründen zunächst sämtliche Atomkraftwerke heruntergefahren, die rund 30 Prozent der Stromversorgung des Landes ausmachten. Japan kann ein Vorbild sein, weil es in dieser Situation unglaublich gut geschafft hat, Energie zu sparen. Es gab nicht nur einen Appell an die Privathaushalte, sondern auch Anordnungen und kreative Lösungen für Unternehmen und die öffentliche Infrastruktur: Firmen haben ihre Produktion in Tageszeiten mit geringem Stromverbrauch verlegt, Angestellte bekamen Anreize, Vorschläge für Effizienzsteigerungen zu machen, die Geschwindigkeit des Zugverkehrs wurde leicht gedrosselt. Alle haben angenommen, dass die 15 bis 20 Prozent des Stromverbrauchs, die so eingespart wurden, nur ein kurzfristiger Effekt sein würden, bis sich die Lage beruhigt hat. Aber Japan hat auch in den Folgejahren weiterhin rund 10 Prozent weniger verbraucht. Manche Maßnahmen wäre in Deutschland schwer umsetzbar, aber wir haben ja eigene Möglichkeiten, wie etwa ein Tempolimit auf Autobahnen. Genauso wichtig ist natürlich der schnelle Ausbau der erneuerbaren Energien.

Um zumindest einen Teil russischen Erdgases ersetzen zu können, will Deutschland LNG, also verflüssigtes Erdgas, importieren. Andere Länder setzen allerdings schon länger auf LNG. Kann Deutschland überhaupt größere Mengen beschaffen?

Svetlana Ikonnikova: Produktionskapazitäten sind weltweit in ausreichender Menge vorhanden, in den USA, in Australien, in mehreren afrikanischen Ländern, in Katar. Der größere Flaschenhals sind die Logistik und die Frage, ob es genügend Anlagen für die Verflüssigung und die Rückumwandlung gibt. Sprich, in welchem Zeitrahmen können wir dieses Gas in unsere Netze einspeisen, wenn wir es gekauft haben? Für die EU zeigt ein Modell, das wir am Center for Energy Markets der TUM errechnet haben, dass das russische Erdgas binnen sieben bis zehn Jahren ersetzt werden könnte, abhängig von der Dynamik des globalen Marktes – wobei Länder wie Frankreich und Spanien bereits deutlich weniger abhängig sind als Deutschland.

Die Bundesregierung hat angekündigt, Milliarden für LNG auszugeben. Investiert Deutschland damit in einen Energieträger, der eigentlich nur als Brückentechnologie für relativ wenige Jahre gedacht war?

Ikonnikova: Diese Frage wird sich am sogenannten blauen Wasserstoff, der mit der Spaltung von Erdgas gewonnen wird, entscheiden. Unser Modell prognostiziert, dass blauer Wasserstoff bis 2050 eine wichtige Rolle in der Industrieproduktion und als Energiespeicher spielen wird. Zum einen, weil er längere Zeit günstiger sein wird als grüner Wasserstoff, der mit Elektrolyse aus Wasser erzeugt wird, betrieben von erneuerbaren Energien. Zum anderen, weil für den grünen Wasserstoff die Infrastruktur und Logistik größtenteils erst noch aufgebaut werden muss. Auch hier wird Deutschland nicht um Importe herumkommen, wenn es Wasserstoff in großem Maßstab einsetzen will. Aber die Voraussetzungen sind gegeben, unter anderem weil Wasserstoff beispielsweise in Form von Ammoniak gespeichert werden kann, bei dem wir Erfahrung beim Transport haben.

Der Einsatz von Wasserstoff galt bislang als wenig rentabel.
Ikonnikova: Die Wirtschaftlichkeit einer Wasserstoffproduktion hängt davon ab, wo und wie der Wasserstoff genutzt wird und wie hoch der Preis für erneuerbare Energien ist, wenn wir von grünem Wasserstoff sprechen. Zum Beispiel wird ein Unternehmen, das eine Stahlproduktion mit Windkraft plant, den Wert von Wasserstoff als Energiespeicher berechnen wie auch dessen ökonomische Vorteile als Carbon-arme Quelle für die Erzeugung von Elektrizität oder Wärme. Bislang wurden diese Vorteile zumeist nicht als groß genug gesehen, um umzusteigen. Aber nach den jetzigen Erfahrungen ist es wahrscheinlich, dass Unternehmen eher bereit sind, in teurere, aber saubere Lösungen mit geringen geopolitischen Risiken zu investieren.

Schreurs: Nicht nur auf den Preis zu schauen, ist eine Lehre, die die Energiepolitik ziehen muss. Wasserstoff könnten wir theoretisch auch ausschließlich aus demokratischen Staaten beziehen, wenn wir bereit sind, höhere Kosten zu tragen. Aber es ist schon viel gewonnen, wenn wir uns nicht mehr dermaßen abhängig von einem einzelnen Staat machen, sondern jederzeit den Spielraum haben, auf einen Anbieter zu verzichten. Das ist möglich, wenn wir nicht mehr als 15 Prozent unserer Energie aus einem Land importieren.

Höhere Kosten kommen auch auf die Verbraucherinnen und Verbraucher zu, die Akzeptanz für die Energiewende könnte sinken. Wie kann die Politik zwischen Zwängen und Druck agieren?

Schreurs: Für viele Menschen war die Energiewende eine Frage des Klimawandels. Jetzt sehen wir, dass sie auch eine Frage von Freiheit und Demokratie ist. Wollen wir tatsächlich unser Geld in die Hände von Autokraten legen, die bereit sind, ein Atomkraftwerk zu bombardieren? Diesen Preis für Energie muss die Politik jetzt benennen, die Kommunikation über die Zusammenhänge stärker prägen. Darüber hinaus muss sie Armut aufgrund höherer Energiekosten verhindern. Schwieriger als bei den Strompreisen wird dies bei den Heizkosten. Möglich wäre, dass die Gebäudesanierung in Vierteln mit einkommensschwächerer Bevölkerung gezielter vorangetrieben wird.

Könnten diese Schritte das kurzfristige Ziel gegenüber Russland erreichen? Sprich, würde Russland ein Importstopp überhaupt treffen oder würden andere Handelspartner einspringen?

Ikonnikova: Vor rund zwei Jahren hat Russland den Bau einer weiteren Gaspipeline nach China beschlossen, die „Power of Siberia 2“. Die Besonderheit der Verbindung ist, dass sie das Yamal-Gasfeld mit China verbindet, aus dem Europa versorgt wird. Nach 2030 laufen viele Verträge europäischer Staaten mit Russland aus, weshalb Russland plante, seine Märkte breiter aufzustellen, um eine bessere Verhandlungsposition zu haben. Wenn jetzt der europäische Markt wegfällt, kann Russland mehr in asiatische Länder liefern, sobald die Pipeline einsatzbereit ist, was ab 2025 geplant ist. Betrachtet man die derzeitige ökonomische Entwicklung, gäbe es in Asien auch genug Bedarf, um das gesamte russische Gasangebot abzunehmen. Aber die große Frage ist, wie viel China und andere Länder überhaupt kaufen werden. Besonders China hat nämlich im Gegensatz zu vielen europäischen Staaten sehr genau darauf geachtet, sein Energie-Portfolio zu diversifizieren und kauft auch in den USA, Australien und Afrika, um eine Abhängigkeit von einem Exporteur zu vermeiden.

Wie kann die EU strategisch auf diese Entwicklungen reagieren?
Schreurs: In der Europäischen Union haben wir zwar gemeinsame Klimaziele, aber nur eine begrenzte Zusammenarbeit in der Energiepolitik. Die Staaten sollten sich dringend koordinieren, um eine EU-weite Infrastruktur zu entwickeln. Das umfasst Stromnetze und LNG-Terminals – aber beginnt an ganz praktischen Stellen: Wenn ich im Nachbarland mein Elektroauto nicht laden kann, wird die Verkehrswende nicht gelingen.

Zu den Personen:
Prof. Svetlana Ikonnikova, PhD, ist seit 2019 Professorin für Ressourcenökonomie an der TUM School of Management. Ein Schwerpunkt ihrer Forschung sind Modelle für die Energiewende und den Einsatz von Wasserstoff-Technologien, Gas- und Öl-Ressourcen und erneuerbaren Energien. Ikonnikova hat am Moskauer Institut für Physik und Technologie Angewandte Physik und Mathematik studiert und an der Berliner Humboldt-Universität in Wirtschaftswissenschaften promoviert. Neben ihrer Professur an der TUM ist sie Senior Energy Economist an der University of Texas, wo sie seit 2008 forscht.

Prof. Dr. Miranda Schreurs ist Professorin für Umwelt- und Klimapolitik an der TUM School of Social Sciences and Technology sowie an der Hochschule für Politik München (HfP). Sie forscht unter anderem zur Energiewende in Europa, den USA und Asien. Schreurs studierte an der University of Washington, promovierte an der University of Michigan und arbeitete an der Keio Universität in Japan, der Harvard University und der Freien Universität Berlin. Schreurs hat in mehreren Gremien die Bundesregierung beraten. Derzeit ist sie Co-Vorsitzende des Nationalen Begleitgremiums für das Standortauswahlverfahren eines Endlagers für hoch radioaktive Abfälle.

Wissenschaftliche Ansprechpartner:
Prof. Svetlana Ikonnikova, PhD
Technische Universität München
Professur für Ressourcenökonomie
Tel.: +49 89 289 28820
svetlana.ikonnikova@tum.de
https://www.ep.mgt.tum.de/cem/team/staff/ikonnikova/

Prof. Dr. Miranda Schreurs
Technische Universität München
Lehrstuhl für Umwelt- und Klimapolitik
Tel.: +49 89 907793 220
miranda.schreurs@hfp.tum.de
https://www.hfp.tum.de/environmentalpolicy

(nach oben)


Wie kann die Digitalisierung des Gesundheitssystems beschleunigt werden?

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)
Das Fraunhofer ISI hat im Auftrag der Expertenkommission Forschung und Innovation (EFI) das Voranschreiten der Digitalisierung im deutschen Gesundheitssystem untersucht und daraus Handlungsempfehlungen für die weitere Gestaltung abgeleitet. Im Fokus standen etwa der Umsetzungsstand von Gesetzesinitiativen, Datenschutz- und Cybersicherheitsaspekte sowie die Identifizierung von Innovationspotenzialen – unter anderem durch Vergleiche mit Dänemark, Estland, Spanien und Österreich, die bei der Digitalisierung ihrer Gesundheitssysteme allesamt besser abschneiden als Deutschland.

Nach vielversprechenden Anfängen fiel Deutschland seit der Jahrtausendwende bei der Digitalisierung seines Gesundheitssystems immer weiter zurück und zählte laut internationaler Studien zuletzt eher zu den Schlusslichtern im europäischen Vergleich. Als Ursachen für die verzögerte Digitalisierung gelten neben Interessenskonflikten der vielen beteiligten Akteursgruppen insbesondere Bürokratie, hohe Technologiekosten, Sicherheitsbedenken und regulatorische Unsicherheiten sowie fehlende Zuverlässigkeit der technischen Lösungen. Auf die nur mäßig fortschrittlichen Strukturen traf im Frühjahr 2020 die Corona-Pandemie, die eklatante Schwachstellen der digitalen Kommunikation zwischen den Akteursgruppen des Gesundheitswesens offenlegte und besondere finanzielle, zeitliche und personelle Ressourcen abverlangte – andererseits aber auch einen gewissen Handlungsdruck auslöste, um bei der Digitalisierung schneller als bisher voranzukommen.

Die aktuelle Studie setzt sich vor diesem Hintergrund mit den Ursachen der verzögerten Digitalisierung auseinander und erarbeitet Handlungsempfehlungen für die weitere Gestaltung. Methodisch basiert sie auf intensiven Literatur- und Internetrecherchen sowie auf Interviews mit 15 Vertreter:innen der zentralen Akteursgruppen des Gesundheitssystems. Um den Untersuchungsgegenstand besser zu erfassen, werden in der Studie fünf zentrale digitale Anwendungen betrachtet: die Telematikinfrastruktur und Telemedizin, die elektronische Patientenakte, digitale Gesundheitsanwendungen (sogenannte »Apps auf Rezept«) sowie das elektronische Rezept.

Gesetzesinitiativen zur Digitalisierung des Gesundheitswesens
Wie die Analyse zur Umsetzung von Gesetzesinitiativen zeigt, befassen sich allein sechs Gesetze des Bundesministeriums für Gesundheit (BMG) in der 19. Legislaturperiode mit der Digitalisierung des Gesundheitswesens und schafften Rahmenbedingungen für die Nutzung von Telemedizin, E-Patientenakte, E-Rezept oder Apps. So wurden mit dem Terminservice- und Versorgungsgesetz (TSVG) neben dem Ausbau von Terminservicestellen auch die Inhalte der elektronischen Patientenakte definiert und das BMG erhielt 51 Prozent der Gesellschafteranteile der gematik, der 2005 gegründeten Gesellschaft für Telematikanwendungen der Gesundheitskarte mbH, um schnellere und effektivere Entscheidungen herbeizuführen. Das Digitale-Versorgung-Gesetz (DVG) regelt unter anderem die Rechtsgrundlage für den Anspruch der Bürger:innen auf Versorgung mit digitalen Gesundheitsanwendungen. Mit den umfangreichen Investitionsprogrammen des Krankenhauszukunftsgesetzes (KHZG) soll die Digitalisierung der Krankenhäuser gefördert werden.

Eine weitere Untersuchung der Positionen zentraler Akteursgruppen des deutschen Gesundheitswesens zeigte, dass diese die Digitalisierung begrüßen, wenn dadurch nicht eigene Interessen gefährdet sind. In den Vergleichsländern Estland, Dänemark, Spanien und Österreich werden relevante Stakeholder:innen von Beginn an stärker bei der Implementierung von E-Health-Prozessen eingebunden – wodurch ihre Ansichten frühzeitig besser verstanden und ihre Mitarbeit, Unterstützung und Zustimmung zu den Ergebnissen des E-Health-Planungsprozesses besser gewährleistet wird.

Mehr Datenverarbeitung erfordert mehr Datenschutz und Datensicherheit
Die Studienautor:innen weisen zudem daraufhin, dass mit dem Ausbau der Telematikinfrastruktur und weiteren Anwendungen – etwa Videosprechstunden, digitalen zahnärztlichen Bonusheften oder digitalen Impfpässen – auch die Datenverarbeitung und damit der Datenschutz und die Datensicherheit an Bedeutung gewinnen. Allerdings wurden bisher kaum Möglichkeiten zur Vereinheitlichung und Konkretisierungen des Datenschutzes wahrgenommen. Zudem sind bei IT-Sicherheits- und Datenschutzfragen Verantwortlichkeiten teilweise unklar und wenig nachvollziehbar geregelt – etwa definiert die gematik als zentrale Instanz die Anforderungen an die Telematikinfrastruktur und kontrolliert auch deren Einhaltung, sie ist aber nicht für den Datenschutz verantwortlich. Umgekehrt sind die Regelungen für Apps tendenziell zu ambitioniert geregelt, denn diese müssen anhand eines umfangreichen Kriterienkatalogs auf Datenschutz und Sicherheit überprüft werden, was dazu führen kann, dass viele Apps die Anforderungen nicht erfüllen oder die Entwickler:innen den entsprechenden Aufwand scheuen.

Dr. Tanja Bratan, die am Fraunhofer ISI die Forschung im Rahmen des EFI-Berichts »E-Health in Deutschland: Entwicklungsperspektiven und internationaler Vergleich« koordinierte, äußert sich wie folgt zur weiteren Gestaltung der digitalen Transformation des deutschen Gesundheitssystems: »Nach langem Stillstand wurde mit den Gesetzesinitiativen der vergangenen Legislaturperiode eine wichtige Grundlage für die Beschleunigung der Digitalisierung des deutschen Gesundheitssystems gelegt. Um sie nun voranzutreiben, braucht es weitere politische Initiativen und Maßnahmen auf Ebene der Bundesländer, des Bundes und der EU, die zum Beispiel digitale Anwendungen in der Breite verfügbar machen und spürbare Mehrwerte der Digitalisierung in der Versorgung schaffen. Auf Basis unserer Studienergebnisse sehen wir unter anderem besonderen Handlungsbedarf beim Ausbau einer leistungsfähigen Breitbandinfrastruktur als Grundlage für die Digitalisierung, der Entwicklung einer E-Health-Strategie für Deutschland, einer besseren Vernetzung im gesamten Gesundheitssystem sowie einer deutlichen Verbesserung der IT-Sicherheit in Gesundheitseinrichtungen. Darüber hinaus sollte ein stetiges Monitoring die Umsetzung der Digitalisierung begleiten und in Reallaboren E-Health-Anwendungen erprobt werden. Aber auch die Aufklärung der Bevölkerung und die Verbesserung der digitalen Kompetenzen der Gesundheitsberufe sollte eine absolute Priorität zukommen.«

Wissenschaftliche Ansprechpartner:
Dr. Tanja Bratan
Leiterin des Geschäftsfelds Innovationen im Gesundheitssystem am Fraunhofer ISI
Telefon +49 721 6809-182
Mail: tanja.bratan@isi.fraunhofer.de

Originalpublikation:
„E-Health in Deutschland – Entwicklungsperspektiven und internationaler Vergleich“: https://www.e-fi.de/fileadmin/Assets/Studien/2022/StuDIS_12_2022.pdf

(nach oben)


Millionenförderung für Cybersicherheit

Hannah Fischer Dezernat Kommunikation
Otto-Friedrich-Universität Bamberg
Universität Bamberg beteiligt sich an neuem Forschungsverbund „ForDaySec – Sicherheit in der Alltagsdigitalisierung“.

„Der Cybersicherheit kommt für unsere freiheitliche Gesellschaft eine Schlüsselrolle zu. Die Digitalisierung durchdringt alle Lebensbereiche. Zugleich wächst die Bedrohung krimineller Angriffe auf die digitale Infrastruktur dramatisch“, erklärte Wissenschaftsminister Markus Blume anlässlich der Förderzugsage für den neuen Forschungsverbund „ForDaySec – Sicherheit in der Alltagsdigitalisierung“. Das Bayerische Wissenschaftsministerium fördert den Verbund von April 2022 bis März 2026 mit etwa 3,3 Millionen Euro.

Zielgerichtete Erforschung technischer Verfahren für die Cybersicherheit
Der neue Forschungsverbund will bestehende Aktivitäten im Bereich der Cybersicherheit stärker zusammenführen und vernetzen. Durch eine enge Zusammenarbeit beispielsweise mit Unternehmen oder Industrie- und Handelskammern wird außerdem der Transfer der Forschungsergebnisse in die Praxis gestärkt. Das Alleinstellungsmerkmal von „ForDaySec“ ist die zielgerichtete, interdisziplinäre Erforschung neuartiger technischer Verfahren für die Cybersicherheit privater Haushalte, kleiner und mittlerer Unternehmen (KMU) sowie der öffentlichen Verwaltung. Forscherinnen und Forscher aus Informatik, Soziologie und Rechtswissenschaft erarbeiten gemeinsam Technologien für die Absicherung des digitalen Alltags. Mit diesem Ziel erforscht „ForDaySec“ neben Lösungen zur Erhöhung der Sicherheit für Hard- und Software spezielle Sicherheitskonzepte, die ohne Spezialwissen leicht einsetzbar sein sollen und zugleich die Aspekte des technischen Datenschutzes beachten. Bestandteil der Forschung sind dabei auch rechtswissenschaftliche Arbeiten zu Update-Pflichten sowie soziologische Untersuchungen zur Nutzung von Technik in der alltagspraktischen Anwendung.

Dominik Herrmann von der Universität Bamberg ist am Projekt beteiligt.
Prof. Dr. Stefan Katzenbeisser, Inhaber des Lehrstuhls für Technische Informatik an der Universität Passau, koordiniert das Verbundprojekt. Von der Universität Bamberg ist Prof. Dr. Dominik Herrmann, Inhaber des Lehrstuhls für Privatsphäre und Sicherheit in Informationssystemen, beteiligt. Herrmann beschreibt die Ziele des Projekts: „Es gibt wirklich viel Forschung zur Verbesserung der IT-Sicherheit und zum Datenschutz – im Alltag kommt davon aber bisher nur wenig an. Mit ‚ForDaySec‘ wollen wir dabei helfen, diese Lücke ein Stück weit zu schließen.“ Herrmanns Lehrstuhl befasst sich im Projekt mit Erklärungen von Datenschutztechniken: „Es gibt etliche Schutzmechanismen, mit denen sich unnötige Datensammlungen vermeiden lassen. Wir beobachten, dass sich viele Unternehmen aber schwertun, solche Mechanismen einzusetzen. Ein Grund dafür ist, dass sie die Mechanismen nicht gut verstehen. Wir wollen uns daher genau anschauen, wie wir Datenschutz und Schutzmechanismen besser erklären können, nicht nur in Textform, sondern auch mit Code-Beispielen und interaktiven Trainingsumgebungen am Rechner. Wir werden dazu verschiedene Erklärformen ausprobieren und sie Entwicklerinnen und Entwicklern, aber auch unseren Studierenden vorlegen, um herauszufinden, welche Varianten gut funktionieren. Dadurch wollen wir die Hürden senken, solche Techniken einzusetzen, was letzten Endes zur Verbesserung der Alltagsdigitalisierung beiträgt.“

Neben den Universitäten Passau und Bamberg sind darüber hinaus die Friedrich-Alexander-Universität Erlangen-Nürnberg, die Technische Universität München sowie die Universität der Bundeswehr München beteiligt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dominik Herrmann
Lehrstuhl für Privatsphäre und Sicherheit in Informationssystemen
Tel.: 0951/863-2661
dominik.herrmann@uni-bamberg.de
https://www.uni-bamberg.de/psi

Weitere Informationen:
https://www.stmwk.bayern.de/pressemitteilung/12481/nr-043-vom-09-03-2022.html (Pressemitteilung des Bayerischen Wissenschaftsministeriums)

(nach oben)


Alle Lebewesen bilden Methan

Virginia Geisel Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für terrestrische Mikrobiologie
Bekannt ist, dass das Treibhausgas Methan von speziellen Mikroorganismen produziert wird, zum Beispiel im Magen von Kühen oder in Reisfeldern. Seit einigen Jahren beobachtete man auch seine Entstehung in Pflanzen und Pilzen, ohne eine Erklärung dafür zu finden. Nun haben Forscher aus Heidelberg und dem Max-Planck-Institut für terrestrische Mikrobiologie in Marburg den zu Grunde liegenden Mechanismus aufgeklärt. Ihre Ergebnisse legen nahe, dass alle Organismen Methan freisetzen.

Methan ist ein starkes Treibhausgas, und die Erforschung seiner natürlichen und anthropogenen biogeochemischen Quellen und Senken ist von enormem Interesse. Lange dachte man, dass Methan nur durch bestimmte Mikroorganismen bei der Zersetzung organischer Substanz unter Ausschluss von Sauerstoff (anaerob) entsteht.

Wie nun eine gemeinsame Studie von Geo- und Lebenswissenschaften unter Leitung von Frank Keppler und Ilka Bischofs zeigen konnte, ist ein Enzym für die Methanbildung nicht unbedingt notwendig, denn der Prozess kann auch über einen rein chemischen Mechanismus ablaufen.

„Diese durch reaktive Sauerstoffverbindungen (ROS) ausgelöste Methanbildung findet höchstwahrscheinlich in allen Organismen statt“, erklärt Leonard Ernst, ein interdisziplinär ausgebildeter Nachwuchsforscher, der die Studie anführte, die aktuell im Fachblatt „Nature“ erschienen ist. Die Forscherinnen und Forscher wiesen die ROS-getriebene Bildung von Methan in über 30 Modellorganismen nach, von Bakterien und Archaeen über Hefen, Pflanzenzellen bis hin zu menschlichen Zelllinien.

Es war eine Sensation, als Max-Planck-Forscher vor 16 Jahren erstmals entdeckten, dass Pflanzen in Gegenwart von Sauerstoff (aerob) Methan freisetzten. Die Ergebnisse wurden zunächst angezweifelt, da die Methanbildung mit dem damaligen Wissen über Pflanzen nicht zu erklären war. Als man feststellte, dass auch Pilze, Algen und Cyanobakterien (früher „Blaualgen“) unter aeroben Bedingungen Methan bildeten, vermutete man enzymatische Aktivitäten als Ursache. Jedoch wurde in keinem der Organismen ein entsprechendes Enzym entdeckt.

„Diese Studie ist daher ein Meilenstein in unserem Verständnis der aeroben Methanbildung in der Umwelt“, sagt Prof. Frank Keppler, Geowissenschaftler an der Universität Heidelberg. „Der universelle Mechanismus erklärt auch die früheren Beobachtungen zur Freisetzung von Methan aus Pflanzen.“

Je aktiver die Zelle, desto mehr Methan
Wie nun anhand des Bakteriums Bacillus subtilis gezeigt werden konnte, besteht ein enger Zusammenhang zwischen der Stoffwechselaktivität und dem Ausmaß der Methanbildung. Stoffwechselaktivität, insbesondere unter Sauerstoffeinfluss, führt in allen Zellen zur Bildung sogenannter reaktiver Sauerstoffverbindungen (ROS), zu denen auch Wasserstoffperoxid und Hydroxyl-Radikale gehören. In Zusammenspiel mit Eisen, einem essentiellen Element, findet deshalb in sämtlichen Organismen die sogenannte Fenton-Reaktion statt – eine Reaktion von reduziertem Eisen mit Wasserstoffperoxid. Sie führt zur Bildung von hochreaktiven vierwertigen Eisen-Verbindungen und Hydroxyl-Radikalen. Diese Moleküle treiben die Abspaltung eines Methylradikals von methylierten Schwefel- und Stickstoffverbindungen voran, z. B. aus der Aminosäure Methionin. Durch die anschließende Reaktion des Methylradikals mit einem Wasserstoffatom entsteht schließlich Methan. Die Reaktion kann unter normalen physiologischen Bedingungen im Reagenzglas ablaufen und wird durch Biomoleküle wie ATP und NADH, die mit Stoffwechselaktivität einhergehen, erheblich verstärkt.

Auch oxidativer Stress kurbelt die Bildung von Methan an
Auch zusätzlicher oxidativer Stress, ausgelöst durch physikalische und chemische Faktoren, z.B. höhere Umgebungstemperaturen oder die Zugabe von ROS-bildenden Substanzen, steigerte die Methanproduktion in den untersuchten Organismen. Andererseits konnte sie durch die Zugabe von Antioxidantien und das Abfangen freier Radikale reduziert werden – ein Zusammenspiel, das vermutlich die Methanbildung in Organismen steuert. Die Studie erklärt daher auch, warum die Methanfreisetzungen innerhalb eines Organismus um mehrere Größenordnungen variieren können und besonders von Stressfaktoren abhängen.
Die sich im Rahmen des Klimawandels ändernden Umwelt- und Temperaturbedingungen könnten möglicherweise das Stressniveau vieler Lebewesen und damit deren atmosphärischen Methanemissionen beeinflussen. Umgekehrt könnten Schwankungen im Methangehalt der Atemluft auf alters- oder stressbedingte Veränderungen des zellulären Stoffwechsels hinweisen.

Wissenschaftliche Ansprechpartner:
Leonard Ernst
Max-Planck-Institute für Terrestrische Mikrobiologie & Universität Heidelberg
leonard.ernst@mpi-marburg.mpg.de
+49 6421 178 532

Dr. Ilka Bischofs
Max-Planck-Institute für Terrestrische Mikrobiologie & Universität Heidelberg
ilka.bischofs@mpi-marburg.mpg.de
+49 6221 54-51365

Prof. Dr. Frank Keppler
Institute of Earth Sciences, Heidelberg University
+49 6221 54-6009
frank.keppler@geow.uni-heidelberg.de

Originalpublikation:
L. Ernst, B. Steinfeld, U. Barayeu, T. Klintzsch, M. Kurth, D. Grimm, T. P. Dick, J. G. Rebelein, I. B. Bischofs, F. Keppler: Methane formation driven by reactive oxygen species across all living organisms. Nature (9 March 2022), DOI: 10.1038/s41586-022-04511-9

(nach oben)


Neues Tool ermittelt betrieblichen Klimafußabdruck

Axel Grehl Pressestelle
Hochschule Pforzheim
Kostenlose Berechnung des Beitrags durch die Lieferketten

Das Institut für Industrial Ecology (INEC) der Hochschule Pforzheim hat in Kooperation mit dem Thinktank für industrielle Ressourcenstrategien in Karlsruhe ein Tool konzipiert, mit dem die Treibhausgas-Emissionen von Unternehmen einfach ermittelt werden können. Der sogenannte scope3analyzer wurde nun auf der Webseite des Thinktanks freigeschaltet und ist öffentlich und kostenlos zugänglich. Zuvor wurde das Tool, das zusammen mit der Hamburger Firma Systain Consulting GmbH weiterentwickelt wurde, ausgiebig mit Praxispartnern aus der Industrie getestet. Unmittelbar in das Projekt eingebunden waren die ZEISS Gruppe und die Robert Bosch GmbH. Gefördert wurde die Entwicklung vom Umweltministerium Baden-Württemberg.

Die Ermittlung eines betrieblichen Carbon Footprint ist der erste wichtige Schritt auf dem Weg zum Klimaschutz in Unternehmen. Wo sind die größten Beiträge zu den Emissionen und wo sollten die Maßnahmen zuerst ansetzen? „Wir wissen heute, dass die vorgelagerten Emissionen in der Lieferkette der Unternehmen einen wesentlichen Beitrag liefern, oft sogar den größten,“ sagt der Projektleiter Professor Mario Schmidt. Doch die Erhebung dieser Emissionen, in der Fachsprache wird immer von Scope-3-Emissionen gesprochen, stellen eine große Herausforderung dar. Große Unternehmen haben oft Tausende von Lieferanten und Vorprodukte, aus dem In- und Ausland, und fragen sich, woher sie die Zahlen bekommen können und wie belastbar sie sind.

Der scope3analyzer stellt für Unternehmen einen sehr einfachen Einstieg in die Klimabilanzierung dar: Das Tool ist kostenfrei, webbasiert, arbeitet völlig anonymisiert und kann die Emissionen unmittelbar auf Basis bereits vorliegender Einkaufs- und Verbrauchsdaten des Unternehmens berechnen. Das Tool ist außerdem berichtskonform – gängige internationale Standards wie das Greenhouse Gas Protocol, das Carbon Disclosure Project sowie die Science Based Targets Initiative akzeptieren die angewandte Methodik.

Der Emissionsbeitrag der Lieferkette wird mit volkswirtschaftlichen Daten abgeschätzt. Dabei können dann sogar die Emissionen der Vor-Vorprodukte, die aus Asien oder anderen Weltregionen kommen, einbezogen werden. Dies führt zu einem umfassenden Bild des unternehmerischen Handelns und ermöglicht die Identifikation der Hot-Spots von Treibhausgasemissionen. Zusätzlich werden auch die direkten Emissionen vor Ort und die indirekten Emissionen aus eingekaufter Energie mit errechnet.

Professor Schmidt: „Der scope3analyzer entfaltet sein Potential, je mehr Lieferanten ein Unternehmen hat und je schwieriger es wird, einzelne Zahlen zu recherchieren. Vor allem aber sollen die Daten nach der gleichen Methode erhoben und somit vergleichbar sein. Das wird durch die von uns eingesetzte Methode sichergestellt.“

Hier können Unternehmen ihren betrieblichen CO2-Fußabdruck ermitteln:
https://scope3analyzer.pulse.cloud/

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mario Schmidt
mario.schmidt@hs-pforzheim.de

Weitere Informationen:
http://Hier können Unternehmen ihren betrieblichen CO2-Fußabdruck ermitteln:
https://scope3analyzer.pulse.cloud/

(nach oben)


Vernetzungskonferenz: Klimaanpassungsmaßnahmen – erfolgreich durch Dialog

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik
Die Anpassung an die Folgen des Klimawandels stellt Kommunen vor große Herausforderungen. Das Zentrum KlimaAnpassung lädt am 24. und 25.3. zur ersten digitalen Vernetzungskonferenz. Information und Austausch über verschiedene Maßnahmen der Klimaanpassung und Vorsorge stehen dabei im Fokus.

Am 24. und 25. März 2022 veranstaltet das vom Deutschen Institut für Urbanistik und adelphi im Auftrag des Bundesministeriums für Umwelt Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) betriebene Zentrum KlimaAnpassung erstmalig die Vernetzungskonferenz „Kommunale Klimaanpassung im Dialog“. Die Veranstaltung findet online statt und eine Teilnahme ist kostenlos.

Bundesumweltministerin Steffi Lemke wird die Veranstaltung eröffnen. Im Rahmen einer Podiumsdiskussion äußern sich Vertreter*innen aus den Ministerien der Bundes- und Landesebene und der kommunalen Spitzenverbände zu aktuellen Fragen der Anpassung an die Folgen des Klimawandels sowie zu den Herausforderungen und Bedarfen der Kommunen. Nach einem Expert*innen-Vortrag zu „Natur als Partner: Klimaschutz und Klimaanpassung durch naturbasierte Lösungen“ werden in acht parallel stattfindenden Workshops Einzelthemen der kommunalen Klimaanpassung vertieft und Erfahrungen der Teilnehmenden ausgetauscht.

Der zweite Konferenztag richtet sich direkt an Kommunen und ist nicht öffentlich.

Die Vernetzungskonferenz bietet viele Angebote zur Information und Vernetzung: So werden Institutionen und Verbände ihre Beratungsangebote und Projekte auf virtuellen Informationsständen vorstellen und für Gespräche zur Verfügung stehen. Weitere Details sind online zu finden.

Anmeldung für den 24. März: https://www.zentrum-klimaanpassung.de/anmeldeformular-24032022

Anmeldung für den 25. März: https://zentrum-klimaanpassung.de/anmeldeformular-25032022
(Die Teilnahme an diesem Tag ist Vertreterinnen und Vertretern der Kommunalverwaltungen vorbehalten.)

Zum Hintergrund: Das Zentrum KlimaAnpassung richtet sich mit seinen Angeboten und Dienstleistungen speziell an Kommunen und Träger sozialer Einrichtungen, um sie bei der Planung, Umsetzung und Finanzierung von Maßnahmen zur Klimaanpassung zu unterstützen. Das Beratungszentrum wurde als Bestandteil der Deutschen Anpassungsstrategie (DAS) durch das Bundesumweltministerium und den kommunalen Spitzenverbänden im gemeinsamen 3-Punkte-Plan für Klimaanpassung in Kommunen vereinbart. Die Einrichtung des Zentrums Klimaanpassung erfolgt im Auftrag des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) durch das Deutsche Institut für Urbanistik (Difu) und adelphi. Die Leitung des Zentrums verantwortet das Difu.

Organisation:
Philipp Reiß
+49 30 39001-186
reiss@difu.de
Service-Hotline: 030-39001 201
E-Mail: beratung@zentrum-klimaanpassung.de

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Weitere Informationen:
http://difu.de/17208 (weitere Informationen & kostenlose Anmeldung)
http://www.zentrum-klimaanpassung.de/sites/zentrum-klimaanpassung.de/files/docum… (gesamtes Programm als PDF)

(nach oben)


Kollateralschaden: das Ende von SWIFT?

Markus Kurz IESE Business School München
IESE Business School München
SWIFT, ausgeschrieben „Society for Worldwide Interbank Financial Telecommunication“ ist ein globales Nachrichtensystem, das Tausende Finanzinstitute auf der ganzen Welt miteinander verbindet. Eine Reihe amerikanischer und europäischer Banken erschuf 1973 gemeinsam SWIFT, um einen Standard zu setzen – und zu verhindern, dass eine einzelne Bank ihr eigenes System errichtet.

Ein Beitrag von Sandra Sieber, Professorin im Information Systems Department der weltweit renommierten IESE Business School. Sieber ist Expertin für Digital Transformation.

Das System SWIFT arbeitet seit 1977, angeschlossen sind derzeit über 11.000 Finanzinstitute in über 200 Ländern und Gebieten. Mehr als 40 Millionen Nachrichten am Tag ermöglichen den Transfer von Billionen Euro zwischen Unternehmen und Staaten weltweit. SWIFT informiert die Banken über ausgeführte Transaktionen. Das System bewegt kein Geld, sondern Informationen über Geld. Und das mit minimalen Provisionen und Gebühren, wodurch mehr Transaktionen ermöglicht werden, als sie jedes private System erreichen könnte.

Ließe man die Banken ohne SWIFT zurück, wäre das so, als würde man uns das Internet nehmen – oder der Generation Z ihre sozialen Netzwerke. Die Abkopplung einer Bank von SWIFT bedeutet, dass sie nicht mehr kommunizieren kann und auch nichts mehr mitbekommt. Theoretisch wären Geldströme möglich. Aber ohne ergänzende Informationen, woher sie kommen, wohin sie gehen, wofür sie bestimmt sind, wäre eine Bank nicht in der Lage zu arbeiten. Deshalb ist es für die Banken in aller Welt so bedeutend, auf ein unabhängiges und sicheres System setzen zu können, dem sie angehören, egal was kommt.

SWIFT hat sein Headquarter in Belgien und befindet sich im gemeinsamen Besitz von mehr als 2.000 Banken und Finanzinstituten. Verwaltet wird SWIFT von der belgischen Nationalbank in Zusammenarbeit mit den Zentralbanken von Kanada, Frankreich, Deutschland, Italien, Japan, den Niederlanden, Schweden, der Schweiz, des Vereinigten Königreichs und der Vereinigten Staaten. SWIFT ermöglicht seit seinem Bestehen jeder Bank sichere internationale Transaktionen. SWIFT war stets um Neutralität bemüht, zu zeigen, dass es in keinem Streitfall Partei ergreift. Diese Regel wurde in ihrer Geschichte nur ein einziges Mal gebrochen, als sie 2012 iranische Banken wegen des Atomprogramms ihres Landes ausschloss.

Wegen des Krieges wurden nun die meisten russischen Banken aus SWIFT ausgeschlossen. Mit dieser Maßnahme hofft man, der russischen Wirtschaft schweren Schaden zuzufügen – erinnern wir uns daran, dass der Iran durch die gleiche Maßnahme fast die Hälfte seiner Einnahmen aus dem Ölexport sowie 30 % seines Außenhandels verloren hat.

Wir sollten uns jedoch der mittel-und langfristigen Kollateralschäden bewusst sein. Im Jahr 2012, zeitgleich mit den Maßnahmen gegen den Iran, schuf China ein System namens CIPS (Cross-border Interbank Payment System). An den Start gegangen 2015, wird es von der People’s Bank of China verwaltet und wird hauptsächlich für Transaktionen zwischen Banken in China, innerhalb des chinesischen Festlandes und zwischen Hongkong und China genutzt.

Im Jahr 2014 begann die russische Zentralbank zeitgleich mit der Drohung, Russland aufgrund der Krim-Krise aus SWIFT auszuschließen, mit der Entwicklung ihres eigenen Systems, SPFS (Financial Message Transfer System). Es wurde 2017 eingeführt und genießt lokal eine hohe Akzeptanz. Erst kürzlich traten einige internationale Finanzinstitute im russischen Einflussbereich bei, Tochtergesellschaften der großen russischen Banken in Deutschland und der Schweiz erhielten Zugang.

In absoluten Zahlen betrachtet hält sich die internationale Ausdehnung beider Systeme noch sehr in Grenzen. Wir können nur darüber spekulieren, wie schnell diese Systeme mit anderen Systemen oder wie leicht beide untereinander verbunden werden könnten. In jedem Fall wird der aktuelle Bann die Entwicklung dieser und wahrscheinlich auch anderer Systeme beschleunigen – neben den Auswirkungen auf Blockchain und die Welt der Kryptowährungen.

Die universelle Nutzung von SWIFT, wie wir sie seit 45 Jahren kennen, ist vorbei – ein Kollateralschaden des Krieges in der Welt der Finanzdienstleistungen. Bedauerlicherweise ist ein globales System, mit offener Technologie, unter privater glaubwürdiger Verwaltung, extrem schwierig zu etablieren – und noch schwieriger zu erhalten. Neutralität – die Einbeziehung aller – ist der Schlüssel zu Glaubwürdigkeit und Dauerhaftigkeit. Jede Ausnahme gibt Anstoß zur Entwicklung alternativer Systeme. Während wir also der EU noch applaudieren und die Verhängung eine der härtesten Wirtschaftssanktionen unterstützen, sollten wir uns Gedanken darüber machen, was als Nächstes kommen soll. Wie soll die Welt der internationalen Geldströme aussehen, welche wirtschaftlichen Folgen sehen sich Industrie, Unternehmen und die Nutzer im Allgemeinen gegenüber.

Wissenschaftliche Ansprechpartner:
Sandra Sieber, Professorin im Information Systems Department der IESE Business School, siehe https://www.iese.edu/faculty-research/faculty/sandra-sieber/

(nach oben)


Energiesparen mit Magnonen: Magnetische Anregungen übertragen Informationen ohne Wärmeverlust

Dr. Andreas Battenberg Corporate Communications Center
Technische Universität München
So wie Elektronen durch einen elektrischen Leiter fließen, können auch magnetische Anregungen durch bestimmte Materialien wandern. Solche, in der Physik analog zum Elektron auch „Magnonen“ genannten Anregungen könnten Informationen sehr viel leichter transportieren als elektrische Leiter. Auf dem Weg zu solchen Bauteilen, die deutlich energiesparender und erheblich kompakter wären, hat ein internationales Forschungsteam nun eine wichtige Entdeckung gemacht.

Aktuell beruht die Funktion der Mehrheit elektronischer Bauteile auf dem Transport und der Kontrolle elektrischer Ladungen. Ein großer Nachteil dieser Technik ist, dass der Stromfluss aufgrund des elektrischen Widerstands immer auch Wärme erzeugt – angesichts der immensen Zahl elektronischer Bauteile weltweit, ein gigantischer Energieverlust.

Eine energieeffiziente Alternative besteht darin, magnetische Wellen für Transport und Verarbeitung von Informationen zu verwenden. Denn sie produzieren nicht annährend so viel unnütze Wärme. Solche Bauteile könnten auch wesentlich kompakter sein. Weltweit suchen daher Wissenschaftlerinnen und Wissenschaftler nach Materialien, in denen magnetische Spin-Wellen für den Informationstransport genutzt werden können.

Ein internationales Forschungskonsortium unter maßgeblicher Beteiligung der Technischen Universität München (TUM) ist nun auf dieser Suche einen wichtigen Schritt vorwärts gekommen. Ihre Beobachtungen von Spinwellen auf Kreisbahnen in bestimmten magnetischen Materialien könnten auch für diejenigen Quanten-Technologien einen Durchbruch bedeuten, die Wellen dazu benutzen, um Informationen zu transportieren.

Ausbreitung magnetischer Wellen in Materialien
Wirft man einen Stein ins Wasser, so bringt man die Wassermoleküle aus ihrer Ruhelage. Sie fangen an zu schwingen; eine kreisförmige Welle breitet sich aus. Ganz ähnlich kann man die magnetischen Momente in manchen Materialien zu einer Schwingung anregen. Dabei führt das magnetische Moment eine Kreiselbewegung um seine ursprüngliche Ruhelage aus. Die Schwingung eines Atoms stößt eine Schwingung des nächsten an, und so pflanzt sich die Welle fort.

Für Anwendungen ist es hierbei wichtig, die Eigenschaften dieser magnetischen Wellen, wie beispielsweise ihre Wellenlänge oder Richtung, kontrollieren zu können. In konventionellen Ferromagneten, in welchen die magnetischen Momente alle in dieselbe Richtung zeigen, breiten sich magnetische Wellen grundsätzlich geradlinig aus.

Ganz anders verhält sich die Ausbreitung solcher Wellen in einer neuen Klasse magnetischer Materialien, die einem Paket ungekochter Spagetti vergleichbar, aus einer engen Anordnung magnetischer Wirbelschläuche bestehen. Entdeckt wurde sie vor knapp fünfzehn Jahren von einem Team um Christian Pfleiderer und Peter Böni an der TU München mit Hilfe von Neutronenexperimenten.

Aufgrund ihrer nicht-trivialen topologischen Eigenschaften und in Anerkennung der theoretisch-mathematischen Entwicklungen des britischen Kernphysikers Tony Skyrme werden die Wirbelschläuche als Skyrmionen bezeichnet.

Ausbreitung der magnetischen Welle auf einer Kreisbahn
Da Neutronen selbst ein magnetisches Moment tragen, eignen sie sich besonders gut zur Erforschung magnetischer Materialien, da sie wie eine Kompassnadel hochempfindlich auf magnetische Felder reagieren. Für den Nachweis der Spinwellen auf Kreisbahnen erwies sich die Neutronenstreuung sogar als alternativlos, da nur sie die erforderliche Auflösung über sehr große Längen- und Zeitskalen ermöglichte.

Wie das Team um Tobias Weber vom Institut Laue Langevin im französischen Grenoble nun mittels polarisierter Neutronenstreuung nachweisen konnte, erfolgt die Ausbreitung einer magnetischen Welle senkrecht zu solchen Skyrmionen nicht geradlinig sondern auf einer Kreisbahn.

Grund hierfür ist, dass die Richtung benachbarter magnetischer Momente und damit die Richtung der Achse, um die die Kreiselbewegung erfolgt, sich kontinuierlich ändert. Analog dazu ändert sich bei der Fortpflanzung der Kreiselbewegung von einem magnetischen Moment zum nächsten senkrecht zu einem magnetischen Wirbelschlauch auch die Ausbreitungsrichtung kontinuierlich. Der Radius und die Richtung der Kreisbahn der Ausbreitungsrichtung hängt dabei von der Stärke und der Richtung der Verkippung der magnetischen Momente ab.

Quantisierung der Kreisbahnen
„Damit jedoch nicht genug“, sagt Markus Garst vom Karlsruher Institut für Technologie, der die theoretische Beschreibung der magnetischen Wellenbewegung und ihre Kopplung an Neutronen schon vor länger Zeit ausgearbeitet hatte. „Es gibt eine enge Analogie zwischen der kreisförmigen Ausbreitung von Spinwellen in einem Skyrmionengitter und der Bewegung eines Elektrons aufgrund der Lorentzkraft senkrecht zu einem Magnetfeld.“

Bei sehr tiefen Temperaturen, wenn die Kreisbahnen geschlossen sind, ist ihre Energie quantisiert. Vor fast hundert Jahren vom russischen Physiker Lev Landau vorhergesagt, ist dieses Phänomen für Elektronen seit langem als Landau-Quantisierung gut bekannt. Dabei lässt sich der Einfluss der Wirbelstruktur auf die Spinwellen elegant durch ein fiktives Magnetfeld interpretieren. Das heißt, das sehr komplizierte Wechselspiel der Spinwellen mit der Skyrmionenstruktur ist letztlich genauso einfach wie die Bewegung von Elektronen in einem echten Magnetfeld zu verstehen.

Auch die Ausbreitung der Spinwellen senkrecht zu den Skyrmionen zeigt eine solche Quantisierung der Kreisbahnen. Die charakteristische Energie der Spinwelle ist damit ebenfalls quantisiert, was völlig neue Anwendungen verspricht. Zusätzlich ist die Kreisbahn aber auch noch in sich verdrillt, ähnlich wie bei einem sogenannten Möbiusband. Sie ist topologisch nicht-trivial: Nur durch Zerschneiden und neu Zusammenfügen ließe sich die Verdrillung entfernen. All dies führt zu einer besonders stabilen Bewegung der Welle.

Internationale Kooperation
„Die experimentelle Bestimmung der Spinwellen in Skyrmionengittern erforderte sowohl eine Kombination weltweit führender Neutronenspektrometer als auch eine massive Weiterentwicklung der Software zur Deutung der Daten“, erläutert TUM-Physiker Peter Böni.

Das Forschungsteam nutzte Instrumente des Institut Laue-Langevin (ILL) in Frankreich, der Spallationsquelle SINQ am Schweizer Paul-Scherrer-Institut, der britischen Neutronen- und Myonenquelle ISIS und der Forschungs-Neutronenquelle Heinz Maier-Leibnitz (FRM II) der TU München. Weitere Arbeiten zur Theorie und Datenanalyse wurden am US-amerikanischen Los Alamos National Laboratory und am Karlsruher Institut für Technologie (KIT) durchgeführt.

Marc Janoschek, der inzwischen am Paul Scherrer Institut arbeitet, schwärmt: „Es ist einfach genial, dass sich mit dem mikroskopischen Nachweis der Landau-Quantisierung an der weltweit einzigartigen Beamline RESEDA am FRM II der TUM in Garching nach zahllosen Experimenten an weltweit führenden Spektrometern und der Klärung großer experimenteller und theoretischer Herausforderungen während meiner Zeit in Los Alamos ein Kreis schließt, der vor fast fünfzehn Jahren mit meinen ersten Messungen am Heinz Maier-Leibnitz Zentrum begann.“

Die Bewegung von Spinwellen auf Kreisbahnen, die noch dazu quantisiert sind, ist jedoch nicht nur aus Sicht der Grundlagenforschung ein Durchbruch. So betont Christian Pfleiderer, geschäftsführender Direktor des neu geschaffenen Zentrums für QuantenEngineering der TUM: „Die spontane Bewegung von Spinwellen auf Kreisbahnen, deren Radius und Richtung durch Skyrmionen-Wirbelstrukturen entsteht, eröffnet eine neue Perspektive, um funktionelle Bauteile für die Informationsverarbeitung in den Quantentechnologien zu realisieren, wie beispielsweise einfache Koppler zwischen Qubits in Quantencomputern.“

An den Messungen waren Forschende des Instituts Laue-Langevin in Frankreich, des Paul Scherrer Instituts, der Universität Zürich und der Ecole Polytechnique Fédérale de Lausanne in der Schweiz, der Spallationsquelle ISIS und der Universität London in Großbritannien, der Oak Ridge und Los Alamos National Laboratories in USA, der Technischen Universität Dresden, der Universität zu Köln, des Karlsruher Instituts für Technologie und der Technischen Universität München und dem Heinz Maier-Leibnitz Zentrum in Garching beteiligt.

Die Forschung wurde gefördert vom Europäischen Forschungsrat durch die ERC Advanced Grants „TOPFIT“ und „ExQuiSid“, von der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Transregio-Sonderforschungsbereichs TRR80, des Sonderforschungsbereichs SFB 1143, des Schwerpunktprogramms SPP 2137 „Skyrmionics“ und des Exzellenzclusters „Munich Center for Quantum Science and Technology“ (MCQST) im Rahmen der Exzellenzinitiative des Bundes und der Länder sowie durch das Directed Research and Development Programm des Los Alamos National Laboratory und des Institute for Materials Science in Los Alamos, USA.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Pfleiderer
Technische Universität München
Lehrstuhl für Topologie korrelierter Systeme (E51)
James-Franck-Str. 1, 85748 Garching
Tel.: +49 89 289 14720 – E-Mail: christian.pfleiderer@ph.tum.de

Prof. Dr. Markus Garst
Institut für Theoretische Festkörperphysik
Karlsruher Institut für Technologie (KIT)
Wolfgang-Gaede-Str. 1, 76131 Karlsruhe
Tel.: +49 721 608 43361
E-Mail: markus.garst@kit.edu

Originalpublikation:
Publikation:
T. Weber, D. M. Fobes, J. Waizner, P. Steffens, G. S. Tucker, M. Böhm, L. Beddrich, C. Franz, H. Gabold, R. Bewley, D. Voneshen, M. Skoulatos, R. Georgii, G. Ehlers, A. Bauer, C. Pfleiderer, P. Böni, M. Janoschek, M. Garst
Topological magnon band structure of emergent Landau levels in a skyrmion lattice
Science, 04.03.2022 – DOI: 10.1126/science.abe4441

Weitere Informationen:
https://www.science.org/doi/10.1126/science.abe4441 Originalpublikation
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/details/37241 Presseinformation auf der TUM-Website
https://www.groups.ph.tum.de/sces/ Website der Arbeitsgruppe Pfleiderer
https://www.tfp.kit.edu/1091.php Website der Arbeitsgruppe Garst
https://www.frm2.tum.de/ Link zur Forschungs-Neutronenquelle Heinz Maier-Leibnitz (FRM II)
https://mlz-garching.de/ Link zum Heinz Maier-Leibnitz Zentrum (MLZ)

(nach oben)


Gesundheitsdaten handlungsfähig machen und patientenorientierte Gesundheitsversorgung sicherstellen

Dr. Cornelius Wittal Presse- und Öffentlichkeitsarbeit
Roche Pharma AG
Die digitale Vernetzung von Gesundheitsdaten soll eine patientenorientierte und gleichzeitig wissensgenerierende Gesundheitsversorgung sicherstellen. Welches Potential hier durch internationale Zusammenarbeit entstehen kann und welche Handlungsempfehlungen sich daraus ableiten, wird am 24.03.2022 ab 16:00 bis 19:00 Uhr in einer Webkonferenz diskutiert.

Datengestützte Medizin und Wissensaustausch sind unerlässlich, um medizinischen Fortschritt und Innovation zu beschleunigen und ein personalisiertes Gesundheitssystem zu ermöglichen. Die digitale Vernetzung von Gesundheitsdaten soll eine patientenorientierte und gleichzeitig wissensgenerierende Gesundheitsversorgung sicherstellen. Digitale Infrastrukturen sind für die Verfügbarkeit von Daten aus Versorgung und Forschung zwingend erforderlich. Welches Potential durch internationale Zusammenarbeit und durch gemeinsame Nutzung von Gesundheitsdaten entstehen kann und welche Handlungsempfehlungen sich daraus ableiten, wird gemeinsam mit Ärzten, Forschern, Kostenträgern, politische Entscheidungsträgern und Patientenvertretern diskutiert.

Dieses Fachsymposium erfolgt in einer Kooperation von Springer Medizin und Roche Pharma AG, unter Schirmherrschaft der Fraunhofer Gesellschaft mit Unterstützung der Deutschen Krebsgesellschaft (DKG) und Data Saves Lives. Simultanübersetzung in englisch.

Veranstalter:
Das Fraunhofer Institut für Angewandte Informationstechnik FIT ist exzellenter Partner für die menschzentrierte Gestaltung unserer digitalen Zukunft. Als Innovationstreiber bietet es nicht nur Orientierung, sondern gestaltet auch den digitalen Wandel in Wirtschaft, Umwelt und Gesellschaft. (fit.fraunhofer.de)
Die Deutsche Krebsgesellschaft ist die größte wissenschaftlich-onkologische Fachgesellschaft in Deutschland und engagiert sich für eine Krebsversorgung auf Basis evidenzbasierter Medizin und Interdisziplinarität für eine hohe Qualität der onkologischen Versorgung. (krebsgesellschaft.de)

Data Saves Lives ist eine Multi-Stakeholder-Initiative mit dem Ziel, Patienten und die Öffentlichkeit für die Bedeutung von Gesundheitsdaten zu sensibilisieren, das Verständnis für deren Nutzung zu verbessern und ein vertrauenswürdiges Umfeld für den Multi-Stakeholder-Dialog über verantwortungsvolle Nutzung und gute Praktiken in ganz Europa zu schaffen. Die Vision von Data Saves Lives ist ein Europa, in dem ein vertrauenswürdiger Datenaustausch die Gesundheit und die wissenschaftliche Forschung unterstützt, um den Bedürfnissen der Patienten gerecht zu werden und die Herausforderungen unserer Gesundheitssysteme zu bewältigen. (datasaveslives.eu)

Roche (weltweit) ist ein globales Unternehmen mit Vorreiterrolle in der Erforschung und Entwicklung von Medikamenten und Diagnostika und ist darauf fokussiert, Menschen durch wissenschaftlichen Fortschritt ein besseres, längeres Leben zu ermöglichen. Dank der Kombination von Pharma und Diagnostika unter einem Dach ist Roche führend in der personalisierten Medizin – einer Strategie mit dem Ziel, jeder Patientin und jedem Patienten die bestmögliche Behandlung zukommen zu lassen.
Roche ist das größte Biotech-Unternehmen weltweit mit differenzierten Medikamenten für die Onkologie, Immunologie, Infektionskrankheiten, Augenheilkunde und Erkrankungen des Zentralnervensystems. Roche ist auch der bedeutendste Anbieter von In-vitro-Diagnostika und gewebebasierten Krebstests und ein Pionier im Diabetesmanagement.
Seit der Gründung im Jahr 1896 erforscht Roche bessere Wege, um Krankheiten zu verhindern, zu erkennen und zu behandeln und leistet einen nachhaltigen Beitrag zur gesellschaftlichen Entwicklung. Zum Ziel des Unternehmens gehört es durch Kooperationen mit allen relevanten Partnern den Zugang von Patienten zu medizinischen Innovationen zu verbessern. Auf der Liste der unentbehrlichen Arzneimittel der Weltgesundheitsorganisation stehen heute 30 von Roche entwickelte Medikamente, darunter lebensrettende Antibiotika, Malariamittel und Krebsmedikamente. Ausgezeichnet wurde Roche zudem bereits das elfte Jahr in Folge als eines der nachhaltigsten Unternehmen innerhalb der Pharmabranche im Dow Jones Sustainability Index (DJSI).
Die Roche-Gruppe mit Hauptsitz in Basel, Schweiz ist in über 100 Ländern tätig und beschäftigt weltweit mehr als 100.000 Mitarbeitende. Im Jahr 2021 investierte Roche CHF 13,7 Milliarden in Forschung und Entwicklung und erzielte einen Umsatz von CHF 62,8 Milliarden. Genentech in den USA gehört vollständig zur Roche-Gruppe. Roche ist Mehrheitsaktionär von Chugai Pharmaceutical, Japan. Weitere Informationen finden Sie unter www.roche.com.

Roche in Deutschland
Roche beschäftigt in Deutschland rund 17.500 Mitarbeiterinnen und Mitarbeiter in den Bereichen Pharma und Diagnostik. Das Unternehmen ist an den drei Standorten in Grenzach-Wyhlen (Roche Pharma AG), Mannheim (Roche Diagnostics GmbH, Roche Diagnostics Deutschland GmbH, Roche Diabetes Care GmbH sowie Roche Diabetes Care Deutschland GmbH) und Penzberg (Biotechnologie-Kompetenzzentrum, Roche Diagnostics GmbH) sowie in der Metropolregion Stuttgart (Roche Diagnostics Automation Solutions GmbH) vertreten. Die Schwerpunkte erstrecken sich über die gesamte Wertschöpfungskette der beiden Geschäftsbereiche Pharma und Diagnostics: von Forschung und Entwicklung über Produktion, Logistik bis hin zu Marketing und Vertrieb, wobei jeder Standort neben dem Deutschland-Geschäft auch globale Aufgaben wahrnimmt. Roche bekennt sich klar zu den deutschen Standorten und hat in den letzten fünf Jahren in diese rund 2,6 Milliarden Euro investiert.

Roche Pharma AG
Die Roche Pharma AG im südbadischen Grenzach-Wyhlen verantwortet mit über 1.300 Mitarbeiterinnen und Mitarbeitern das deutsche Pharmageschäft. Dazu gehören die Zulassung und Überwachung, das Marketing und der Vertrieb von Roche Medikamenten in Deutschland sowie der Austausch mit Wissenschaftlern, Forschern und Ärzten in Praxen und Krankenhäusern. Von hier aus werden alle zulassungsrelevanten Studien für Deutschland koordiniert sowie Studien für bereits zugelassene Arzneimittel durchgeführt. Der Standort ist außerdem dafür zuständig, permanent zu überprüfen, ob die Produkte im gesamten europäischen Raum internen und externen Qualitätsrichtlinien entsprechen.

Wissenschaftliche Ansprechpartner:
erika.schirghuber@roche.com

Weitere Informationen:
http://go.roche.de/publichealth Informationen und Anmeldung
http://go.roche.de/flyer-public-health Programm (deutsch)
http://go.roche.de/datasharing_flyer_e Program (english)

Anhang
Programm (Flyer)

(nach oben)


Wegweisendes Pilotprojekt RoKKa erzeugt Dünger und Rohstoffe aus Abwasser

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg finanziert das neue Forschungs- und Demonstrationsprojekt RoKKa (Rohstoffquelle Klärschlamm und Klimaschutz auf Kläranlagen), das das Leistungsspektrum von Kläranlagen um eine entscheidende Funktion erweitert: die Möglichkeit der Rohstoffrückgewinnung aus dem Abwasser. Zusammen mit den Betreibern der Kläranlagen in Erbach und Neu-Ulm demonstriert das Konsortium unter der Leitung des Fraunhofer IGB den positiven Beitrag zu Rohstoffsicherheit und zum Klimaschutz, da die erhaltenen Produkte fossile Rohstoffe und energieintensive Verfahren ersetzen können.

»Bisher lag die Aufgabe einer Kläranlage vor allem darin, Abwasser zu reinigen«, so Dr.-Ing. Marius Mohr, Projektleiter am Fraunhofer IGB zum Projektstart. »Wir richten unseren Blick nun auch auf die im Abwasser enthaltenen Rohstoffe.« An der nachhaltigen Bioraffinerie arbeiten Wissenschaftler:innen aus den Forschungseinrichtungen des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB, der Universität Stuttgart, der Universität Kassel und der Technischen Universität Kaiserslautern gemeinsam mit den Unternehmen SolarSpring GmbH, Deukum GmbH, Nanoscience for life GmbH, Umwelttechnik-BW GmbH, der Stadt Erbach sowie dem Zweckverband Klärwerk Steinhäule.

Mit Mikroalgen und Elektrosynthese Rohstoffe sichern
Die Wissenschaftler:innen erproben Verfahren, um aus dem Abwasser Phosphor- und Stickstoffverbindungen für Düngemittel zu gewinnen. Daneben werden mit Mikroalgen Pflanzenstärkungsmittel und Bodenverbesserer für die Landwirtschaft erzeugt. Selbst das CO2, das bei der Herstellung von Biogas anfällt, wird abgetrennt und wieder zu einem Rohstoff für die chemische Industrie verarbeitet. »So können Prinzipien der Bioökonomie umgesetzt werden und Kläranlagen zu einer nachhaltigen Rohstoffquelle werden. Die Rückgewinnung von Phosphor und Stickstoff als Dünger schließt den Nährstoffkreislauf und ist für das Klima sehr positiv,« so Dr.-Ing. Anette Zimmermann, Leitung Umwelttechnik und Bioökonomie bei Umwelttechnik BW.

Das ePhos-Verfahren ermöglicht die Rückgewinnung von Phosphor. Mit Hilfe einer Opferanode aus Magnesium wird das Phosphor elektrochemisch als Struvit gefällt. Zwei Pilotanlagen trennen den Ammonium-Stickstoff aus dem Schlammwasser ab. Eine Anlage verfolgt das Prinzip der Membran-Gasabsorption mit Membrankontaktoren (AmmoRe), die andere arbeitet nach dem Prinzip der Membrandestillation.

Im Pilotprojekt RoKKa wird gemessen, wie stark sich eine Stickstoffrückgewinnung auf die Klimabilanz der Kläranlagen auswirkt. Beim konventionellen Abbau von Stickstoffverbindungen auf Kläranlagen entsteht eine erhebliche Menge des Treibhausgases N2O, auch Lachgas genannt. Weiter wird erprobt, inwieweit die im Abwasser enthaltenen Nährstoffe Mikroalgen als Nahrung dienen. Algen benötigen zur Photosynthese neben Licht auch CO2. Dieses stammt aus der Biogasfaulung und wird mit Hilfe einer Aminosäurelösung abgetrennt. Parallel wird ein weiterer Verwertungsweg für das CO2 erprobt. Einen Teil des CO2 wandelt eine Elektrosynthese-Anlage in Formiat um. Formiat ist eine Grundchemikalie, die in der chemischen Industrie verwendet wird. Damit zeigt das Projekt die Möglichkeit einer Kreislaufführung von CO2 auf.

Bioraffinerie in den Kläranlagen Erbach und Neu-Ulm
Die Pilotanlagen werden auf bestehenden Kläranlagen in Erbach und Neu-Ulm integriert und mit realem Abwasser getestet. »Wir freuen uns, als Partner dieses Projekt zu ermöglichen«, so Thomas Schniertshauer vom Stadtbauamt Erbach. »Wir sind 2016 mit dem Bau einer Hochlastfaulung auf unserer Kläranlage bereits den ersten Schritt Richtung Bioökonomie gegangen. Nun sind wir stolz darauf, unsere Kläranlage zu einer nachhaltigen Bioraffinerie auszubauen.«

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2022/wegweise… Presseinfo auf der Website des Fraunhofer IGB

(nach oben)


Methan: Leckagen an Biogasanlagen verhindern – Strategien zur Verhinderung des Methanschlupfs vorgelegt

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Forscher des Deutschen Biomasseforschungszentrums GmbH (DBFZ) und der Universität Stuttgart, Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft (ISWA) haben in einem internationalen Verbundvorhaben Emissionsmessungen an Biogasanlagen durchgeführt. Ziel war die Bewertung verschiedener Biogasanlagenkonzepte in Europa hinsichtlich ihrer Methanemissionen. Die Kooperationspartneraus Deutschland, Österreich, Schweden, Dänemark und der Schweiz haben Daten zur Identifizierung der wichtigsten Methanleckagen an Biogasanlagen und deren Quantifizierung erhoben und Strategien zur Verhinderung dieser Methanemissionen erarbeitet.

Das Verbundvorhaben „Bewertung und Minderung von Methanemissionen aus verschiedenen europäischen Biogasanlagenkonzepten (EvEmBi)“ wurde durch das Bundesministerium für Ernährung und Landwirtschaft sowie durch ERA-NET Bioenergy gefördert.

Die Ergebnisse des Vorhabens zeigen, dass sich der sogenannte Methan-Schlupf vor allem durch gasdichte Abdeckung von Gärproduktlagern, geeignete Füllstandsregelungen der Gasspeicher sowie regelmäßige Überprüfung von Leckagen verhindern lässt.

Die meisten Leckagen traten an der Folienanbindung zur Behälterwand, an der Seildurchführung der Tauchmotorrührwerke sowie an Festdachbehältern auf. Zudem entweicht Methan betriebsbedingt über die Überdrucksicherungen der Gasspeicher, aber auch durch offene Kugelhähne oder fehlende Wasservorlagen. Durch geeignete Betriebsweise der Anlage, ausgerichtet auf den Füllstand des Gasspeichers, kann das Auslösen der Überdrucksicherung im Normalbetrieb verringert werden.

Für die Analyse der Methan-Minderungspotenziale wurden durch den Kooperationsverbund Emissionsmessungen an 37 unterschiedlichen Biogasanlagen in Deutschland, Österreich, Schweden und der Schweiz durchgeführt. Auf dieser Grundlage wurden Optimierungsvorschläge erarbeitet. Dabei handelt es sich in erster Linie um Maßnahmen wie die Reparatur von Leckagen, die Behebung von Fehlfunktionen, z. B. das Schließen von Kugelhähnen, das Auffüllen der Wasservorlage oder das Schließen der Ventile bei Über-/Unterdrucksicherungen, aber auch um konstruktive Maßnahmen, wie z. B. die gasdichte Abdeckung des Gärproduktlagers.

Mit Blick auf den Wissenstransfer und zur Sensibilisierung der Anlagenbetreiber wurde in Zusammenarbeit mit dem Fachverband Biogas e. V. das Hintergrundpapier H-011 „Methanemissionen an Biogasanlagen“ mit Informationen zu den wichtigsten Methanemissionsminderungsmaßnahmen veröffentlicht.

Hintergrund:
Methan – das Produkt der Biogaserzeugung – wird auf vielfältige Weise z. B. zur Strom- und Wärmeerzeugung verwertet und ist ausschlaggebend für die Wirtschaftlichkeit einer Biogasanlage. Durch Leckagen entweichende Methanemissionen wirken sich nicht nur negativ auf die Wirtschaftlichkeit der Biogasanlage aus, sondern auch auf das Klima, denn Methan ist rund 25-mal klimaschädlicher als Kohlenstoffdioxid. Zudem können sich durch größere Methanleckagen lokale Ansammlungen explosiver Gasgemische bilden und die Sicherheit des Anlagenbetriebes gefährden. Methanleckagen an Biogasanlagen sollten deshalb aufgespürt und vermieden werden.

Förderhinweis:
In der landwirtschaftlichen Tierhaltung fallen enorme Mengen an Wirtschaftsdüngern an, deren Lagerung und Ausbringung Methanemissionen verursachen. Um sie zu mindern, unterstützt das Bundesministerium für Ernährung und Landwirtschaft Investitionen in Maßnahmen zur verstärkten Vergärung von Wirtschaftsdüngern. Nähere Informationen zur Fördermaßnahme finden Sie unter: https://wirtschaftsduenger.fnr.de/

Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Anja Engel
Tel.: +49 3843 6930-374
Mail: a.engel@fnr.de

Weitere Informationen:
https://www.biogas.org/edcom/webfvb.nsf/id/DE-H-011/$file/20-10-06_H-011_Hinterg…

(nach oben)


„klimafit“ – Wissen für den Klimawandel vor der Haustür

Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Bundesweites Kursangebot für soziale Handlungskompetenz im Klimaschutz startet unter dem Schirm der Nationalen Klimaschutzinitiative

Steigende Temperaturen, extreme Wetterereignisse wie Starkregen und Stürme – der Klimawandel zeigt sich auch in Deutschland immer deutlicher. Dabei steht jede Region vor ihren ganz eigenen Herausforderungen. Mit dem Kurs „klimafit“ wollen der Helmholtz-Forschungsverbund REKLIM, der WWF Deutschland und die Universität Hamburg Bürgerinnen und Bürger auf die Auswirkung des Klimawandels direkt vor ihrer Haustür vorbereiten. Das Bildungsangebot wird mit 2,2 Millionen Euro für drei Jahre in der Nationalen Klimaschutzinitiative gefördert. Im März 2022 startet der nächste Kursdurchlauf an 128 Volkshochschulen in ganz Deutschland.

Wie wirkt sich der Klimawandel auf den privaten oder beruflichen Alltag aus? Auf welche Folgen müssen sich Bürgerinnen und Bürger in einzelnen Regionen einstellen? Wie können Kommunen gemeinsam ins Handeln kommen? Der Kurs „klimafit“ spricht Fragen wie diese direkt an. Der Helmholtz-Forschungsverbund „Regionale Klimaänderungen und Mensch“ (REKLIM), der WWF Deutschland und die Universität Hamburg wollen so Wissen zum Klimawandel vermitteln, Menschen in den Regionen miteinander vernetzen und konkrete Handlungsmöglichkeiten aufzeigen. Die Kurse tragen so aktiv und nachhaltig zum notwendigen Wandel der Gesellschaft bei, um das Klimaproblem als gemeinschaftliche Aufgabe zu verankern.

Die Kurse
Mit ihrem Leuchtturmprojekt „klimafit“ wollen REKLIM, der WWF Deutschland und die Universität Hamburg die Bildung für nachhaltige Entwicklung durch direkte Bürger:innenbeteiligung fördern und den Wissenstransfer zwischen Forschung und Gesellschaft aktiv umsetzen.

Das Kurskonzept besteht aus sechs Abenden mit Präsens- und Onlineterminen. In Expertenvorträgen, Gruppendiskussionen und digitalen Lernangeboten erfahren die Teilnehmenden, was die Ursachen und Folgen der Klimakrise sind und welche Faktoren diese verstärken. Dabei haben sie die Möglichkeit, mit führenden Forschenden sowie lokalen Fachleuten und Initiativen zu sprechen. Die Kurse stellen die regionalen Veränderungen der Veranstaltungsorte in den Mittelpunkt. Deshalb informieren die Klimaschutzbeauftragten der entsprechenden Kommunen, wie ihre Schutz- und Anpassungskonzepte aussehen.
Nach dem Kurs kennen die Teilnehmenden die wichtigsten wissenschaftlichen Grundlagen zum Thema Klima und Klimawandel. Sie haben einen Überblick über Veränderungen direkt vor ihrer Haustür und darüber, was sie tun können, um diesen Folgen zu begegnen.

Das sagen die Initiator:innen
„Mit den Teilnehmenden des klimafit Kurses haben Städte und Gemeinden neue Multiplikatorinnen und Multiplikatoren für den kommunalen Klimaschutz gewonnen, die wissen, wie sich der Klimawandel in der Region auswirkt, welche Maßnahmen die Kommune zur Klimaanpassung plant und was sie selbst zum Klimaschutz beitragen können“, sagt Bettina Münch-Epple, Leitung Bildung, WWF Deutschland.

„Es wird immer wichtiger, über die Folgen und die Möglichkeiten der Klimaanpassung Bescheid zu wissen. Extremwetterereignisse wie Starkregen und lange Hitzeperioden sind hier schon lange keine Seltenheit mehr. Deshalb brauchen wir Menschen, die Klimaschutz in ihre Region bringen. Und genau hier setzt klimafit an“, berichtet Dr. Klaus Grosfeld, Geschäftsführer REKLIM, Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung, Bremerhaven.

„Klimawandel geht uns alle an und wir sollten uns nicht nur betroffen fühlen, sondern auch ins Handeln kommen. Gemeinsam fällt das leichter, als jeder für sich alleine. Gemeinsam lassen sich neue Routinen entwickeln und ein notwendiger Gestaltungswille kooperativ und solidarisch umsetzen“, erläutert Prof. Dr. Beate Ratter, Professorin für Integrative Geographie, Universität Hamburg.

Mehr zu „klimafit“
Der WWF Deutschland und der Helmholtz-Forschungsverbund „Regionale Klimaänderungen und Mensch“ (REKLIM) haben den Kurs „klimafit“ 2016 gemeinsam entwickelt. Die Universität Hamburg führt Begleitforschung durch. Seitdem haben bereits etwa 2000 Menschen an den Kursen teilgenommen. Sie bewerten besonders positiv das neue Wissen über den Klimawandel und die regionalen Veränderungen, die Teil des Kurses sind.

Der Transfer wissenschaftlicher Erkenntnisse und innovativer Technologien in die Gesellschaft ist ein wichtiges Element im Forschungsprogramm „Erde und Umwelt“ der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Das Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz fördert das „klimafit“-Projekt seit Januar 2022 als Teil der Nationalen Klimaschutzinitiative. Bis 2024 soll das Kursangebot an 170 Standorten bundesweit angeboten und langfristig etabliert werden und somit einen konkreten Beitrag zum Klimaschutzprogramm 2030 der Bundesregierung leisten.

Weitere Informationen zum Projekt, zu den bundesweiten Standorten und zur Anmeldung auf https://www.klimafit-kurs.de/ und https://www.reklim.de/ .

Ihre Ansprechpartner:innen sind
Wissenschaft:
Dr. Klaus Grosfeld, Klaus.Grosfeld@awi.de, +49(471)4831-1765
Dr. Renate Treffeisen, Renate.Treffeisen@awi.de, +49(471)4831-2145

AWI-Pressestelle:
Sarah Werner, sarah.werner@awi.de, +49(471)4831-2008

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

(nach oben)


Chatbot oder Mensch – Wer entscheidet besser bei der Rekrutierung? FAU-Team legt Studie zur KI im Personalwesen vor

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Eine offene Stelle, 1000 Bewerbungen: Immer häufiger setzen vor allem große Unternehmen Künstliche Intelligenz (KI) ein, um im Bereich Human Resources (HR) effizienter arbeiten, insbesondere geeignetes Personal finden zu können. Beispielsweise kann für Bewerberinnen und Bewerber bei der Jobsuche ein Chatbot nützlich sein, etwa um sich vorab ein Bild vom Tätigkeitsprofil zu machen und die eigenen Chancen einzuschätzen. An der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) wurde finanziert durch die Adecco Stiftung für Arbeit und soziales Leben ein dreijähriges Projekt zum Thema „Künstliche Intelligenz, Chatbots und Rekrutierung“ abgeschlossen.

Untersucht wurde das Verhältnis von Mensch und Maschine im Personalwesen, unter anderem wurden so wertvolle Erkenntnisse über die Akzeptanz sowie ethische Aspekte dieser digitalen Systeme gewonnen. Dazu führten die Forscherinnen und Forscher am Lehrstuhl für Wirtschaftsinformatik, insbesondere Digitalisierung in Wirtschaft und Gesellschaft (Stiftungslehrstuhl) Interviews mit potenziellen Nutzer/-innen und Akteur/-innen im Personalbereich, aber auch mit KI-Expertinnen und -Experten. Das Nürnberger Forschungsteam um Prof. Dr. Sven Laumer hat die Ergebnisse jetzt in einem Bericht zusammengefasst, der sowohl für die Praxis als auch für die Wissenschaft von Relevanz ist. Die Wissenschaftlerinnen und Wissenschaftler halten Chatbots für geeignete Dialogsysteme, um Prozesse im Bereich HR effizienter zu gestalten, geben jedoch zu bedenken, dass Chatbots intelligenter werden und individueller auf die Nutzerinnen und Nutzer eingehen müssen. Auch wenn Algorithmen in Personalabteilungen bei der Entscheidungsfindung unterstützen können, so sind Recruiter mitunter skeptisch, sich auf die reine Datenlage zu verlassen. Laut der Studie bevorzugen Nutzerinnen und Nutzer bei sensiblen Themen mit personenbezogenen Daten sowie bei zukunftsrelevanten Empfehlungen den Mensch gegenüber der Maschine. Eine weitere Erkenntnis: KI wird vor allem dann akzeptiert, wenn Entscheidungen als fair empfunden werden. In diesem Zusammenhang wurde ein mehrdimensionales Fairnessmodell entwickelt und getestet. Überdies können Unternehmen, die eine digitale Rekrutierung anbieten, von Bewerberinnen und Bewerbern als innovativ und somit als attraktiv wahrgenommen werden.

Weiterhin zeigt sich, dass die aktive Vermeidung von Diskriminierung adressiert werden muss. Häufig finden diskriminierende Merkmale (z. B. die Beurteilung nach demographischen Merkmalen) in Modellen Anwendung, auf deren Grundlage Empfehlungen generiert werden. Deshalb ist ein hoher Grad an Transparenz wichtig, der die KI-gestützte Personalgewinnung erklärbar macht.

Gefördert wurde das Projekt von der in Düsseldorf ansässigen Adecco Stiftung, die sich dem Themenfeld „Neue Wege für Arbeit und soziales Leben“ verschrieben hat. „Die Zukunft der Arbeit ist seit jeher eines unserer Kernthemen“, sagt die Geschäftsführerin der Adecco Stiftung Janine Bischoff. „Deshalb war es für uns direkt ein spannendes Themenfeld, das wir gerne fördern wollten.“ Um die Forschung zur Digitalisierung an der FAU weiterzuführen und an das Adecco-geförderte Projekt anzuknüpfen, fördert die Dr. Theo und Friedl Schöller-Stiftung ab Februar 2022 unter anderem den Aufbau eines Forschungslabors zur Zukunft der Arbeit.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sven Laumer | Jessica Ochmann, M.Sc.
Schöller-Stiftungslehrstuhl für Wirtschaftsinformatik,
insb. Digitalisierung in Wirtschaft und Gesellschaft
Institut für Wirtschaftsinformatik des Fachbereichs
wiso-wi-dwg@fau.de

Originalpublikation:
https://www.adecco.de/adecco-stiftung/publikationen/

(nach oben)


PFH sucht Teilnehmende für wissenschaftliche Studie zur Belastung durch Covid-19-Pandemie

Susanne Boll Presse- und Öffentlichkeitsarbeit
PFH Private Hochschule Göttingen
Bisherige Studien zu den Auswirkungen der COVID-19-Pandemie zeigen, dass die globale Krisensituation viele Menschen belastet. Ergebnisse einer internationalen Studie unter Leitung der PFH Private Hochschule Göttingen lassen vermuten, dass die psychische Belastung mit zunehmender Dauer der COVID-19-Pandemie steigt. Um zu untersuchen, inwieweit sich der Belastungsgrad im Laufe der anhaltenden Beschränkungen verändert, startet die Abteilung Klinische Psychologie des Fachbereiches Psychologie der PFH jetzt eine vierte Befragung, für die noch Teilnehmende gesucht werden.

Die ca. zwanzigminütige, wissenschaftlich fundierte Umfrage ist unter dem Link: https://umfragen.pfh.de/umfragen/index.php/814951?lang=de verfügbar. „Wir erhoffen uns durch die nun vierte Befragung weitere Erkenntnisse darüber, inwiefern die Pandemie und die bundesweiten Maßnahmen die Entwicklung psychischer Krankheiten über die Jahre hinweg beeinflussen“, so Prof. Dr. Youssef Shiban, Leiter des internationalen Forschungsprojekts und Professor für Klinische Psychologie an der PFH. „Bereits vor der Pandemie gab es mehr Menschen mit hoher psychischer Belastung als das Gesundheitssystem aufnehmen konnte. Diesen Missstand wird die Pandemie nach vielen bisherigen Erkenntnissen weiter anfachen“, so Shiban.

Die Auswertungen der im Rahmen des internationalen Forschungsprojektes durchgeführten ersten drei Befragungen, die vom ersten Lockdown Anfang 2020 bis zum dritten Lockdown Anfang 2021 stattfanden, ergaben eine alarmierend hohe Belastung in Bezug auf Depressionssymptomatik. „Der Anteil an Personen, die schwere Belastungen durch depressive Symptome berichten, war zum zweiten Lockdown mehr als doppelt so hoch als im ersten Lockdown“, berichtet Shiban. Auch in den Kategorien Angst-, Zwangs- und Somatisierungssymptomatik zeigten sich Verschlechterungen. „Diese Befunde lassen vermuten, dass die anhaltenden Beschränkungsmaßnahmen die Wahrscheinlichkeit einer verstärkten Belastung insbesondere bei schweren Symptomen erhöhen“, sagt Shiban. Zwar könne die Studie keine Aussagen über Diagnosen liefern, sondern lediglich über Symptombelastungen, laut Prof. Shiban belegt vergangene Forschung jedoch, dass nicht-klinische Symptome einen erheblichen Risikofaktor für die Entstehung psychischer Krankheiten darstellen.

Teilnehmer:innen für Online-Studie gesucht
Um zu untersuchen, inwieweit sich der Belastungsgrad im Laufe der anhaltenden Beschränkungen verändert, führt die Forschergruppe jetzt eine weitere Umfrage durch. „Es erscheint wichtig zu untersuchen, wie der Belastungsgrad sich während und nach Lockdowns verändert, um Belastungsfaktoren isolieren zu können und zukünftigen Versorgungsbedarf abzuschätzen“, so Shiban. Freiwillige, die das 18 Lebensjahr vollendet haben, können unter https://umfragen.pfh.de/umfragen/index.php/814951?lang=de an der Umfrage teilnehmen. Die Bearbeitungszeit beträgt ca. 20 Minuten. „Diese Umfrage ähnelt den vorigen Umfragen sehr, sodass sie dem ein oder anderen bekannt vorkommen wird. Dies sollte jedoch niemanden zurückschrecken, da es unser Ziel ist, die gleichen Informationen zu verschiedenen Zeitpunkten zu erheben“, so Shiban. ”Es wäre deshalb schön, wenn möglichst viele Menschen teilnehmen können, um möglichst verlässliche Ergebnisse zu erhalten.”

Die publizierten Ergebnisse der bisherigen Studien sind zu finden unter:
https://www.researchgate.net/publication/342912733_Depression_symptoms_during_th…
und
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8453152/

Wissenschaftliche Ansprechpartner:
Prof. Dr. Youssef Shiban, shiban@pfh.de

Anhang
Presseinformation Studie PFH Göttingen

(nach oben)


Skepsis gegenüber Zuwanderung nimmt in Deutschland weiter ab

Hendrik Baumann Pressestelle
Bertelsmann Stiftung
Optimistische Einstellungen zur Migration haben in der Bundesrepublik weiter zugenommen. Die Skepsis geht langsam, aber kontinuierlich zurück. Zugleich wachsen die Erwartungen an die deutsche Gesellschaft, Hindernisse für die Integration abzubauen sowie Staats-, Verwaltungs- und Bildungswesen stärker für Zugewanderte zu öffnen.

Gütersloh, 16. Februar 2022. Die Beurteilung von Migration und Integration in Deutschland hat sich erneut leicht verbessert. Dabei spielen insbesondere die Chancen, welche die Zuwanderung der Wirtschaft bietet, eine Rolle. Das geht aus einer neuen Studie der Bertelsmann Stiftung zur Willkommenskultur hervor. Demnach sind 68 Prozent der Befragten der Ansicht, Zuwanderung bringe Vorteile für die Ansiedlung internationaler Firmen. 65 Prozent erwarten eine geringere Überalterung der Gesellschaft, 55 Prozent einen Ausgleich für den Fachkräftemangel und 48 Prozent Mehreinnahmen für die Rentenversicherung.

Die Werte fallen höher aus als bei den vorhergehenden Befragungen in den Jahren 2017 und 2019. Analog dazu sind die Sorgen vor möglichen negativen Effekten von Zuwanderung weiter zurückgegangen, auch wenn diese nach wie vor von einer Mehrheit geteilt werden. Befürchtungen im Hinblick auf Belastungen für den Sozialstaat äußern 67 Prozent der Befragten, 2019 waren es noch 71 Prozent. Konflikte zwischen Eingewanderten und Einheimischen erwarten noch 66 Prozent (2019: 69 Prozent). Mit Problemen in Schulen rechnen nur noch 56 Prozent (2019: 64 Prozent). Ungebrochen ist die Sorge vor Wohnungsnot in Ballungsräumen, die mit 59 Prozent auf demselben Niveau liegt wie vor drei Jahren.

„Die Chancen von Zuwanderung rücken mehr in den Fokus“
„Das Verhältnis der deutschen Bevölkerung zur Migration hat sich seit dem Höhepunkt der ‚Fluchtkrise‘ 2015 kontinuierlich verbessert und die Chancen von Zuwanderung rücken immer mehr in den Fokus. Das dürfte auch an den Erfahrungen aus der Corona-Krise liegen. Viele Menschen haben konkreter erfahren, wie wichtig es ist, dass die kritische Infrastruktur funktioniert und dass wir hierfür auch auf Zuwanderung angewiesen sind, von der Pflege, über den Dienstleistungssektor bis hin zur Landwirtschaft. Allerdings ist auch klar zu erkennen, dass der Umgang mit Vielfalt Zeit braucht. Sorgen und Zweifel sind noch immer verbreitet und erfordern gesamtgesellschaftliche Antworten“, sagt Orkan Kösemen, Projektleiter bei der Bertelsmann Stiftung.

Wie die Studie zeigt, ist die Sicht auf die Willkommenskultur in Deutschland nach wie vor differenziert: Menschen, die zum Arbeiten oder Studieren einwandern, werden nach Einschätzung einer großen Mehrheit der Befragten von den staatlichen Stellen ihrer Kommune (78 Prozent) wie auch von der Bevölkerung vor Ort (71 Prozent) eher oder sehr willkommen geheißen. Zwar sehen die Befragten das für die Gruppe der Geflüchteten mehrheitlich ebenso, allerdings fallen die Werte hier mit 68 und 59 Prozent deutlich geringer aus. Andererseits ist die Aufnahmebereitschaft gegenüber geflüchteten Menschen gestiegen und steht erstmals wieder an einem ähnlichen Punkt wie vor 2015. Nur noch 36 Prozent vertreten aktuell die Meinung, Deutschland könne nicht mehr Geflüchtete aufnehmen, weil es an seiner Belastungsgrenze sei. 2017 äußerten sich noch 54 Prozent so. Auch die Ansicht, dass die Bundesrepublik aus humanitären Gründen mehr Geflüchtete aufnehmen sollte, wird inzwischen von fast jedem zweiten Befragten (48 Prozent) geteilt.

Mangelnde Chancengleichheit und Diskriminierung behindern die Integration
Schon die zurückliegenden Studien zur Willkommenskultur haben ergeben, dass Integration nicht als Einbahnstraße wahrgenommen wird, sondern als ein Prozess, der sowohl den Zu-gewanderten als auch dem Aufnahmeland Anstrengungen abverlangt. In der aktuellen Befragung fällt auf, dass die Erwartungen an die Aufnahmegesellschaft stärker ins Blickfeld rücken. So sehen mehr Menschen als noch 2019 mangelnde Chancengleichheit für Zugewanderte auf dem Arbeitsmarkt und Diskriminierung aufgrund der Herkunft als größte Hindernisse für Integration. Dazu passt, dass sich auch mehr Befragte für neue Antidiskriminierungsgesetze aussprechen, vor allem in Bezug auf den Umgang mit Behörden. Zudem herrscht die Auffassung vor, dass Menschen mit Migrationshintergrund in wichtigen gesellschaftlichen Bereichen nur ungenügend vertreten sind. Das gilt vor allem für Politik, Verwaltung und Polizei sowie Kitas, Schulen und Universitäten. Weiterhin finden viele Befragte, dass die Leistungen von Zugewanderten nicht ausreichend gewürdigt werden. Die Migrant:innen selbst bewerten die Situation noch kritischer. Im Vergleich zum Durchschnitt der Befragten sehen mehr von ihnen mangelnde Chancengleichheit und Diskriminierung als größte Integrationshindernisse. Auch ihre Zustimmungswerte zur Frage nach angemessener Vertretung in gesellschaftlichen Schlüsselbereichen fallen teilweise niedriger aus.

Voraussetzungen für gesellschaftliche Teilhabe verbessern
Die Bertelsmann Stiftung empfiehlt daher, strukturelle Benachteiligungen für Zugewanderte weiter abzubauen und so die Voraussetzungen für ihre gesellschaftliche Teilhabe zu verbessern. Neue gesetzliche Regelungen zur Antidiskriminierung sollten dafür ebenso geprüft wer-den wie rechtliche Maßnahmen zur Förderung von Migrant:innen bei der Besetzung von Stellen in Verwaltung und öffentlichem Dienst. Doch auch symbolische Anlässe und Orte, wie Einbürgerungsfeiern oder das geplante „Haus der Einwanderungsgesellschaft“ in Köln, spielen eine wichtige Rolle: „Projekte, die Wertschätzung und Anerkennung gegenüber zugewanderten Mitbürger:innen zum Ausdruck bringen, fördern das Zusammenwachsen sowie das Selbstverständnis als Einwanderungsgesellschaft. Darüber hinaus können sie dazu beitragen, Deutschland als weltoffenes Land für ausländische Fachkräfte attraktiver zu machen, was angesichts des demografischen Wandels dringend nötig ist“, sagt Ulrike Wieland, Integrationsexpertin der Bertelsmann Stiftung. Um mehr qualifizierte Arbeitskräfte aus dem Ausland zu gewinnen, sollten zudem die Bestimmungen des Fachkräfteeinwanderungsgesetzes konsequent angewendet werden, insbesondere im Bereich der beruflichen Ausbildung.

Zusatzinformationen
Für die Studie „Willkommenskultur zwischen Stabilität und Aufbruch. Aktuelle Perspektiven der Bevölkerung auf Migration und Integration in Deutschland“ hat das Meinungsforschungsinstitut Kantar EMNID 2.013 Menschen in Deutschland ab 14 Jahren repräsentativ befragt. Die Befragung fand zwischen dem 3. und 10. November 2021 statt. Die Daten erlauben Vergleiche zu den vorhergehenden Studien zur Willkommenskultur, welche die Bertelsmann Stiftung im Oktober 2012, Januar 2015, Januar 2017 und April 2019 durchgeführt hat.

Unsere Expert:innen:
Dr. Orkan Kösemen, Telefon: 0 52 41 / 81 81 429
E-Mail: orkan.koesemen@bertelsmann-stiftung.de

Dr. Ulrike Wieland, Telefon: 0 52 41 / 81 81 398
E-Mail: ulrike.wieland@bertelsmann-stiftung.de

Weitere Informationen:
http://www.bertelsmann-stiftung.de

(nach oben)


Studie: Umweltfachleute unterstützen Umweltpolitik jenseits des Wirtschaftswachstums

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig

► Befragung unter Mitarbeitenden des Umweltbundesamtes zeigt Skepsis, dass „grünes“ Wachstum Umweltprobleme lösen kann
► Expert*innen halten wachstumskritische Konzepte für zielführender
► Artikel in Fachzeitschrift „Journal of Cleaner Production“ erschienen

Damit die Wirtschaft klimaschonender und nachhaltiger wird, setzen die meisten Politikansätze auf die Strategie eines „grünen Wachstums“. Doch Umweltfachleute stehen diesem Konzept, das auf weiteres Wirtschaftswachstum abzielt, kritisch gegenüber, wie eine neue Studie zeigt. Eine Befragung von Mitarbeitenden des Umweltbundesamtes – Deutschlands zentraler Umweltbehörde – ergab, dass die Expert*innen wachstumskritische Konzepte für zielführender halten. Die Studienautor*innen vom Institut für ökologische Wirtschaftsforschung (IÖW) und der ESCP Business School haben ihre Ergebnisse im Journal of Cleaner Production vorgestellt. Sie sehen die Befunde als Unterstützung für eine Umweltpolitik jenseits des Wachstums.

Mehrheit der Befragten zeigt sich wachstumskritisch
„Bei einer Auswahlfrage, welche Strategie sie am geeignetsten finden, um Umweltprobleme zu lösen, wählten drei Viertel der Befragten solche Wirtschaftskonzepte, die nicht auf Wachstum setzen. Nur ein Viertel entschied sich für grünes Wachstum“, so Cathérine Lehmann, IÖW-Hauptautorin der Studie. Bei weiteren Fragen, die die Zustimmung implizit über Aussagen zu ökonomischem Wachstum und Umweltbelangen erhoben, ist das Bild sogar noch deutlicher: Fast 99 Prozent der befragten Umweltfachleute stimmten in der Summe eher wachstumskritischen Standpunkten zu.

„Grünes Wachstum setzt darauf, dass die Emissionen und Ressourcenverbräuche vom Wirtschaftswachstum entkoppelt werden, damit die Umwelt entlastet wird“, erklärt IÖW-Ökonom Steffen Lange. „Ob dies allerdings eintreffen und ausreichend sein wird, ist überaus umstritten.“ Längst werden daher alternative Konzepte diskutiert. Der Ansatz „Degrowth“ etwa argumentiert, dass eine Nachhaltigkeitstransformation, die den ökologischen Herausforderungen gerecht wird, in den wohlhabenden Ländern mit einer deutlichen Reduktion des Bruttoinlandsprodukts pro Kopf einhergehen würde. Eine Mittelposition zwischen grünem Wachstum und Degrowth ist „A-Growth“. Dieser Ansatz geht davon aus, dass es nicht vorab abzusehen ist, ob das Bruttoinlandsprodukt steigen oder fallen wird.

Die Befragten bewerteten auch die „vorsorgeorientierte Postwachstumsposition“ als sehr gut, die 2018 vom IÖW, dem RWI – Leibniz-Institut für Wirtschaftsforschung und dem Wuppertal-Institut entwickelt wurde. Sie zielt vor dem Hintergrund der großen Unsicherheit der Möglichkeit einer weitreichenden Entkopplung von Wirtschaftswachstum und Umweltbelastungen darauf ab, dass gesellschaftliche Systeme wachstumsunabhängig(er) gestaltet werden sollten.

Je mehr Fachwissen zu Wachstumskonzepten, umso wachstumskritischer
„Um Umweltprobleme zu lösen, halten unserer Erhebung zufolge die Mitarbeiter*innen im Umweltbundesamt Ansätze wie Degrowth, A-Growth oder die vorsorgeorientierte Postwachstumsposition für geeigneter, als auf weiteres Wachstum zu setzen“, so Lehmann. „Unsere Befragung zeigt, dass diese Sichtweise bei Fachleuten mit größerer Expertise zu den genannten Wachstumskonzepten sogar besonders stark ausgeprägt ist. Viele Befragte scheinen also eher skeptisch zu sein, dass politische Strategien für grünes Wachstum wie der European Green Deal zur erforderlichen Entkopplung von Ressourcenverbrauch und Wachstum führen werden.“

Über 250 Teilnehmende an Befragung
Die Wissenschaftler*innen hatten alle Beschäftigten des Umweltbundesamts eingeladen, an der 20-minütigen Onlinebefragung teilzunehmen. 259 Mitarbeitende der Bundesoberbehörde haben sich im Jahr 2020 an der Befragung beteiligt.

Download Journal-Artikel:
Cathérine Lehmann, Olivier Delbard, Steffen Lange (2022): Green growth, a-growth or degrowth? Investigating the attitudes of environmental protection specialists at the German Environment Agency. Journal of Cleaner Production, https://doi.org/10.1016/j.jclepro.2021.130306

Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.

Das IÖW forscht seit vielen Jahren zum Thema Wachstum in der Nachhaltigkeitsdebatte. Um eine verantwortliche Wirtschafts- und Umweltpolitik gestalten zu können, kommt es weniger auf Wachsen versus Schrumpfen an, so die Umweltökonom*innen um IÖW-Volkswirt Ulrich Petschow. Vielmehr müsse auf Vorsorge gesetzt werden: Die Gesellschaft sollte unabhängiger vom Wachstum werden, damit ambitionierte umweltpolitische Vorschläge nicht länger wegen eines Wachstumsvorbehalts ausgebremst werden können, so die „Vorsorgeorientierte Postwachstumsposition“ (https://www.ioew.de/publikation/gesellschaftliches_wohlergehen_innerhalb_planeta…).

http://www.ioew.de | http://twitter.com/ioew_de | http://www.ioew.de/newsletter

Wissenschaftliche Ansprechpartner:
Fachliche Ansprechpersonen:
Cathérine Lehmann, Dr. Steffen Lange
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-0
catherine.lehmann@ioew.de
steffen.lange@ioew.de

(nach oben)


Hilfe für Meer und Küste

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Mit dem Kick-off-Meeting am 17. und 18. Februar erfolgt jetzt der offizielle Start für die zweite Forschungsmission sustainMare „Schutz und nachhaltige Nutzung mariner Räume“ der Deutschen Allianz Meeresforschung (DAM). Sie analysiert unsere Nutzung von Meer und Küste. Meeresspiegelanstieg, Erwärmung und Versauerung der Meere sorgen zusammen mit der Verschmutzung und Übernutzung der Ökosysteme für tiefgreifende Probleme. Zwei Pilotvorhaben und fünf Verbundprojekte untersuchen die ökologischen, ökonomischen und sozialen Auswirkungen der Nutzung und Belastung von Nord- und Ostsee. Das Ziel: Handlungsempfehlungen für Nutzerinnen und Nutzer, Entscheiderinnen und Entscheider liefern.

Nahrungsgeber, Energielieferant, Rohstoffträger, Urlaubsziel und Transportweg. Meer und Küste werden vielgestaltig gebraucht und genutzt. Gleichzeitig beherbergen sie eine einzigartige biologische Vielfalt, die für das Ökosystem Küste essentiell ist. SustainMare, die zweite DAM-Forschungsmission, ist Anfang Dezember 2021 gestartet, um diesen Themenkomplex zu untersuchen. Über 200 Wissenschaftlerinnen und Wissenschaftler werden dazu ihren Beitrag leisten. Der Fokus liegt auf Konzepten und Implementierungen für eine am Gemeinwohl orientierte, den Wohlstand sichernde und umweltschonende Nutzung von Meeres- und Küstengebieten. Außerdem will die DAM-Mission Artenvielfalt und natürliche Lebensräume schützen helfen. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Mission mit rund 25 Millionen Euro über einen ersten Zeitraum von drei Jahren.

Küste und Meere im Blick
Die Effekte von Nutzung und Übernutzung können sich gegenseitig verstärken und zu ökologischen, aber auch zu gesellschaftlichen Krisen führen. „Die Mission will die Nutzung und Belastung mariner Räume analysieren und einordnen. Unsere fundierte wissenschaftliche Beratung soll eine Grundlage für Entscheider aus Politik, Behörden und Wirtschaft sein“, sagt Professor Corinna Schrum, Leiterin des Hereon-Instituts für Küstensysteme – Analyse und Modellierung und Sprecherin der Mission. Die Mission will ferner gesellschaftliche Optionen entwickeln für eine ausgewogene Nutzung und einen nachhaltigen Schutz, die nur unter Einbeziehung der verschiedenen Stakeholder, Nutzergruppen und der Öffentlichkeit entwickelt werden können.

SustainMare fokussiert drei Themenbereiche. Erstens: Konzepte zur Verminderung der Auswirkungen der Nutzung und menschengemachter Belastungen auf marine Ökosysteme und Biodiversität. Zweitens: Konzepte zur Vermeidung und Verminderung von Meeresverschmutzung. Und drittens: Modellgestützte Untersuchungen zukünftiger Nutzungsszenarien und Analysen möglicher Management Optionen. Inbegriffen sind aktuelle Probleme wie die Nutzung alternativer Energiequellen, die Belastung durch Munitionsaltlasten oder die Krise in der Fischerei. Die fünf Projekte CREATE, iSEAL, SpaCeParti, CONMAR und CoastalFutures bilden zusammen mit den beiden Pilotprojekten MGF Nordsee und MGF Ostsee die Forschungsmission in Gänze. Neben der Koordination der Mission verantwortet das Helmholtz-Zentrum Hereon auch das Projekt CoastalFutures.

Die weiteren Projekte werden durch das Alfred-Wegener-Institut – Helmholtz Zentrum für Polar- und Meeresforschung (MGF-Nordsee), das Leibniz-Institut für Ostseeforschung Warnemünde (MGF-Ostsee), den Landesbetrieb für Küstenschutz, Nationalpark und Meeresschutz Schleswig-Holstein (iSeal), die Christian-Albrechts-Universität Kiel (SpaCeParti), die Carl von Ossietzky Universität Oldenburg (CREATE) und das GEOMAR Helmholtz Zentrum für Ozeanforschung Kiel (CONMAR) koordiniert. In der sustainMare Forschungsmission arbeiten verschiedene wissenschaftliche Fachdisziplinen und Fachleute aus insgesamt mehr als 40 Instituten, Behörden, NGOs etc. eng zusammen.

Wissenschaftliche Ansprechpartner:
Kai Hoppe I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I T: +49 (0) 4152 87-1830 I kai.hoppe@hereon.de I www.hereon.de

Weitere Informationen:
https://www.allianz-meeresforschung.de/kernbereiche/forschung/meere-schuetzen-un…

(nach oben)


Die Millionen-Frage: Wie lösen wir komplexe Probleme?

Kathrin Haimerl Abteilung Kommunikation
Universität Passau
Prof. Dr. Carolin Häussler, Innovationsforscherin an der Universität Passau, hat gemeinsam mit ihrer ehemaligen Promovendin Dr. Sabrina Vieth untersucht, wann Menschen im digitalen Zeitalter zu welchen Problemlösungsstrategien greifen – und zwar anhand von Daten der Quiz-Sendung „Wer wird Millionär?“.

Ein Joker bei der 300-Euro-Frage? So ärgerlich das für manche Kandidatinnen und Kandidaten des beliebten RTL-Formats „Wer wird Millionär?“ ist, doch der eine oder die andere braucht bereits zu Beginn des Spiels Hilfe von außen. Nehmen sie diese dann auch in Anspruch? Oder hält sie die Sorge vor der öffentlichen Schmach zurück?

Es sind solche Konstellationen, die in die Studie der Innovationsforscherinnen Prof. Dr. Carolin Häussler (Universität Passau) und Dr. Sabrina Vieth (Coventry University London) eingeflossen sind. Insgesamt untersuchten die Wissenschaftlerinnen anhand der Daten der Quiz-Sendung, wie 4.556 Probleme von 398 Personen gelöst wurden. Dazu kodierten sie 243 Episoden der Show im Zeitraum von Oktober 2009 bis Juni 2013. „Wir wollten wissen: Wann lösen Menschen Probleme selbst, wann greifen sie auf das Spezialwissen individueller Expertinnen und Experten zurück, und wann auf das aggregierte Wissen des Publikums?“, erklärt Prof. Dr. Häussler.

Lösungsstrategien im digitalen Zeitalter
Was klingt, als wäre es lediglich eine unterhaltsame Studie, hat einen ernsthaften Hintergrund. Zwar konzentrierten sich die Forscherinnen in ihrer Analyse auf die Quiz-Sendung, denn: „Um die Effekte auch statistisch sauber zu analysieren, mussten wir ein Setting finden, in dem Menschen mit Problemen konfrontiert wurden, die sie sich nicht selbst ausgesucht haben.“ Doch die Erkenntnisse lassen nicht nur wichtige Schlüsse auf Lösungsstrategien im digitalen Zeitalter zu, in dem Möglichkeiten wie Suchmaschinen oder die Befragung der Crowd frei verfügbar sind. Die Studie liefert auch für die Innovationsfähigkeit von Unternehmen und der Gesellschaft wichtige Erkenntnisse.

Die Ergebnisse im Überblick:
• Soziale Normen, die einen offenen Austausch befürworten, erhöhen die Wahrscheinlichkeit, dass sich die Kandidatinnen und Kandidaten Hilfe von außen holen.
• Eine hohe Komplexität der Probleme motiviert die Spielerinnen und Spieler, Probleme extern zu lösen. In einer Kultur des offenen Austauschs nehmen sie auch bei weniger komplexen Problemen externe Hilfe in Anspruch.
• Bei sehr komplexen Problemen bevorzugen die Teilnehmenden das Spezialwissen einzelner Expertinnen und Experten; bei weniger komplexen Problemen befragen sie das Publikum.
• Ältere Teilnehmende nehmen seltener Hilfe in Anspruch als jüngere. Teilnehmende aus Großstädten waren offener für Hilfe von außen. Letzteres gilt auch für Teilnehmerinnen im Vergleich zu männlichen Spielern.

„Mit unserer Studie zeigen wir, dass dem Faktor der sozialen Normen bislang zu wenig Aufmerksamkeit geschenkt wurde“, sagt Prof. Dr. Häussler. In der Quiz-Sendung verkörpere Moderator Günther Jauch diese soziale Komponente. „Wenn er erinnert und signalisiert, dass es völlig legitim ist, sich Hilfe von außen zu holen, dann tun das die Kandidatinnen und Kandidaten auch.“

Soziale Normen als Schlüssel zur Problemlösung
Starke Normen des offenen Austauschs könnten den Forscherinnen zufolge eine andere Herangehensweise an Probleme fördern – „hin zu einer chancenorientierten Wahl der Problemlösung, die den Wert interner und externer Lösungen unabhängig von der Problemkomplexität anerkennt“. Gerade in einer Zeit mit immer größer werdenden Herausforderungen werde die Kompetenz, externe Lösungen einzuholen und zu koordinieren, immer wichtiger. Wenn also Unternehmen offene Innovationsstrategien auf institutioneller Ebene umsetzen wollen, dann liege es an den Führungskräften, Umgebungen zu schaffen, „in denen positive Einstellungen zu Offenheit und offenem Wissensaustausch verstärkt werden können“, schreiben die Forscherinnen.

Die Studie „A question worth a million: The expert, the crowd, or myself? An investigation of problem solving“ erscheint im April 2022 in dem renommierten Journal „Research Policy“. Es handelt sich dabei um eine der prominentesten Fachzeitschriften im Bereich der Innovationsforschung. Online ist die Studie bereits abrufbar unter: https://www.sciencedirect.com/science/article/abs/pii/S0048733321002456?dgcid=au…

Über die Autorinnen
Prof. Dr. Carolin Häussler ist seit 2011 Inhaberin des Lehrstuhls für Organisation, Technologiemanagement und Entrepreneurship und DFG-Vertrauensdozentin an der Universität Passau. Sie ist außerdem Projektleiterin im DFG-Graduiertenkolleg 2720: „Digital Platform Ecosystems (DPE)“ an der Universität Passau. Als Mitglied der Expertenkommission Forschung und Innovation (EFI) berät sie die Bundesregierung. Am 23. Februar 2022 übergibt sie Bundeskanzler Olaf Scholz das diesjährige EFI-Jahresgutachten. Mit dem International Center for Economics and Business Studies lockt Prof. Dr. Häussler Forscherinnen und Forscher aus aller Welt nach Passau.

Dr. Sabrina Vieth lehrt und forscht zu Entrepreneurship und Innovation an der Coventry University London. Sie promovierte an der Universität Passau mit dem Schwerpunkt Open Innovation und Crowdsourcing. Ihre Forschungsinteressen drehen sich um die Analyse von Problemlösungen und Wissensaustausch, sowohl im beruflichen als auch im Bildungskontext.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Carolin Häussler
Lehrstuhl für BWL mit Schwerpunkt Organisation, Technologiemanagement und Entrepreneurship
Innstraße 27
94032 Passau
Carolin.Haeussler@Uni-Passau.De

Originalpublikation:
https://www.sciencedirect.com/science/article/abs/pii/S0048733321002456?dgcid=au…

(nach oben)


Darmkrebs-Screening: Welche Strategie ist am wirksamsten?

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Wissenschaftlerinnen und Wissenschaftler vom Deutschen Krebsforschungszentrum (DKFZ) verglichen die Langzeiteffekte der derzeit in Deutschland angebotenen Strategien zur Darmkrebsvorsorge mit möglichen Alternativen. Mithilfe eines Simulationsmodells fanden sie heraus, dass sich das Darmkrebsrisiko zwar mit dem aktuellen Vorsorge-Angebot deutlich senken lässt, es aber ein erhebliches Potenzial gibt, die Vorsorge zu optimieren.

So könnten neben Männern auch Frauen stark davon profitieren, wenn das Anspruchsalter für die Vorsorge-Darmspiegelung von 55 auf 50 Jahre herabgesetzt würde. Außerdem könnten ergänzende Vorsorge-Angebote in höherem Alter erheblich dazu beitragen, die Zahl der Neuerkrankungen und der Sterbefälle zu senken.

Vorsorgeuntersuchungen reduzieren nachweislich das Risiko, an Darmkrebs zu erkranken oder daran zu versterben. In Deutschland werden derzeit verschiedene Möglichkeiten zur Darmkrebsvorsorge angeboten: die alleinige Verwendung fäkaler immunologischer Stuhltests (FITs), eine Kombination aus FITs und nachfolgender Darmspiegelung (Koloskopie), sowie die alleinige Koloskopie. FITs sind für beide Geschlechter ab dem 50. Lebensjahr verfügbar. Männer haben ab dem Alter von 50 Jahren auch Anspruch auf eine Darmspiegelung, Frauen ab 55 Jahren.

Bisher war jedoch nicht klar, welche der möglichen Vorsorgestrategien – auch mit Blick auf Geschlecht und Alter der betreffenden Personen – langfristig das Risiko für Darmkrebs am stärksten senkt. „Sowohl für Frauen und Männer, die an der Vorsorge interessiert sind, als auch für involvierte Ärzte ist es von großem Interesse zu wissen, welche der Strategien zur Darmkrebsvorsorge über einen längeren Zeitraum die effektivste ist“, erklärt der Epidemiologe Hermann Brenner vom Deutschen Krebsforschungszentrum (DKFZ).

Ein Wissenschaftler-Team um Brenner ging dieser Fragestellung nach und analysierte die Langzeiteffekte verschiedener Vorsorgestrategien anhand eines speziellen Simulationsmodells, das auf Grundlage umfangreicher Daten zur Darmkrebsvorsorge in der deutschen Bevölkerung entwickelt worden war.

Dabei fanden die Epidemiologen heraus, dass das Darmkrebsrisiko besonders stark mit Strategien reduziert werden könnte, die derzeit in Deutschland nicht angeboten werden. Beispielsweise würde eine dritte Vorsorgekoloskopie ab dem Alter von 70 Jahren bei Männern das Risiko, an Darmkrebs zu sterben, um weitere neun Prozent verringern. Ähnlich starke Effekte zeigen sich bei einer Erweiterung des Angebots um zusätzliche Stuhltests in höherem Alter. Für Frauen wäre ein alternatives Vorsorgeangebot mit drei Koloskopien alle zehn Jahre ab dem Alter von 50 Jahren wirksamer als alle aktuell verfügbaren Angebote.

„Das aktuelle Angebot leistet bereits einen enormen Beitrag zur Krebsprävention und Senkung der Darmkrebsmortalität“, so Thomas Heisser, Forscher am DKFZ und Erstautor der aktuellen Studie. „Doch unsere Ergebnisse zeigen, dass noch viel Optimierungspotenzial besteht. Beispielsweise sollten auch Frauen die Vorsorgekoloskopie schon ab 50 Jahren nutzen können. Vor dem Hintergrund des demographischen Wandels wäre es außerdem besonders wichtig, zusätzliche Angebote für ältere Menschen zu schaffen, zum Beispiel auf Grundlage immunologischer Stuhltests.“

In Deutschland sterben jedes Jahr etwa 25.000 Menschen an Darmkrebs. „Die meisten dieser Todesfälle wären durch die Darmkrebsvorsorge vermeidbar“, sagt Brenner. „Deshalb arbeiten wir daran, die Möglichkeiten der potenziell lebensrettenden Früherkennungsuntersuchungen weiter zu optimieren.“

Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Model based evaluation of long-term efficacy of existing and alternative colorectal cancer screening offers: A case study for Germany. Int J Cancer 2021. DOI 10.1002/ijc.33894

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

Originalpublikation:
Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Model based evaluation of long-term efficacy of existing and alternative colorectal cancer screening offers: A case study for Germany. Int J Cancer 2021. DOI 10.1002/ijc.33894

(nach oben)


Mikrobielle Saubermänner räumen Kläranlagen auf

Anette Hartkopf Presse und Kommunikation
Universität zu Köln
Forscher:innen entschlüsseln, wie die mikrobiellen Bewohner von Kläranlagen dabei helfen, Darmparasiten zu beseitigen / Artikel in „Microbiome“ erschienen

Wimperntierchen und Rädertierchen sind die „Saubermänner“ in Kläranlagen. Das ergab eine Studie von Jule Freudenthal und Dr. Kenneth Dumack in der Arbeitsgruppe von Professor Dr. Michael Bonkowski am Institut für Zoologie der Universität zu Köln gemeinsam mit ihren Schweizer Kollegen Dr. Feng Ju und Dr. Helmut Bürgmann vom Eawag – das Wasserforschungsinstitut des ETH-Bereichs. Die Wimperntierchen und Rädertierchen jagen Krankheitserreger wie Giardia oder Entamoeba, Parasiten, die den Darm von Mensch und Tier befallen können. Die Forschenden analysierten in ihren Untersuchungen die Zusammensetzung von DNA und RNA der Abwässer während der Aufreinigung in Klärwerken und erstellten dabei Netzwerkanalysen der mikrobiellen Lebensgemeinschaften. Die Ergebnisse wurden im Artikel „Microeukaryotic gut parasites in wastewater treatment plants: diversity, activity, and removal“ in der Fachzeitschrift Microbiome veröffentlicht.

Die Forschenden erlangten neue Erkenntnisse zu einer der wichtigsten, jedoch wenig erforschten Funktion von Kläranlagen: die Entfernung von Parasiten. Klärwerke verfügen über komplexe Gemeinschaften von Mikroorganismen, bestehend aus nützlichen Wasseraufreinigern, aber auch schädlichen Parasiten, die durch unsere Abwässer eingeschwemmt werden. Obwohl allgemein bekannt ist, dass Kläranlagen gut funktionieren, wissen wir noch erstaunlich wenig darüber, wie sie funktionieren. Insbesondere das Schicksal von Darmparasiten während der Abwasserbehandlung ist kaum erforscht. Die Studie kann somit helfen, in Zukunft Risiken für die öffentliche Gesundheit zu vermeiden.

Anhand der untersuchten DNA- und RNA-Daten aus Kläranlagen entdeckte das Team eine überraschende Vielfalt an vorhanden (DNA) und auch aktiven (RNA) Parasiten im Zulauf der Kläranlagen. Dabei fanden sie auch einen großen Anteil an Parasiten der sogenannten „komplexen Einzeller“, den Protisten, wie zum Beispiel Giardia, der Giardiasis, eine Infektion des Dünndarms, verursacht, oder Entamoeba, den Verursacher der Amöbenruhr. Außerdem fanden sie Blastocystis, einen weltweit verbreiteten Darmparasiten. „Wir konnten bestätigen, dass die Parasiten im Laufe der Abwasserbehandlung reduziert werden und führen dies auf Räuber-Beute Interaktionen in den Klärbecken zurück“, sagt die Doktorandin Jule Freudenthal, die führende Forscherin dieser Studie.

Die Forschung zeigt eine beeindruckende Aktivität von Rosculus, einer kleinen Amöbe, die man hauptsächlich daher kennt, dass sie sich explosionsartig in Kuhdung vermehrt. „Wie wir hier zeigen, trifft das auch auf den Einlauf von Kläranlagen zu“, sagt Studienleiter Dr. Kenneth Dumack. Sogenannte Netzwerkanalysen, die das gemeinsame Vorkommen von Mikroorganismen in Bezug zueinander setzen, haben weiterhin gezeigt, dass Ciliaten und Rädertiere wichtige „Saubermänner“ sind, die Klärwasser von Parasiten befreien und so eine sichere Nutzung von aufgereinigtem Wasser ermöglichen.

Ein vollständiges Monitoring sowie die Forschung an den Mechanismen zur Reduzierung von Parasiten in Kläranlagen helfen, den Klärprozess zu optimieren. Zukünftige Forschungen, die sowohl DNA- als auch RNA-Daten einbeziehen, können helfen, die Risiken für die öffentliche Gesundheit zu verringern, die mit unzureichend behandelten Abwässern verbunden sind.

Presse und Kommunikation:
Robert Hahn
+49 221 470-2396
r.hahn@verw.uni-koeln.de

Wissenschaftliche Ansprechpartner:
Dr. Kenneth Dumack
Institut für Zoologie der Universität zu Köln
+49-221-470-8242
kenneth.dumack@uni-koeln.de

Originalpublikation:
https://rdcu.be/cGIwb

(nach oben)


Abwasserwiederverwendung – der Weg aus der weltweiten Wasserknappheit?

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
In großen Teilen der Welt wird Wasser aus Grund- oder Oberflächengewässern gewonnen, um den Wasserbedarf der Bevölkerung zu decken. Diese Wasserressourcen stehen jedoch nicht unbegrenzt zur Verfügung. Der steigende Bedarf an Wasser ist mit der zunehmenden Bevölkerungszahl und der damit einhergehenden steigenden Nachfrage nach landwirtschaftlichen Erzeugnissen, Energie und Industrieprodukten zu erklären. Außerdem nehmen zusätzlich Dürrephasen klimawandelbedingt immer weiter zu. Es ist deshalb dringend notwendig, die bisherigen Wassermanagementansätze zu überdenken. Ein Projekt zur Abwasserwiederverwendung an der Hochschule Hof nimmt sich dieser Problematik an.

Besonders für die Landwirtschaft haben die Zeiträume mit Wasserknappheit negative Auswirkungen. Da durch den Mangel an Wasser das Pflanzenwachstum eingeschränkt ist, ist die Ertragssicherheit gefährdet. Um ein nachhaltiges Wassermanagement in allen Lebensbereichen zu gewährleisten, rückt deshalb die Abwasserwiederverwendung immer weiter in den Fokus. „Abwasserwiederverwendung bedeutet, dass Abwasser so aufbereitet wird, dass es an den späteren Nutzen und dem daraus resultierenden Qualitätsanspruch angepasst sein muss“, sagt Prof. Günter Müller-Czygan, Stiftungsprofessor an der Hochschule Hof und Leiter der Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“.

Kommunales Abwasser für Abwasserwiederverwendung interessant
Da kommunales Abwasser mengenmäßig die größte zur Verfügung stehende Wasserquelle ist, sie gleichzeitig aber stets stark verschmutzt ist, muss moderne Technik zum Einsatz kommen. Diese macht es heutzutage möglich, dass wiederaufbereitetes Abwasser eine deutlich höhere Qualität aufweist als manch eine „natürliche“ Wasserquelle. „Die Aufbereitung des Wassers von kommunalen Quellen ist mittlerweile meist unkompliziert, aber je nach Verschmutzungsgrad technisch aufwendig und kostenintensiv“, so Prof. Günter Müller-Czygan. Technologien und notwendige Systeme sind aber verfügbar und bereits etabliert. Die Nutzung dieser Wasserquelle bietet somit erhebliche Vorteile: Neben der Schonung und damit nachhaltigeren Nutzung natürlicher Wasserressourcen sind durch die Aufbereitungsschritte auch der Eintrag von Schadstoffen in die Umwelt geringer und Temperaturveränderungen und Versalzung, die ebenfalls für einen gestörten Stoffhaushalt von Gewässern verantwortlich sein können, können minimiert werden. „Die Nutzung von wiederaufbereitetem Abwasser könnte also ein wirksamer Lösungsbaustein für die zunehmende Wasserknappheit darstellen“, so der Forschungsgruppenleiter.

Abwasserwiederverwendung scheitert nicht an Technik, sondern an Akzeptanz
Ziel des Vorhabens FlexTreat (Flexible and reliable concepts for sustainable water reuse in agriculture) an der Hochschule Hof ist es daher, durch die Entwicklung und Demonstration flexibler und an die landwirtschaftlichen Bedürfnisse angepasster technischer und naturnaher Aufbereitungssysteme die sichere Abwasserwiederverwendung in der Landwirtschaft zu fördern. „Viele Projekte zur Abwasserwiederverwendung scheitern aber nicht an Fragen zur Aufbereitungstechnik, sondern am Mangel eines rechtlichen Rahmens sowie an der Akzeptanz auf Nutzerseite“, erklärt Prof. Müller-Czygan.

International etabliert – in Deutschland noch in den Kinderschuhen
International ist die Abwasserwiederverwendung bereits etabliert und wird vielfach eingesetzt. In Deutschland hemmen unterschiedliche Rahmenbedingungen, fehlendes Wissen oder nicht bekannte Erwartungshaltungen auf Nutzerseite deren möglichen Einsatz. Ein konstruktiver Austausch zwischen Wasseranbietern, Behörden und Nutzern wie zum Beispiel Landwirten und Anwohnern ist für die Akzeptanz einer Wiederverwendung von gereinigtem Abwasser zwingend notwendig. „Die Darstellung der Nutzervorteile wie auch die Sicherstellung eines geeigneten Risikomanagements inkl. Monitoring spielen hier eine wichtige Rolle. Vor dem Hintergrund des sich vollziehenden Klimawandels und einer zu erwartenden Verringerung der Wasserverfügbarkeit ist für die Abwasserwiederverwendung zukünftig eine erhöhte Akzeptanz notwendig. Diese stellt sich allerdings nicht von selbst ein, sondern ist neben der Bereitstellung ausgereifter Technik auch das Ergebnis einer zielgerichteten Kommunikation und Informationspolitik“, so Stiftungsprofessor Müller-Czygan. Um Maßnahmen zur Akzeptanzerhöhung definieren zu können, übernimmt die Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“ als Unterauftragnehmer der Pegasys Gesellschaft für Automation und Datensysteme mbH die Akzeptanzuntersuchung im Projekt FlexTreat.

Die Akzeptanz für wiederaufbereitetes Wasser von Emotionen abhängig
Allgemein ist die Akzeptanz in der Bevölkerung von verschiedenen Faktoren abhängig, die regional und kulturell sehr unterschiedlich sind. Somit lassen sich keine generellen Schlüsse ziehen. Jeder Einzelfall müsste zu Beginn auf die verschiedenen Faktoren überprüft werden. Je häufiger die Wiederverwendung in Zukunft erfolgt, desto eher werden sich allgemein übertragbare Akzeptanzmuster finden und übertragen lassen. In der internationalen Literatur gibt es bereits identifizierte und wissenschaftlich abgesicherte Faktoren, die häufig als Grund für eine ablehnende Haltung gegenüber wiederaufbereitetem Wasser genannt wurden. Deren Übertragbarkeit auf Deutschland werden wir prüfen“, erklärt Dr. Julia Frank, wissenschaftliche Mitarbeiterin in der Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“.Sie ist für die Durchführung des Projektes verantwortlich.

Der „yuck factor“
Hier sind soziotechnische, demographische, psychologische, ökologische, ökonomische und kulturelle Faktoren zu nennen, die die Akzeptanz für die Abwasserwiederverwendung beeinflussen. Der bestuntersuchte Faktor ist psychologischer Natur, und wird in der Literatur als „yuck factor“ bezeichnet. Er drückt den Grad der Ablehnung, bzw. des Ekels aus, und geht mit einer geringen Akzeptanz einher. „Der Grad der Ablehnung wird mit einem vermeintlichen persönlichen Gesundheitsrisiko in Verbindung gebracht“, so Frank.

Die kulturelle Prägung erschwert die Übertragbarkeit von regionalen Studien
Aber auch Faktoren wie Alter, Erziehung, Religionszugehörigkeit, Einstellung zum Umweltschutz oder auch das Vertrauen in die Politik spielen beim Thema Abwasserwiederverwendung eine große Rolle. Sie sind so individuell, kulturell und regional unterschiedlich, so dass Studien nur beim „yuck factor“ einen klaren Zusammenhang mit der Akzeptanz erkennen lassen. Bei den Strategien, die Akzeptanz in der Bevölkerung hinsichtlich des Themas Abwasserwiederverwendung zu erhöhen, werden meist Aufklärungskampagnen durchgeführt. In der Bevölkerung fehlt häufig das Wissen generell um die Abwasserreinigung und das Thema ist ohne ausreichend Hintergrundwissen umso emotionaler behaftet. Wichtig in diesem Zusammenhang ist hier, die Bevölkerung über den Prozess der Abwasserreinigung zu informieren. Die Terminologie, die in Informationsveranstaltungen oder Aufklärungskampagnen verwendet wird, ist dabei wichtig zu beachten. Um die Voraussetzungen für eine hohe Nutzerakzeptanz zu schaffen, bedarf es eigener Untersuchungen und eines gezielten Stakeholder-Dialogs auf regionaler Ebene. Genau dafür legt die Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“ mit ihrer Forschung in FlexTreat den Grundstein.

Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
Ingenieurwissenschaften
Umweltingenieurwesen
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
Fon: +49 (0) 9281 / 409 4683
E-Mail: guenter.mueller-czygan@hof-university.de

Anhang
Abwasserwiederverwendung – der Weg aus der weltweiten Wasserknappheit?

(nach oben)


Salmonellengefahr für Hundebesitzer

Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
Bundesamt erinnert am Welt-Haustiertag an notwendige Hygiene

Anlässlich des Welt-Haustiertags weist das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) auf das Risiko einer Übertragung von Salmonellen und ggf. anderen potenziell gefährlichen Mikroorganismen beim Füttern von Hunden hin. „Das Bewusstsein für den richtigen Umgang mit Futtermitteln ist nicht nur für die Gesundheit der Tiere, sondern auch ihrer Halter wichtig“, betont BVL-Präsident Friedel Cramer. Die richtige Hygiene gilt für die Hände genauso wie für die eingesetzten Haushaltsgeräte.

Krankmachende Bakterien können nicht nur bei Kontakt mit dem Hund oder über Hundekot, sondern auch bei der Futterzubereitung und über Hundekauartikel übertragen werden. Die Folge können schwere Magen-Darm-Infektionen sein. Besonders für Kinder und ältere Menschen ist es gefährlich, sich beispielsweise mit Salmonellen zu infizieren und zu erkranken, warnt das BVL.

Beim Zubereiten von rohen Futtermitteln, insbesondere Fleischerzeugnissen, gilt erhöhte Sorgfalt. Denn dort ist eine bakterielle Kontamination möglich. Durch das Übertragen der Keime von solchen Futtermitteln auf die Hände, auf Haushaltsgeräte und Küchenoberflächen können auch Speisen mit Krankheitserregern kontaminiert werden. Deshalb sollte alles nach der Benutzung unbedingt sorgfältig gereinigt sowie die Hände gründlich gewaschen werden.

Auch Hundekauartikel können Krankheitserreger verbreiten: Im Europäischen Schnellwarnsystem (RASFF) warnten die deutschen Überwachungsbehörden im Jahr 2020 in etwa 10 % der Meldungen zu Salmonellen im Futtermittelsektor vor Salmonellen in Hundekauartikeln. Für Hundebesitzer kann auch der Kontakt mit den Kauartikeln und die Verbreitung der Krankheitserreger auf diesem Wege ein Infektionsrisiko darstellen.

Hintergrund:
Über das RASFF informieren sich die EU-Mitgliedstaaten und assoziierte Staaten gegenseitig über mögliche gesundheitsgefährdende Lebensmittel, Futtermittel und Lebensmittelkontaktmaterialien wie Verpackungen, Geschirr oder Besteck. Die entsprechenden Produkte können so schnellstmöglich vom Markt genommen und die Verbraucher geschützt werden.

Anhang
2022_02_18_ PM Salmonellengefahr für Hundebesitzer_ fin

(nach oben)


Neuer Omikron-Subtyp auf dem Vormarsch

Jana Ehrhardt-Joswig Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft
Ähnlich wie zuvor in Dänemark breitet sich in Berlin ein weiterer Subtyp der Omikron-Variante aus: BA.2. Das ergab die Auswertung von Abwasserproben am MDC in Kooperation mit den Berliner Wasserbetrieben und dem Berliner Labor der amedes-Gruppe. Durch BA.2 könnte sich die derzeitige Corona-Welle verlängern.

Das Coronavirus mutiert ständig. Nach Alpha und Beta kam Delta, auch Gamma, Lambda, Epsilon und Iota kursieren in Teilen der Welt. Seit Omikron auf den Plan getreten ist, ist Delta in Deutschland fast vollständig verschwunden. Von Omikron sind zwei Subtypen bekannt, BA.1 und BA.2. In Berlin dominiert bislang BA.1. Doch Wissenschaftler*innen des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC), der Berliner Wasserbetriebe (BWB) und des Laborunternehmens amedes konnten nun im Berliner Abwasser die Omikron-Untervariante BA.2 nachweisen: Anfang Januar war der Anteil kaum sichtbar, doch bereits am 13. Januar ungefähr machte BA.2 sechs und am 20. Januar ungefähr zwölf Prozent aus. Er wächst also schnell an.

Die beiden Subtypen unterscheiden sich in etwa 20 Mutationen voneinander. In Dänemark und in Südafrika hat BA.2 den Subtyp BA.1 nahezu verdrängt, in Großbritannien nimmt der Anteil von BA.2 seit Anfang Januar ebenfalls schnell zu. Eine Untersuchung dänischer Forscher*innen zeigt, dass BA.2 sich offenbar noch schneller verbreitet als BA.1. „Es ist möglich, dass BA.2 die derzeitige Omikron-Welle etwas verlängert“, sagt der MDC-Molekularbiologe Dr. Emanuel Wyler aus der Arbeitsgruppe „RNA-Biologie und Posttranscriptionale Regulation“ von Professor Markus Landthaler. „Die bisherigen Daten aus Großbritannien und Dänemark deuten aber eher darauf hin, dass bezüglich Krankheitsschwere und Wirkung der Impfung BA.1 und BA.2 vergleichbar sind.“

Computer-Tool sagt voraus, ob Inzidenz zu- oder abnimmt
Bei ihrer Vorhersage stützen sich die MDC-Wissenschaftler*innen auf ein computergestütztes Tool, das Vic-Fabienne Schumann und Dr. Rafael Cuadrat von der Technologie-Plattform „Bioinformatics and Omics Data Science“ von Dr. Altuna Akalin am Berliner Institut für Medizinische Systembiologie (BIMSB) des MDC zusammen mit Kolleg*innen entwickelt haben. Mit „PiGx SARS-CoV-2“ können sie die Ausbreitung von SARS-CoV-2 sowie die Häufigkeit von Mutationen oder Virusvarianten aufdecken. Es funktioniert unabhängig von der Anzahl der Coronatests und den Krankheitsverläufen.
Ihre Ergebnisse decken sich mit denen der Berliner Wasserbetriebe, die in Kooperation mit dem Berliner Labor der amedes-Gruppe unter der Leitung von Dr. Martin Meixner ein eigenes Nachweis-Modell inklusive der Sequenzierung der Virusvarianten sowie eine App für die Visualisierung der Daten entwickelt haben. MDC und die Berliner Wasserbetriebe teilen sich die Arbeit auf: Während der Fokus der Wasserbetriebe auf der schnellen Bestimmung und Übermittlung der Viruslast liegt, analysiert das MDC vorrangig Untertypen und Mutationen.

Seit mehr als einem Jahr suchen die Forschenden im Berliner Abwasser nach dem Erbgut des Coronavirus. Einmal wöchentlich bereiten die Berliner Wasserbetriebe, die aktuell eine eigene Virus-Sequenzierung in ihrem Labor einrichten, Abwasserproben auf und senden diese ans BIMSB sowie an amedes. Die Wissenschaftler*innen reichern die Viruspartikel an und vervielfältigten das Virus-Erbgut mithilfe der PCR. In einem nächsten Schritt können sie mit Hochdurchsatz-Sequenzierungen sehen, welchen Anteil die einzelnen Virusvarianten unter den gefundenen Coronaviren ausmachen. Für die Abwasser-Sequenzierung am BIMSB ist insbesondere die Arbeitsgruppe von Markus Landthaler sowie die Genomik-Plattform unter der Leitung von Dr. Janine Altmüller verantwortlich.

Werden Proben aus dem Hals-Rachenraum sequenziert, wird bislang nicht zwischen Virusvarianten unterschieden. Abwasseranalysen machen das leichter: „Für ein aussagekräftiges Ergebnis über die Verbreitung neuer Virusvarianten müssen deutlich weniger Proben untersucht werden als bei der Analyse von Nasen-Rachenabstrichen“, sagt Markus Landthaler. „Außerdem können sie zur Frühwarnung dienen, da sie mit einigen Tagen Vorsprung zeigen, welche Variante im Umlauf ist. Die Daten zu BA.2 zeigen, wie empfindlich und effizient das Abwasser-Monitoring ist beim Bestimmen von Krankheitserregern. Das ist auch über SARS-CoV-2 hinaus von Bedeutung.“

Untersuchungen des Abwassers sind in Deutschland noch nicht als Teil eines Corona-Frühwarnsystems etabliert – weder für bekannte noch für ganz neue Virusvarianten. Das könnte sich jetzt ändern: Berlin ist einer von 20 Pilotstandorten im Abwasser-Monitoring-Programm, das die Bundesministerien für Umwelt, Naturschutz und nukleare Sicherheit (BMU), für Gesundheit (BMG) sowie für Bildung und Forschung (BMBF) mithilfe von EU-Mitteln fördern. Projektpartner sind die Berliner Wasserbetriebe und das Landesamt für Gesundheit und Soziales. Ziel ist ein nationales Abwasserüberwachungssystem. Es soll Daten über SARS-CoV-2 und insbesondere seine Varianten im Abwasser erheben und an die zuständigen Gesundheitsbehörden sowie an eine europäische Austauschplattform übermitteln.

Max-Delbrück-Centrum für Molekulare Medizin (MDC)
Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft gehört zu den international führenden biomedizinischen Forschungszentren. Nobelpreisträger Max Delbrück, geboren in Berlin, war ein Begründer der Molekularbiologie. An den MDC-Standorten in Berlin-Buch und Mitte analysieren Forscher*innen aus rund 60 Ländern das System Mensch – die Grundlagen des Lebens von seinen kleinsten Bausteinen bis zu organübergreifenden Mechanismen. Wenn man versteht, was das dynamische Gleichgewicht in der Zelle, einem Organ oder im ganzen Körper steuert oder stört, kann man Krankheiten vorbeugen, sie früh diagnostizieren und mit passgenauen Therapien stoppen. Die Erkenntnisse der Grundlagenforschung sollen rasch Patient*innen zugutekommen. Das MDC fördert daher Ausgründungen und kooperiert in Netzwerken. Besonders eng sind die Partnerschaften mit der Charité – Universitätsmedizin Berlin im gemeinsamen Experimental and Clinical Research Center (ECRC) und dem Berlin Institute of Health (BIH) in der Charité sowie dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK). Am MDC arbeiten 1600 Menschen. Finanziert wird das 1992 gegründete MDC zu 90 Prozent vom Bund und zu 10 Prozent vom Land Berlin.

Wissenschaftliche Ansprechpartner:
Dr. Emanuel Wyler
AG Landthaler, RNA-Biologie und Posttranscriptionale Regulation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC)
Telefon: +49 30 9406-3009
E-Mail: emanuel.wyler@mdc-berlin.de

Originalpublikation:
Vic-Fabienne Schumann, Rafael Ricardo de Castro Cuadrat, Emanuel Wyler et al. (2021): „COVID-19 infection dynamics revealed by SARS-CoV-2 wastewater sequencing analysis and deconvolution“. MedRxiv, DOI: 10.1101/2021.11.30.21266952

Hinweis: Es handelt sich um Zwischenergebnisse und ein Manuskript, das auf einem Preprint-Server der Wissenschaft zur Verfügung steht. Bislang gab es noch keine wissenschaftliche Begutachtung der Methode (Peer Review). Bis zur offiziellen Veröffentlichung kann noch einige Zeit vergehen, möglicherweise müssen die Autor*innen das Manuskript anpassen und / oder erweitern.

(nach oben)


SUSKULT: Regionaler Gemüseanbau auf der Kläranlage

Theresa von Bischopink Presse- und Öffentlichkeitsarbeit/ Wissenstransfer
Institut für Landes- und Stadtentwicklungsforschung gGmbH
Gemüseanbau direkt auf der Kläranlage – im Verbundprojekt „SUSKULT“ werden die Grundlagen für eine urbane und zirkuläre Agrarproduktion für das Jahr 2050 entwickelt. Das aktuelle ILS-TRENDS „Wie aus häuslichem Abwasser frische Tomaten werden – die künftige Rolle von Kläranlagen für eine Landwirtschaft in der Stadt“ von Ann-Kristin Steines und Marcel Haberland stellt das Projekt näher vor.

Bis Mitte des Jahrhunderts werden rund zwei Drittel der Weltbevölkerung in Städten leben. „Die Anbauflächen und die Ressourcen sind jedoch begrenzt“, erläutert ILS-Wissenschaftlerin Ann-Kristin Steines. „Bei SUSKULT erforschen wir ein neuartiges Agrarsystem, das zur Nahrungsmittelversorgung in urbanen Räumen beitragen soll.“ Entwickelt wird ein Bausteinsystem, mit dem die agrarwirtschaftliche Produktion auf dem Kläranlagengelände realisiert werden kann. In sogenannten NEWtrient®-Centern werden für den Anbau benötigte Ressourcen aus dem kommunalen Abwasser zurückgewonnen und aufbereitet, die dann direkt vor Ort für die Produktion eingesetzt werden können. Die Aufzucht der Pflanzen soll in sogenannten hydroponischen Systemen erfolgen. Die Pflanzen wachsen dort erdlos unter Einsatz der zuvor gewonnenen Nährstofflösung.

Das ILS – Institut für Landes- und Stadtentwicklungsforschung ist im Projekt für die Analyse und Abschätzung gesellschaftlicher und räumlicher Entwicklungstrends zuständig. „Gemeinsam mit anderen Stakeholdern ent-wickeln wir Szenarien und untersuchen die Wirkungsmechanismen, die sich von Produktionsstandorten auf die Stadtentwicklung und umgekehrt ergeben. Wir arbeiten daran, die Vorteile des Anbaus, etwa die Nähe zum Absatzmarkt oder die ressourcensparende Anbauweise, für die Bevölkerung transparent zu machen“, erläutert Steines.

Das Verbundprojekt steht nun vor einem nächsten großen Schritt: Noch in diesem Frühjahr soll die Fertigstellung einer Pilotanlage auf der Kläranlage Emschermündung erfolgen.

Unter der Koordination des Fraunhofer-Instituts für Umwelt-, Sicherheits- und Energietechnik UMSICHT arbeiten 15 Partnerinnen und Partner im Verbundprojekt „SUSKULT – Entwicklung eines nachhaltigen Kultivierungssystems für Nahrungsmittel resilienter Metropolregionen“ zusammen. Das Vorhaben wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Wissenschaftliche Ansprechpartner:
Ann-Kristin Steines, E-Mail: ann-Kristin.steines@ils-forschung.de

Originalpublikation:
ILS-TRENDS. Ausgabe 1/2022: Wie aus häuslichem Abwasser frische Tomaten werden – die künftige Rolle von Kläranlagen für eine Landwirtschaft in der Stadt von Ann-Kristin Steines und Marcel Haberland. https://www.ils-forschung.de/files_publikationen/pdfs/TRENDS-1.22_SUSKULT_ONLINE…

(nach oben)


FH-Forscher entwickelt Sensor zur Überwachung von Biogasanlagen

Team Pressestelle Presse-, Öffentlichkeitsarbeit und Marketing
FH Aachen
Dr. Shahriar Dantism forscht am Institut für Nano- und Biotechnologien (INB) der FH Aachen an neuester Sensortechnologie zur Untersuchung von Biogasprozessen. Mit seiner Arbeit „Development of a differential LAPS-based monitoring system to evaluate the metabolic response of bacteria in biogas process analyses“ hat der 39-Jährige jetzt an der KU Leuven promoviert, betreut wurde er seitens der FH von Prof. Dr. Michael J. Schöning und Prof. Dr. Torsten Wagner sowie durch Prof. Dr. Patrick Wagner von der KU Leuven.

„Ich wollte den Dingen schon immer auf den Grund gehen“, sagt Dr. Shahriar Dantism, „als Kind wollte ich Archäologe werden.“ Der Weg von dem Jungen, der mit einer kleinen Schaufel im Iran nach Relikten vergangener Zeiten suchte, hin zum erfolgreichen Wissenschaftler, der am Institut für Nano- und Biotechnologien (INB) in Jülich an neuester Sensortechnologie zur Untersuchung von Biogasprozessen forscht, war steinig. Aber die Arbeit hat sich gelohnt: Mit seiner Arbeit „Development of a differential LAPS-based monitoring system to evaluate the metabolic response of bacteria in biogas process analyses“ hat der 39-Jährige jetzt an der KU Leuven promoviert, betreut wurde er seitens der FH von Prof. Dr. Michael J. Schöning und Prof. Dr. Torsten Wagner sowie durch Prof. Dr. Patrick Wagner von der KU Leuven.
Nach seiner Schulausbildung im Iran fasste Shahriar Dantism den Entschluss, für ein Studium nach Deutschland zu kommen. „Ich wollte die Welt sehen“, erinnert er sich. Ein Teil seiner Familie lebte in den USA, aber ihn zog es ins Land der Dichter und Denker: „Die deutsche Sprache ist die Sprache der Philosophie.“ Er lernte Deutsch am Goethe-Institut in Teheran, 2003 schaffte er die Prüfungen und bekam die Zulassung für den Besuch eines Studienkollegs in Gießen. Auch dieses absolvierte er mit Bestnoten und nahm schließlich ein Elektrotechnikstudium an der RWTH Aachen auf. „Am Anfang war es schwer für mich“, erinnert er sich. Er musste sich nicht nur in einem fremden Land zurechtfinden und seinen Lebensunterhalt bestreiten, auch seine Familie im Iran benötigte Unterstützung: „Meine Eltern sind krank geworden, ich musste immer wieder nach Hause fliegen, um mich um sie zu kümmern.“ Er wechselte schließlich den Studiengang und schrieb sich für Biomedizintechnik am Campus Jülich der FH Aachen ein. „Die Bachelorarbeit habe ich in Teheran am Krankenbett meiner Mutter geschrieben“, erinnert er sich.
Shahriar Dantism bewältigte diese Herausforderungen, und sein Forschergeist war geweckt: In nur einem Jahr absolvierte er das Masterstudium – Abschlussnote 1,3 – und entschied sich anschließend zu promovieren. In Prof. Schöning, dem Direktor des INB, fand er einen Betreuer, mit dem er gemeinsam ein interessantes und zukunftsträchtiges Forschungsfeld identifizierte: die Überwachung von biochemischen Abläufen in der Biogasproduktion.
„Der Biogasprozess ist sehr komplex“, erläutert Prof. Schöning. Dieser Prozess könne effizienter und sicherer gesteuert werden, wenn präzise Informationen zu den Abläufen innerhalb der Anlagen vorlägen. Konkret geht es um Mikroorganismen, die den Metabolismus – also den Stoffwechsel – des Substrats beeinflussen. Deshalb hat sich Shahriar Dantism mit der Realisierung einer Multi-Sensoranordnung beschäftigt, mit der er unterschiedliche Bakterien gleichzeitig studieren kann. „Ich habe drei verschiedene Bakterientypen als Modellsysteme untersucht“, sagt Dr. Dantism, „die mittels des Sensorarrays eine Simultanmessung ermöglichen.“ Hierbei handelt es sich um die Bakterien Escherichia coli, Corynebacterium glutamicum und Lactobacillus brevis.
Konkret sieht der experimentelle Ansatz so aus, dass auf der Oberseite der Sensoranordnung ein Aufsatz mit vier Kammern angebracht ist. In drei der Kammern wird dem Substrat je eins der drei Bakterien zugegeben, in die vierte kommt nur das Substrat als Referenz. Auf der Unterseite des Chips wird durch Licht ein elektrisches Feld erzeugt – je nach Stoffwechselaktivität in den Kammern ändert sich dessen Stärke. „Dadurch können wir genau analysieren, welche Auswirkung die Zugabe von Mikroorganismen auf das Substrat hat“, erklärt Prof. Schöning. Bei der Entwicklung der Versuchsanordnung konnte der Nachwuchswissenschaftler auf die 3-D-Drucktechnik am Campus Jülich zurückgreifen. Und auch die interdisziplinäre Zusammenarbeit war wichtig: Die Kolleginnen und Kollegen vom Institut NOWUM-Energy ermöglichten den Zugang zu Proben aus ihrem Laborreaktor, mit dem unter anderem die Biogasgewinnung aus Altpapierresten erforscht wird. „Die Modellbakterien können dabei helfen, den sensorischen Ansatz zu justieren“, so Dr. Dantism, „der nächste Schritt sieht dann den Einsatz im Biogasreaktor mit prozessrelevanten Mikroorganismen vor.“
Die Biogasproduktion gilt als ein wichtiger Baustein zur Energiewende. Nach Angaben des Statistischen Bundesamts werden in Deutschland knapp 10.000 Biogasanlagen betrieben. Rund 18 Prozent der erzeugten Strommenge aus Erneuerbaren Energien entstand in Deutschland durch Biomasse. „Wenn wir die Prozesse innerhalb der Anlagen besser verstehen, können wir bei Störungen auch schneller reagieren“, sagt Prof. Schöning. Wenn etwa eine große Biogasanlage „umkippe“, müsse sie für bis zu drei Monate vom Netz genommen werden, und die Aufreinigung sei mit hohen Kosten verbunden.
Dr. Shariar Dantism ist dankbar für die Unterstützung, die er in seiner Zeit am INB erfahren hat. „Das Institut ist sehr gut vernetzt“, berichtet er, er habe die Gelegenheit bekommen, seine Forschungsergebnisse in sechs Publikationen zu veröffentlichen und bei 14 Konferenzen mit Fachleuten aus dem In- und Ausland zu diskutieren. Die Promotionsprüfung wurde hybrid durchgeführt: Drei belgische Kolleginnen und Kollegen waren in Leuven zugegen, ein belgischer Kollege und drei deutsche Kollegen sowie der Kandidat waren live vor Ort in Jülich unter 2G+-Bedingungen dabei. „Ich bin glücklich und dankbar, dass ich an einer so renommierten Hochschule promovieren konnte“, sagt der 39-Jährige. Es sei ein anstrengender Weg gewesen, „aber am Ende erntet man die Früchte.“
Unterstützt wurde das Forschungsvorhaben von Dr. Dantism vom Bundesministerium für Ernährung und Landwirtschaft (Projekt-Nr. 2200613).

(nach oben)


Corona-Impfung: Zweitimpfung mit Biontech steigert Immunantwort effektiver als mit Astra

Stefan Weller Stabsstelle Unternehmenskommunikation, Presse- und Öffentlichkeitsarbeit
Universitätsmedizin Göttingen – Georg-August-Universität
Forscher*innen der Universitätsmedizin Göttingen haben die Reaktionen des Immunsystems auf unterschiedliche Kombinationen von Erst- und Zweitimpfungen gegen Sars-Cov-2 genauer untersucht. Veröffentlicht wurden die Daten in der renommierten Fachzeitschrift „Allergy“.

(umg) Weltweit wurden in verhältnismäßig kurzer Zeit verschiedene Impfstoffe mit zum Teil neuartigen Technologien gegen das Corona-Virus Sars-Cov-2 entwickelt. Dennoch gibt es noch offene Fragen zu der optimalen Kombination von Impfstoffen und der durch die Impfung hervorgerufenen Immunantwort. Ein Team von Forscher*innen der Universitätsmedizin Göttingen (UMG) hat nun die komplexe Immunantwort nach unterschiedlichen Impf-Regimen untersucht. Die Ergebnisse der COV-ADAPT-Studie („Humorale und zelluläre Immunantwort des adaptiven Immunsystems nach Impfung oder natürlicher COVID-Infektion“) sind am 6. Februar 2022 in der renommierten europäischen Fachzeitschrift „Allergy“ (Europan Journal of Allergy and Clinical Immunlogy) erschienen.

Die Göttinger Wissenschaftler*innen fanden in Untersuchungen an einem Kollektiv von mehr als 400 Proband*innen, alle Mitarbeiter*innen der UMG, heraus: Die Zweitimpfung mit dem mRNA-Impfstoff von Biontech (BNT162b2) steigert sehr wirksam die Immunantwort. „Dabei war es unwichtig, ob die Probanden zuvor bei der Erstimpfung den Impfstoff von AstraZeneca (ChAdOx1 nCoV-19) oder von Biontech erhalten hatten. Hingegen konnte eine Zweitimpfung mit AstraZeneca die Immunantwort kaum verbessern“, sagt Prof. Dr. Luise Erpenbeck, eine der Senior-Autor*innen der Publikation, ehemals Klinik für Dermatologie, Venerologie und Allergologie der UMG und inzwischen Professorin an der Klinik für Hautkrankheiten des Universitätsklinikums Münster (UKM). Die Studie COV-ADAPT wurde durch die Deutsche Forschungsgemeinschaft (DFG) gefördert.

In dem untersuchten Personen-Kollektiv haben die Göttinger Forscher*innen drei unterschiedliche Kombinationen von Erst- und Zweitimpfungen im Zeitraum von Mai bis Juli 2021 genauer auf ihre Wirkung hin betrachtet. Darunter waren Impfregime mit nur einem Impfstoff (Erst- und Zweitimpfung mit Astra bzw. Biontech) und die Kombination aus Astra als Erstimpfung und Biontech als Zweitimpfung.

Das Team untersuchte nicht nur die Antikörper-Bildung nach der Impfung, sondern auch die Aktivität bestimmter Abwehrzellen (T-Zellen), die besonders wichtig für die Abwehr von Virusinfektionen sind. Dabei zeigte sich, dass die Antikörper-Entwicklung (die so genannte „humorale Immunantwort“) und die T-Zell-Aktivität (die „zelluläre Immunantwort“) voneinander abhängig waren. „Man kann daher nicht davon ausgehen, dass ein niedriger Antikörper-Spiegel nach Impfung durch eine hohe T-Zell-Antwort ausgeglichen wird“, sagt Priv.-Doz. Dr. Dr. Moritz Schnelle, ebenfalls Senior-Autor der Publikation aus dem Institut für Klinische Chemie der UMG.

Für die Studie arbeiteten Wissenschaftler*innen der Klinik für Dermatologie, Allergologie und Venerologie, des Instituts für Klinische Chemie und des Instituts für Medizinische Mikrobiologie und Virologie der UMG zusammen. „Es war für uns alle eine großartige Erfahrung, gemeinsam mit so vielen enthusiastischen Forscher*innen an diesem wichtigen Thema zu arbeiten“, sagt Dr. Moritz Hollstein, Erst-Autor der Publikation aus der Klinik für Dermatologie, Venerologie und Allergologie der UMG. Das Forscherteam plant, die Immunantworten der Proband*innen über die Zeit hinweg weiter zu verfolgen, um auch Langzeit-Erkenntnisse über die Immunantwort zu erlangen. „Wir bedanken uns herzlich bei den über 400 freiwilligen Probanden aus der UMG. Sie haben die Studie überhaupt erst möglich gemacht und nehmen auch weiterhin zuverlässig an ihr teil“, so Hollstein für das gesamte Forscherteam.

Wissenschaftliche Ansprechpartner:
Universitätsmedizin Göttingen, Georg-August-Universität
Institut für Klinische Chemie
Priv.-Doz. Dr. Dr. Moritz Schnelle
Telefon 0551 / 39- 65510
moritz.schnelle@med.uni-goettingen.de
www.umg.eu

Universitätsklinikum Münster (UKM)
Klinik für Hautkrankheiten
Prof. Dr. Luise Erpenbeck
Von-Esmarch-Str. 58, 48149 Münster
Telefon 0251 / 83-59526
luise.erpenbeck@ukmuenster.de
www.ukm.de

Originalpublikation:
Originalveröffentlichung: Interdependencies of cellular and humoral immune responses in heterologous and homologous SARS-CoV-2 vaccination. Moritz M. Hollstein, Lennart Münsterkötter, Michael P. Schön, Armin Bergmann, Thea M. Husar, Anna Abratis, Abass Eidizadeh, Meike Schaffrinski, Karolin Zachmann, Anne Schmitz, Jason S. Holsapple, Hedwig Stanisz-Bogeski, Julie Schanz, Andreas Fischer, Uwe Groß, Andreas Leha, Andreas E. Zautner, Moritz Schnelle, Luise Erpenbeck. Allergy. First Published: 06 February 2022. https://doi.org/10.1111/all.15247

(nach oben)


Vergleich mit Verbrenner: Elektrofahrzeuge haben beste CO2-Bilanz

Michael Brauns Pressestelle
Universität der Bundeswehr München
Forschende der Universität der Bundeswehr München zeigen in Untersuchungen, dass die gesamten Pkw-Lebenszyklusemissionen durch die Elektrifizierung von Fahrzeugen um bis zu 89% gesenkt werden können. Benzin- und Dieselfahrzeuge weisen im Vergleich die höchste Menge an Treibhausgas-Emissionen aus.

Der weltweite Fahrzeugmarkt befindet sich in der größten Transformation seit der Erfindung des Automobils. Um die Auswirkungen des Transport-sektors auf die Umwelt und das Klima zu reduzieren, treiben Politik und Wirtschaft den Übergang von konventionellen Fahrzeugen mit Verbrennungsmotoren hin zu Hybrid- und Elektrofahrzeugen voran. Ein vielfach diskutiertes Thema dabei ist die Treibhausgas-Bilanz von Fahrzeugen über ihren gesamten Lebenszyklus hinweg, also die Menge an Schadstoffen, die von der Produktion eines Fahrzeuges, über die Nutzung und die Verschrottung insgesamt ausgestoßen werden. Diese Bilanz macht Fahrzeugemissionen über den reinen Verbrauch im Straßenverkehr hinaus ganzheitlich vergleichbar.

In einer neuen, hochrangig veröffentlichten Publikation haben Forschende der Universität der Bundeswehr München (UniBw M), im Rahmen ihrer Projekte am Zentrum für Digitalisierungs- und Technologieforschung der Bundeswehr (dtec.bw) über 790 aktuelle Pkw-Fahrzeugvarianten miteinander verglichen und zeigen: mit Plug-in-Hybrid- und vollelektrischen Fahr-zeugen können Gesamtemissionen erheblich reduziert werden.

Die Gesamtemissionen sind entscheidend
Die Ergebnisse machen deutlich, dass das Nebeneinanderstellen einzelner Emissionsabschnitte innerhalb der gesamten Produktlebensdauer wenig aussagekräftig ist, wenn man über die Klimaverträglichkeit unterschiedlicher Fahrzeuge argumentieren möchte. So weisen beispielsweise batterie-elektrische Fahrzeuge im Vergleich die höchsten Emissionen bei der Produktion aus, in der Gesamtbetrachtung mit Nutzung und Recycling hingegen schneiden sie besser ab als klassische Verbrenner. Die Emissionen durch die Batterieproduktion eines aktuellen Tesla Model 3 (Standard Range Plus-Modell) sind vergleichbar mit den Nutzungsemissionen eines Volkswagen Passat (2.0 TSI-Modell) über eine Strecke von 18.000 km – nur einem Bruchteil der Nutzungsdauer. Konventionelle Benzin- und Dieselfahrzeuge sorgen insgesamt für die höchste Menge an Treibhausgasemissionen über ihren gesamten Lebenszyklus.

Bei der Verwendung von Ökostrom können Plug-in-Hybrid- und vollelektrische Fahrzeuge die Gesamtemissionen im Vergleich zu Verbrennern um 73% bzw. 89% reduzieren. Alternativ können Brennstoffzellenfahrzeuge die Treibhausgasemissionen in ähnlichem Maße wie Elektrofahrzeuge (die mit herkömmlichem Strom betrieben werden) reduzieren, wenn sie derzeitig handelsüblichen grauen Wasserstoff verwenden (60%). Ganz generell führen erneuerbare Kraftstoffe und Energie zu den niedrigsten Emissionen über die Lebensdauer von Fahrzeugen hinweg.

790 aktuelle Fahrzeuge als Datenbasis
Die Publikation basiert auf einer umfassenden Datenbank, die 790 aktuelle Pkw-Modelle und -Varianten listet und durch Analysemodelle vergleichbar macht. „Herstellerangaben und Einzelanalysen greifen oft zu kurz und verfälschen bei Verbrauchern die wirklichen Klimaauswirkungen ihrer Kaufentscheidungen bei Pkw. Darum haben wir seit Anfang 2020 um-fassend Daten gesammelt, um unabhängig zu zeigen, wie sich die CO2-Bilanz unterschiedlicher Antriebsarten wirklich darstellt“, so Johannes Buberger von der Fakultät für Elektrotechnik und Informationstechnik der Universität der Bundeswehr München, der die Analyse maßgeblich voran-getrieben hat. Bislang gibt es wenig vergleichbare Analysen, die Treibhausgas-Emissionen im Transportsektor im selben Umfang analysieren und vergleichbar machen.

Das Paper wird im „Renewable and Sustainable Energy Reviews“ veröffentlicht, einer der international renommiertesten Fachzeitschriften für nachhaltige Energieversorgung und erneuerbare Energien. Der Impact-Faktor des Journals beträgt 15, was bedeutet, dass es auf Platz 1 von insgesamt 44 Journals in der Kategorie Green & Sustainable Science & Technology liegt. „Die Veröffentlichungen in einer so hoch bewerteten Fachzeitschrift zeigt die Qualität der Forschung und der Wissenschaftlerinnen und Wissenschaftler an der Universität der Bundeswehr München und unsere Expertise bei Mobilitätsthemen“, so Prof. Thomas Weyh, der die Professur für Elektrische Energieversorgung an der Universität der Bundeswehr München innehat und Johannes Buberger als Doktorand betreut.

Die Universität der Bundeswehr München forscht umfangreich zu Themen der Mobilität. Ganz aktuell wird im dtec.bw-Projekt „MORE – Munich Mobility Research Campus“ die Zukunft der digitalisierten und vernetzten Mobilität erforscht und am Campus der Universität der Bundeswehr München als Modellstadt aufgebaut. Die Erkenntnisse der Publikation fließen auch in die Forschung von MORE ein.

Wissenschaftliche Ansprechpartner:
Prof. Thomas Weyh

(nach oben)


Der schwierige Weg zur Diagnose: COVID-19 als Berufskrankheit

Robin Jopp M.A. Presse- und Öffentlichkeitsarbeit
Klinikum der Ruhr-Universität Bochum – Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil GmbH
Bergmannsheil startet Online-Fortbildungsreihe für Beschäftigte der Unfallversicherungsträger

„COVID-19 ist eine Multiorgankrankheit – bei der Bewertung von Folgeschäden ist deshalb die interdisziplinäre Sichtweise so immens wichtig“, so das Credo von Prof. Dr. Martin Tegenthoff. Der Direktor der Neurologischen Klinik am BG Universitätsklinikum Bergmannsheil war einer von sechs Referentinnen und Referenten bei einer bundesweit beachteten Fachveranstaltung zum Thema COVID-19 als Berufskrankheit. Sie richtete sich an Expertinnen und Experten der gesetzlichen Unfallversicherung und spannte einen weiten thematischen Bogen: Von der Anerkennung von Post-COVID als Versicherungsfall der gesetzlichen Unfallversicherung über neurologische, pneumologische, kardiologische und psychologische Aspekte bis zur Versorgung und Behandlung betroffener Menschen im Rahmen des BG Rehabilitationsverfahrens.

Rund 200 Teilnehmerinnen und Teilnehmer aus ganz Deutschland hatten sich bei der Tagung am 1. Februar 2022 online zugeschaltet. Eingeladen hatten die Deutsche Gesetzliche Unfallversicherung (DGUV) und das Bergmannsheil. Wegen der großen Nachfrage haben die Veranstalter bereits mehrere Folgetermine geplant, bei denen es bereits rund 1.600 weitere Anmeldungen aus ganz Deutschland gibt.

Tausende von Betroffenen
Corona überstanden und trotzdem nicht gesund: So geht es derzeit vielen tausenden Menschen, die noch Wochen nach einer COVID-19 Erkrankung mehr oder minder schwere Beschwerden und Einschränkungen verspüren. Die vielfältigen Symptome, die sich hiermit verbinden, werden als Long- oder Post-COVID-Syndrom bezeichnet.

Über die Anerkennung von COVID-19 als Versicherungsfall, die Fallsteuerung und das Reha-Management referierte Markus Taddicken: Der Geschäftsführer der Bezirksverwaltung Bochum der Berufsgenossenschaft für Gesundheitsdienst und Wohlfahrtspflege (BGW) erläuterte die enormen Herausforderungen, die die große Zahl von betroffenen Beschäftigten beispielsweise in Krankenhäusern, Pflegeheimen oder Gesundheitseinrichtungen mit sich brächten. Eigens für die profunde und sachgerechte Begutachtung der Betroffenen habe man daher in Kooperation mit den BG Kliniken spezielle Sprechstunden sowie ambulante und stationäre Diagnostikprogramme etabliert.

Beschwerdebild oft unspezifisch
Prof. Tegenthoff ging auf die komplexen diagnostischen Herausforderungen ein, die sich den Medizinerinnen und Medizinern im klinischen Alltag stellen. Denn die Beschwerden bei mutmaßlich von Post-COVID betroffenen Menschen seien oft sehr unspezifisch und vielfältig. Sie reichten von Müdigkeit und Erschöpfung, eingeschränkter Belastbarkeit, Geruchs- und Geschmacksverlust, Kopfschmerzen und kognitiven Problemen über Atembeschwerden, Luftnot und Störungen des Herz-Kreislauf-Systems bis hin zu psychischen Problemen wie Angst- oder depressiven Störungen. Bei manchen reiche eine ambulante Vorstellung, bei anderen sei ein stationärer Post-COVID-Check unabdingbar: „Die Betroffenen werden hier in einem intensiven Programm interdisziplinär untersucht: Lunge, Herz, Hirn, Nerven, Psyche – all das bieten wir im Bergmannsheil im Rahmen unseres umfassenden Post-COVID-Checks unter einem Dach.“

Von Lunge über Herz und Nerven bis zur Psyche: viele Organe und Systeme betroffen
Die breite Interdisziplinarität spiegelte sich wider in der Programmgestaltung der Tagung: Neben Prof. Tegenthoff, der speziell auf die neurologischen Symptome von Post-COVID einging, sprachen Expertinnen der Pneumologischen Klinik (Dr. Juliane Kronsbein, Leitende Oberärztin), der Kardiologischen Klinik (Dr. Aydan Ewers, Leitende Oberärztin) und der Neurologischen Klinik am Bergmannsheil (Dr. Jule Frettlöh, Leitende Psychologin) und berichteten aus ihren konkreten klinischen Erfahrungen, die sie in der Begutachtung und Behandlung vieler betroffener Menschen gesammelt haben.

Dr. Sven Jung, Chefarzt der Abteilung für BG Rehabilitation, berichtete, wie eine gezielte therapeutische Begleitung von Patientinnen und Patienten eingeleitet und organisiert werden sollte: „Sinnvoll ist, die Rehabilitation sehr zielgenau am organischen Krankheitsbild auszurichten.“ Oder, wie Markus Taddicken (BGW) hervorhob: „Long-COVID oder Post-COVID sind Sammelbezeichnungen für eine Vielzahl möglicher Problemstellungen. Für eine erfolgreiche Heilbehandlung und Teilhabe am Arbeitsleben im Rahmen unseres Reha-Verfahrens brauchen wir ein Vorgehen, dass sich möglichst spezifisch auf die individuellen jeweiligen Symptome und deren Auswirkungen auf die Teilhabe fokussiert.“

Über das Bergmannsheil
Das BG Universitätsklinikum Bergmannsheil zählt zu den größten Akutkliniken der Maximalversorgung im Ruhrgebiet. 1890 als erste Unfallklinik der Welt zur Versorgung verunglückter Bergleute begründet, vereint das Bergmannsheil heute 23 hochspezialisierte Kliniken und Fachabteilungen unter einem Dach. Rund 2.200 Mitarbeiter stellen die qualifizierte Versorgung von rund 84.000 Patienten pro Jahr sicher.

Das BG Universitätsklinikum Bergmannsheil gehört zur Unternehmensgruppe der BG Kliniken. Die BG Kliniken sind spezialisiert auf die Akutversorgung und Rehabilitation schwerverletzter und berufserkrankter Menschen. An 13 Standorten versorgen über 14.000 Beschäftigte mehr als 560.000 Fälle pro Jahr. Damit sind die BG Kliniken der größte öffentlich-rechtliche Krankenhauskonzern in Deutschland. Träger der BG Kliniken sind die gewerblichen Berufsgenossenschaften und Unfallkassen.

Weitere Informationen: www.bergmannsheil.de, www.bg-kliniken.de

Fachlicher Ansprechpartner:
Dr. med. Sven Jung
Chefarzt
Abteilung BG Rehabilitation
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil gGmbH
Bürkle de la Camp-Platz 1
44789 Bochum
E-Mail: sven.jung@bergmannsheil.de

Medienkontakt:
Robin Jopp
Leitung Stabsstelle Unternehmenskommunikation
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil gGmbH
Bürkle de la Camp-Platz 1
44789 Bochum
Tel.: +49 (0)234 302-6125
E-Mail: robin.jopp@bergmannsheil.de

Melina Jasmine Kalwey
Stabsstelle Unternehmenskommunikation
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil gGmbH
Bürkle de la Camp-Platz 1
44789 Bochum
Tel.: +49 (0)234 302-3597
E-Mail: melina.kalwey@bergmannsheil.de

(nach oben)


Große politische Veränderungen beeinflussen das Wohlbefinden von Beschäftigten

Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Arbeit in Zeiten des Brexits: Neue Studie zeigt Zusammenhänge zwischen makropolitischen Ereignissen und dem Wohlergehen von Beschäftigten auf

Große gesellschaftliche und politische Umwälzungen wie beispielsweise der Brexit wirken sich auch auf das Wohlbefinden von Beschäftigten aus – allerdings nicht unbedingt so, wie man vielleicht erwarten würde. Forschende der Johannes Gutenberg-Universität Mainz (JGU), des Leibniz-Instituts für Resilienzforschung, der Loughborough University sowie der Medical School Hamburg haben britische Wissenschaftlerinnen und Wissenschaftler dazu befragt, wie sie den Ausstieg Großbritanniens aus der EU bewerten. Die Studie ergab, dass sie den Brexit eher als bedrohlich und weniger als eine positive Herausforderung empfinden. „Dies wirkte sich wiederum auf die wahrgenommene Arbeitsplatzsicherheit sowie die Beziehungsqualität mit Kollegen und Kolleginnen aus“, teilt Miriam Schilbach, Doktorandin bei Prof. Dr. Thomas Rigotti am Psychologischen Institut der JGU sowie wissenschaftliche Mitarbeiterin am Leibniz-Institut für Resilienzforschung mit. Sie ist Erstautorin der Studie, die nun im European Journal of Work and Organizational Psychology veröffentlicht wurde.

Arbeitsplatzsicherheit und Beziehungsqualität zu Kolleginnen und Kollegen ist für Wohlergehen entscheidend
Bisher liegen nur wenige Untersuchungen vor, die sich mit den Auswirkungen von wichtigen politischen Ereignissen auf das persönliche Wohlergehen im Arbeitskontext beschäftigen. Das Forschungsteam hat den Brexit daher als eine Chance betrachtet, um eine stressige Situation untersuchen zu können, die alle Menschen in Großbritannien gleichermaßen betrifft. Das Team wandte sich an Beschäftigte britischer Universitäten und bat sie zu drei Zeitpunkten, einen Fragebogen zu beantworten: im September und Dezember 2019 sowie im Februar 2020 – also rund drei Jahre nach dem Brexit-Referendum, aber noch vor dem endgültigen Ausscheiden aus der EU. 115 Probanden waren bis zum Schluss dabei und nahmen an allen drei Umfragen teil. Das Durchschnittsalter betrug knapp 44 Jahre, rund 37 Prozent waren Frauen. Sie sollten beispielsweise Aussagen bewerten wie „Während der letzten drei Monate fühlte ich mich emotional ausgelaugt“ oder „Ich muss auch zu Hause an Schwierigkeiten bei der Arbeit denken“.

„Wir sind bei unserer Untersuchung davon ausgegangen, dass sowohl die Arbeitsplatzsicherheit als auch die Zugehörigkeit beziehungsweise die Qualität der Beziehung zu den Arbeitskolleginnen und -kollegen fundamentale menschliche Bedürfnisse sind und eng mit dem persönlichen Wohlergehen zusammenhängen“, erklärt Miriam Schilbach die Ausgangslage der Untersuchung. Angesichts der wachsenden Unsicherheit etwa aufgrund von wirtschaftlicher Instabilität oder zunehmender Globalisierung sei es besonders wichtig, die Mechanismen besser zu verstehen, die von Großereignissen auf das individuelle Befinden ausgehen. Arbeitnehmerinnen und Arbeitnehmer werden, so die Erwartungen, auch in Zukunft davon betroffen sein.

Hinzu kommt für die Autorengruppe noch die Frage, ob die individuelle Einschätzung eines solchen Ereignisses der sozialen Norm entspricht oder davon abweicht – das heißt, ob jemand im Einklang mit der Mehrheitsgesellschaft das Geschehen als bedrohlich oder als Herausforderung erlebt. „Wir stellen mit dieser Frage eine vorherrschende und weithin akzeptierte Ansicht auf den Prüfstand, nämlich dass die Beurteilung einer Situation als eine Herausforderung generell zu positiven und die Beurteilung als eine Bedrohung generell zu negativen Ergebnissen führt“, so Schilbach. Die Überlegungen sind nicht nur im Hinblick auf den Brexit relevant. Auch wenn sich die jetzige Studie darauf bezieht, gehen die Verantwortlichen davon aus, dass andere kontroverse Ereignisse ähnliche Effekte haben, zum Beispiel eine umstrittene Fusion von Unternehmen.

Gemeinsam erlebte Stresssituationen können zusammenschweißen
Die Ergebnisse der Studie zeigen, dass die Akademikerinnen und Akademiker in dieser Stichprobe den Brexit überwiegend als Bedrohung und weniger als eine Herausforderung bewerten. „Die Einschätzung als Bedrohung geht erwartungsgemäß mit einer größeren Unsicherheit über den eigenen Arbeitsplatz einher, aber auch mit einer besseren Beziehung zu den Arbeitskollegen“, sagt Schilbach. Sie vermutet, dass die Beschäftigten eine solche Stresssituation als „unser Problem“ betrachten und der gemeinschaftliche Austausch unter den Kolleginnen und Kollegen zusammenschweißt. Wird der Ausstieg Großbritanniens aus der EU als eine Herausforderung betrachtet, ergibt sich für diese kleinere Gruppe der Stichprobe das umgekehrte Szenario, somit eine schlechtere Beziehung zu den Kollegen – was wiederum das Wohlbefinden schmälert.

Nur wenige Studien haben bisher versucht, die Mechanismen zu identifizieren, die von einem politischen Ereignis auf das persönliche Wohlbefinden von Erwerbstätigen ausstrahlen. „Hier zeigen wir, wie wichtig es für die Befindlichkeit ist, ob die Betroffenen das Ereignis ähnlich bewerten oder nicht“, fasst Schilbach zusammen.

Weitere Links:
https://www.aow.psychologie.uni-mainz.de/ – Abteilung für Arbeits-, Organisations- und Wirtschaftspsychologie an der JGU
https://lir-mainz.de/home – Leibniz-Institut für Resilienzforschung

Lesen Sie mehr:
https://www.uni-mainz.de/presse/aktuell/12344_DEU_HTML.php – Pressemitteilung „Effekte eines Arbeitsplatzwechsels auf die Gesundheit: Worauf Arbeitgeber und Jobwechsler achten sollten“ (21.10.2020)

Wissenschaftliche Ansprechpartner:
Miriam Schilbach
Leibniz-Institut für Resilienzforschung und
Abteilung für Arbeits-, Organisations- und Wirtschaftspsychologie
Psychologisches Institut
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 (6131) 8944829
E-Mail: miriam.schilbach@lir-mainz.de
https://www.aow.psychologie.uni-mainz.de/miriam-schilbach/

Originalpublikation:
Miriam Schilbach et al.
Work in times of Brexit: explanatory mechanisms linking macropolitical events with employee well-being
European Journal of Work and Organizational Psychology, 5. Januar 2022
DOI: 10.1080/1359432X.2021.2019709
https://www.tandfonline.com/doi/full/10.1080/1359432X.2021.2019709

(nach oben)


Ladenburger Kolleg „Zukünftige Wasserkonflikte in Deutschland“

Marion Hartmann Presse- und Öffentlichkeitsarbeit
Daimler und Benz Stiftung
Wer wird wie viel Wasser bekommen?

Ein von der Daimler und Benz Stiftung geförderter Forschungsverbund soll Zielkonflikte der künftigen Wasserverteilung bearbeiten

Die Daimler und Benz Stiftung nimmt in ihrem neu ausgerichteten Förderformat „Ladenburger Kolleg“ aktuell gesellschaftliche Zielkonflikte in den Fokus – zum Thema „Zukünftige Wasserkonflikte in Deutschland“. Nach erfolgtem Auswahlverfahren stehen dem Forschungsverbund rund 1,3 Millionen Euro für einen Zeitraum von drei Jahren zur Verfügung. Die interdisziplinäre Wissenschaftlergruppe soll Interessenskonflikte bei der künftigen Wasserverteilung in Deutschland aufspüren und mögliche Lösungsansätze aufzeigen. Dies geschieht mithilfe von Modellierungen und Planspielen, die für eine breite Nutzbarkeit der Ergebnisse heute und in Zukunft sorgen sollen.

Von den Vereinten Nationen wurde im Jahr 2010 das Menschenrecht auf Wasser und Sanitärversorgung anerkannt. Wasser zählt zu den wichtigsten Rohstoffen der Erde und soll allen Menschen flächendeckend in ausreichender Menge zur Verfügung stehen. Was aber, wenn es angesichts des Klimawandels und künftiger Wetterextreme – Hitze, Starkregen, Überschwemmungen oder anhaltende Trockenheit – immer knapper wird? Lokaler Wasserstress könnte künftig auch im eigentlich wasserreichen Deutschland zu verstärkten Verteilungskonflikten führen, etwa zwischen Landwirt-schaft, Industrie, Energie- und Wasserwirtschaft sowie dem Schutz von Grundwasser und Ökosystemen.

Wasserkonflikte, die sich künftig in Deutschland abzeichnen könnten, sind das erste große Themenfeld, das Wissenschaftler im Rahmen des neu ausgerichteten Förderformats erforschen. „Das Format ‚Ladenburger Kolleg‘ haben wir so modifiziert, dass relevante gesellschaftliche Entwicklungen an der Schnittstelle von Mensch, Technik und Umwelt aufgegriffen werden und die Stiftung in unregelmäßigen Abständen thematisch fokussierte Ausschreibungen veröffentlicht“, erklärt Prof. Dr. Julia Arlinghaus, die gemeinsam mit Prof. Dr. Lutz H. Gade den Vorstand der Daimler und Benz Stiftung bildet. Dies soll jeweils in einem interdisziplinären bzw. auch länderübergreifenden Forschungsnetzwerk erfolgen.

„Wir wollen zu einem tiefgreifenden Verständnis möglicher künftiger Wasserkonflikte in Deutschland beitragen“, so Dr. Wolfgang Weimer-Jehle vom fakultätsübergreifenden Zentrum für interdisziplinäre Risiko- und Innovationsforschung (ZIRIUS) der Universität Stuttgart. Er ist zugleich wissenschaftlicher Koordinator und Sprecher des neuen Ladenburger Kollegs der Daimler und Benz Stiftung. „Gemeinsam mit Kollegen der Technischen Universität Bergakademie Freiberg und dem Forschungszentrum Jülich setzen wir auf die interdisziplinäre System- und Szenarioanalyse.“

Die Forscher wollen Wechselwirkungen zwischen den einzelnen Sektoren und Interessengruppen transparent machen und eventuelle Zielkonflikte bei der Wassernutzung aufdecken. Dabei analysieren sie die jeweiligen Handlungsoptionen verschiedener Akteure und berücksichtigen den Einfluss möglicher – durch den Klimawandel bedingten – Wetterextreme. Beteiligte aus der Praxis, unter anderem aus der Wasserwirtschaft, werden beim Design und bei der Erstellung und Auswertung der Modellierungen aktiv eingebunden. Mit der Werkstattversion einer Webanwendung wol-len die Forscher schließlich das Konfliktfeld Wasser für alle Protagonisten erlebbar machen.

Dabei sollen drei Konfliktfelder mit besonderer Relevanz für Deutschland exemplarisch untersucht werden: Zielkonflikte in einem Flusseinzugsgebiet, Konflikte der Bewässerung, Wasserkonflikte bei Großprojekten. Klares Ziel des Ladenburger Kollegs: Für die genannten Konfliktfälle sollen Modelle entwickelt werden, durch die die Beteiligten in Planspielen die Folgen eigener und fremder Entscheidungen erfahren können. Sie sollen befähigt werden, zielkonforme und zugleich konfliktmindernde Strategien zu finden – und nicht zuletzt wertvolle Materialien für den Bildungssektor zu erstellen.

Das Förderformat legt einen besonderen Schwerpunkt auf den Aspekt der Planspiele. Sie sollen auch nach Abschluss des Projekts für eine breite und vor allem praktische Nutzung der erarbeiteten Ergebnisse sorgen. Gade von der Daimler und Benz Stiftung fasst zusammen: „Gerade mit Blick auf die Herausforderungen, die der Klimawandel und sich verändernde demografische Verhältnisse mit sich bringen, bedarf es eines verantwortungsbewussten Umgangs mit dem kostbaren Gut Wasser. Mit unserem Ladenburger Kolleg wollen wir einen gesellschaftlichen Beitrag dazu leisten.“

Weitere Informationen:
http://www.daimler-benz-stiftung.de

Anhang
Ladenburger Kolleg „Zukünftige Wasserkonflikte in Deutschland“

(nach oben)


Wie das Leben auf die Erde kam

Dr. Marco Körner Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Forschungsteam der Friedrich-Schiller-Universität Jena und des Max-Planck-Instituts für Astronomie belegt möglichen außerirdischen Ursprung von Peptiden

Forscher der Friedrich-Schiller-Universität Jena und des Max-Planck-Instituts für Astronomie haben auf der Suche nach dem Ursprung des Lebens eine neue Spur entdeckt: Sie konnten zeigen, dass unter Bedingungen, wie sie im Weltall herrschen, Peptide auf Staub entstehen können. Diese Moleküle, die einer der Grundbausteine allen Lebens sind, sind also vielleicht gar nicht auf unserem Planeten entstanden, sondern womöglich in kosmischen molekularen Wolken.

Ketten aus Aminosäuren
Alles Leben, wie wir es kennen, besteht aus den gleichen chemischen Bausteinen. Dazu gehören Peptide, die im Körper völlig unterschiedliche Funktionen übernehmen: Sei es, um Stoffe zu transportieren, Reaktionen zu beschleunigen oder um in Zellen stabilisierende Gerüste zu bilden. Peptide bestehen aus einzelnen Aminosäuren, die in einer bestimmten Reihenfolge angeordnet sind. Die genaue Reihenfolge entscheidet darüber, welche Eigenschaften das Peptid am Ende besitzt.

Wie diese vielseitigen Biomoleküle entstanden sind, ist eine der Fragen nach dem Ursprung des Lebens. Dass dieser Ursprung außerirdischer Natur sein kann, zeigen Aminosäuren, Nukleobasen und verschiedene Zucker, die etwa in Meteoriten gefunden wurden. Damit aber aus einzelnen Aminosäure-Molekülen ein Peptid entsteht, braucht es ganz spezielle Bedingungen, die bislang eher auf der Erde vermutet wurden.

Für den ersten Schritt muss Wasser da sein, für den zweiten Schritt darf kein Wasser da sein.
„Bei dem herkömmlichen Weg, auf dem Peptide entstehen, spielt Wasser eine wichtige Rolle,“ erklärt Dr. Serge Krasnokutski vom Astrophysikalischen Labor des Max-Planck-Instituts für Astronomie an der Universität Jena. Hierbei verbinden sich einzelne Aminosäuren zu einer Kette. Damit das geschieht, muss jeweils ein Wassermolekül entfernt werden. „Unsere quantenchemischen Berechnungen zeigten nun, dass die Aminosäure Glycin entstehen kann, indem sich eine chemische Vorstufe – ein sogenanntes Aminoketen – mit einem Wassermolekül verbindet. Vereinfacht zusammengefasst: In diesem Fall muss für den ersten Reaktionsschritt Wasser dazugegeben werden, für den zweiten muss Wasser entfernt werden.“

Mit dieser Erkenntnis konnte das Team um den Jenaer Wissenschaftler nun einen Reaktionsweg nachweisen, der unter kosmischen Bedingungen ablaufen kann und dabei ohne Wasser auskommt. „Anstatt den chemischen Umweg zu gehen, in dem die Aminosäuren gebildet werden, wollten wir herausfinden, ob nicht stattdessen die Aminoketen-Moleküle entstehen und diese sich direkt zu Peptiden verbinden können“, beschreibt der Physiker die Grundidee der Arbeit, die nun im Fachjournal Nature Astronomy veröffentlicht wurde. Er ergänzt: „Und zwar unter den Bedingungen, wie sie in kosmischen molekularen Wolken herrschen: Also auf Staubpartikeln im Vakuum, bei denen die entsprechenden Chemikalien anwesend sind und dort reichlich vorkommen: Kohlenstoff, Ammoniak und Kohlenstoffmonoxid.“

In einer Ultrahochvakuum-Kammer wurden Substrate, die als Modell für die Oberfläche von Staubpartikeln dienen zusammen mit Kohlenstoff, Ammoniak und Kohlenmonoxid bei etwa einem Billiardstel des normalen Luftdrucks und Minus 263 Grad Celsius zusammengebracht. „Untersuchungen zeigten, dass unter diesen Bedingungen aus den einfachen Chemikalien das Peptid Polyglycin entstanden ist“, fasst Krasnokutski das Ergebnis zusammen. „Hierbei handelt es sich also um Ketten aus der sehr einfachen Aminosäure Glycin, wobei wir verschiedene Längen beobachtet haben. Die längsten Exemplare bestanden aus elf Einheiten der Aminosäure.“

Auch das vermutete Aminoketen konnte das Team in diesem Experiment nachweisen. „Dass die Reaktion bei derart niedrigen Temperaturen überhaupt ablaufen kann, liegt daran, dass die Aminoketen-Moleküle extrem reaktiv sind. Sie verbinden sich miteinander in einer effektiven Polymerisation. Das Produkt ist dann Polyglycin.“

Quantenmechanischer Tunneleffekt könnte eine Rolle spielen
„Dass die Polymerisation von Aminoketen unter solchen Bedingungen so einfach passieren kann, war dennoch überraschend für uns“, sagt Krasnokutski. „Denn dazu muss eigentlich eine Energiebarriere überwunden werden. Allerdings kann es sein, dass uns ein besonderer Effekt der Quantenmechanik dabei zugutekommt. Denn in diesem speziellen Reaktionsschritt wechselt ein Wasserstoffatom seinen Platz. Dieses ist jedoch so klein, dass es als Quantenteilchen die Barriere nicht überwinden, sondern durch den Tunneleffekt gewissermaßen einfach durchqueren könnte.“

Jetzt wo klar ist, dass nicht nur Aminosäuren, sondern auch Peptidketten unter kosmischen Bedingungen entstehen können, müssen wir also bei der Erforschung des Ursprungs des Lebens möglicherweise nicht nur auf die Erde, sondern auch mehr ins Weltall blicken.

Wissenschaftliche Ansprechpartner:
Dr. Serge Krasnokutski
Laboratory Astrophysics and Cluster Physics Group of the Max Planck Institute for Astronomy at the Friedrich Schiller University Jena
Institut für Festkörperphysik
Helmholtzweg 3
07743 Jena
Tel.: 03641 / 947306
E-Mail: sergiy.krasnokutskiy@uni-jena.de

Originalpublikation:
S. A. Krasnokutski, K.-J. Chuang, C. Jäger, N. Ueberschaar, Th. Henning, „A pathway to peptides in space through the condensation of atomic carbon“, Nature Astronomy (2022), DOI: 10.1038/s41550-021-01577-9

(nach oben)


Untersuchung von Feinstaub unterschiedlicher Emissionen

Michael Brauns Pressestelle
Universität der Bundeswehr München
Wissenschaftlerinnen und Wissenschaftler an der Universität der Bundeswehr München untersuchen die gesundheitsschädliche Wirkung des sogenannten Ultrafeinstaubs der im Flugbetrieb entsteht und vergleichen dies mit Emissionen im Straßen- und Schiffs- und Bahnverkehr.

Luftverschmutzung stellt ein großes Gesundheitsrisiko mit weltweit mind. 5 Millionen Todesfällen pro Jahr dar. Besonders der Ultafeinstaub, das sind Partikel mit einem Durchmesser von kleiner als 100 Nanometern und damit tausendmal kleiner als ein menschliches Haar, wird für schwerwiegende Atemwegserkrankungen verantwortlich gemacht. Der Straßenverkehr hat am Entstehen von Ultrafeinstaub einen hohen Anteil, da er vorwiegend bei Verbrennungsprozessen entsteht.

Ziel des von der EU finanzierten Forschungsvorhabens Ultrhas („ULtrafine particles from TRansportation – Health Assessment of Sources“) ist es, die gesundheitlichen Risiken des Ultrafeinstaubs von verschiedenen verkehrs-bedingten Verursachern gegenüber zu stellen und eine Risikobewertung vorzunehmen. Darüber hinaus finden Untersuchungen zu Alterungsprozessen der Partikel in der Atmosphäre statt um deren Einfluss auf das Klima besser zu verstehen. Neben Abgasen von Diesel- und Benzinmotoren aus Pkw und Lkw werden Emissionen von Schiffsmotoren und Flugzeugantrieben sowie metallische Abriebe aus Bremsen und Bahn-Oberleitungen betrachtet.

Realitätsnahe Untersuchungen im Labor
Die Forschungsarbeiten an den Flugantrieben werden dabei von Prof. Andreas Hupfer vom Institut für Aeronautical Engineering und Prof. Thomas Adam vom Institut für Chemie und Umwelttechnik durchgeführt. In aufwendigen Voruntersuchungen an realen Triebwerken und im Labor wird versucht das chemisch-physikalische Emissionsmuster von echten Flugantrieben möglichst realitätsnah auf einem selbst entwickelten Modellprüfstand abzubilden.

Im Anschluss werden in einer mehrwöchigen Messkampagne die umfangreichen toxikologischen Studien in Kooperation mit den Projektpartnern aus Deutschland, Norwegen, Finnland und der Schweiz durchgeführt. Unterstützt wird das Vorhaben zusätzlich durch die Forschungsgruppe „Small Aero Engines“, einem Gemeinschaftsprojekt der Universität der Bundeswehr München und der Technischen Universität München. Gefördert durch das Forschungsnetzwerk Munich Aerospace untersucht „Small Aero Engines“ die Eigenschaften alternativer Kraftstoffe für die Luftfahrt.

Das Projekt Ultrhas startete am 1. September 2021 und hat eine Laufzeit von vier Jahren. Gefördert wird es innerhalb des EU Förderprogramms Horizon 2020.

Kooperationspartner sind das Helmholtz Zentrum München, die Universität Rostock, das Norwegian Institute of Public Health, die University of Eastern Finland, das Finnish Institute for Health and Welfare und die Universität Fribourg.

Wissenschaftliche Ansprechpartner:
Prof. Thomas Adam, Prof. Andreas Hupfer

Weitere Informationen:
http://www.ultrhas.eu

(nach oben)


Vom Tagebau zum Pumpspeicherkraftwerk

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Bergbauregionen im Wandel: Sechs internationale Partner im EU-Projekt ATLANTIS untersuchen, koordiniert vom Deutschen GeoForschungsZentrum GFZ, die Folgenutzungspotenziale ehemaliger Bergbauregionen zur Energiespeicherung.

Die geplante Stilllegung des Braunkohlebergbaus in Europa erfordert innovative, wirtschaftliche und klimafreundliche Strategien, um den Strukturwandel für Bergbauregionen nachhaltig zu gestalten. Darüber hinaus spielt die effiziente Speicherung regenerativer Energien eine zentrale Rolle bei der zukünftigen Energiesystem- und Versorgungssicherheit in Europa. Das EU-Projekt ATLANTIS verknüpft diese beiden Aspekte und untersucht die Machbarkeit einer Folgenutzung von stillgelegten Braunkohletagebauen in Form von hybriden Energiespeichern. Koordiniert vom Deutschen GeoForschungsZentrum GFZ vereint es sechs Forschungseinrichtungen und Energieversorgungsunternehmen aus Griechenland, Polen und Deutschland. Die Europäische Union fördert das Vorhaben für die kommenden drei Jahre mit einem Gesamtbudget von rund 2,7 Millionen Euro über den Forschungsfonds für Kohle und Stahl (RFCS).

Oberirdisch angelegte Pumpspeicherwerke erlauben eine flexible und effiziente Speicherung von Überschussenergie aus der Solar- und Windenergieerzeugung sowie dem Stromnetz. Pumpspeicherwerke arbeiten in der Regel mit mindestens zwei Wasserreservoiren, welche sich auf unterschiedlichen Höhenniveaus befinden. Mit der Überschussenergie betriebene Pumpen befördern das Wasser in das Oberbecken. Dort wird es in Form von potenzieller Energie gespeichert, welche durch das Ablassen des Wassers in das Unterbecken mittels Turbinen wieder in elektrische Energie umgewandelt werden kann.

„Das Hauptziel von ATLANTIS ist die Ausarbeitung einer integrierten technischen und wirtschaftlichen Machbarkeitsstudie zur hybriden Energiespeicherung von Überschussenergie in ehemaligen Braunkohletagebauen im Einklang mit den Vorgaben des europäischen Green Deal zum Klima- und Naturschutz“, sagt Thomas Kempka, Leiter des Projektes und Leiter der Arbeitsgruppe Prozesssimulation in der Sektion Fluidsystemmodellierung am GFZ. Hybrid heißt es deshalb, weil Überschussenergie aus dem Stromnetz ebenso wie Energie aus regionalen erneuerbaren Quellen gespeichert werden kann. Im Fokus stehen zwei repräsentative europäische Bergbauregionen in Griechenland und Polen, die sich im Wandel befinden.

Kempka weiter: „Das im ATLANTIS-Projekt anvisierte Folgenutzungskonzept leistet durch die Integration von Energiespeichertechnologien mit der Energieerzeugung und dem Energietransport einen wesentlichen Beitrag zum European Green Deal und unterstützt gleichzeitig die Wirtschaftsförderung und Arbeitsmarktstabilisierung der jeweiligen Region.“

Weitere Informationen auf der Projektwebsite (www.atlantis-project.eu) und dem Twitteraccount des Projekts (https://twitter.com/ATLANTIS_EU).

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Thomas Kempka
Leiter Arbeitsgruppe Prozesssimulation
Sektion 3.4 Fluidsystemmodellierung
Email: kempka@gfz-potsdam.de

Weitere Informationen:
http://www.atlantis-project.eu (Projektwebseite)

(nach oben)


Fehlverhalten von Führungskräften kann Unternehmen Milliarden kosten

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Die 2017 entstandene #MeToo-Bewegung beschäftigt seit einigen Jahren auch Unternehmen, die sich vermehrt mit dem Thema sexuelle Belästigung am Arbeitsplatz auseinandersetzen. Das kann auch wirtschaftlich von Bedeutung sein, denn das Fehlverhalten einzelner Personen kann die Aktienrenditen von Unternehmen erheblich beeinträchtigen. Zu diesem Ergebnis kommen Professor Dr. Rainer Lueg und Yassin Denis Bouzzine vom Institut für Management, Accounting & Finance der Leuphana Universität Lüneburg in einer jetzt im Scandinavian Journal of Management veröffentlichten Studie.

Die Wissenschaftler haben untersucht, wie sich das Thema sexuelle Belästigung durch Führungskräfte auf die Aktienrenditen von Unternehmen auswirkt. Dafür betrachteten sie knapp 100 solcher Fälle aus den Jahren 2016 – 2019 und ermittelten die wirtschaftlichen Folgen der entstandenen Reputationsschäden. In 25 der untersuchten Fälle richteten sich die Anschuldigungen direkt gegen Führungskräfte.

Die Forscher identifizierten mit der sogenannten Ereignisstudien-Methode abnormale Aktienreaktionen auf entsprechende Vorkommnisse. Ihre Ergebnisse zeigen, dass solches Fehlverhalten die Aktienrenditen einer Organisation erheblich beeinträchtigen kann, auch dann, wenn die Belästigung nur von einer einzigen Person ausging. Marktwertverluste von bis zu 5 Mrd. Dollar waren demnach für mit dem Thema sexuelle Belästigung durch Führungskräfte konfrontierte Unternehmen zu verzeichnen.

Signifikante Ergebnisse gab es immer dann, wenn die beschuldigten Führungskräfte in einer leitenden Position bei der Mutterorganisation eines Unternehmens beschäftigt waren. Insofern kann die Studie belegen, dass das Fehlverhalten von Einzelpersonen für den kostenträchtigen Reputationsverlust von Bedeutung ist.

Die Studie steht im Scandinavian Journal of Management online zur Verfügung:
https://www.sciencedirect.com/science/article/abs/pii/S0956522122000033

(nach oben)


Warum altern wir? Die Rolle der natürlichen Selektion

Maren Lehmann Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Evolutionsbiologie
Die Evolution des Alterns ist in der theoretischen Evolutionsforschung ein besonders spannendes Feld. Wissenschaftler versuchen herauszufinden, warum und wann sich das Phänomen des Alterns im Laufe der Evolution entwickelt hat. Dabei können mathematische Modelle helfen, Theorien zum besseren Verständnis des Alterns zu entwickeln. Auch am Max-Planck-Institut für Evolutionsbiologie in Plön wurde in der Abteilung Evolutionstheorie hieran in den letzten Jahren intensiv geforscht.

Jahre vergehen für alle: Menschen, Tiere und Pflanzen. Und doch tritt der Laufe der Zeit nicht bei allen Lebewesen gleichermaßen in Erscheinung. Manche altern sehr früh, anderen scheint eine lange Lebenszeit kaum etwas anzuhaben. Der Nacktmull beispielweise ist bekannt dafür, dass ausgewachsene Tiere so gut wie keine Alterungserscheinungen zeigen. Ihr Tod ist gewöhnlich die Folge von Gewalteinwirkung durch ihre Artgenossen.

Mathematische Modellierer sind der Theorie hinter der Evolution des Alterns auf der Spur
Bis vor nicht allzu langer Zeit wurde allgemein angenommen, dass alle Organismen irgendwann altern würden. Der Biologe William D. Hamilton hat diese Zwangsläufigkeit des Alterns vor über 50 Jahren in eine mathematische Formel gegossen. Nach seinen Modellrechnungen entwickelt sich das Altern, weil die Selektion auf bestimmte Merkmale im Laufe der Fortpflanzungszeit abnimmt. Altern wäre dann eine Konsequenz der sinkenden Selektionskraft unter älteren Organismen.
Vor 17 Jahren hat allerdings die Demografin Annette Baudisch (damals Max-Planck-Institut für demographische Forschung, jetzt Professorin in Odense, Dänemark) gezeigt, dass diese scheinbare Zwangsläufigkeit von bestimmten Grundannahmen abhängt, die keineswegs immer gegeben sein müssen. Wenn man diese Parameter in mathematischen Modellen leicht ändert, zeigt sich, dass Fortpflanzungsrate und Selektionskraft nicht mehr kontinuierlich sinken. Ist das Altern also doch nicht so zwangsläufig, wie es schien?

Mit dieser Frage haben sich die Evolutionstheoretiker Stefano Giaimo und Arne Traulsen vom Max-Planck-Institut für Evolutionsbiologie beschäftigt. Sie entwickelten dafür ein dynamisches mathematisches Modell, das nicht mehr auf der Voraussetzung bestimmter Vorannahmen beruht. Die Forscher ließen ihr Modell immer und immer wieder den Entwicklungsprozess von Lebewesen nachvollziehen. Dabei fanden sie mit theoretischen Methoden heraus, dass sich auch unter diesen dynamischen Bedingungen die Evolution des Alterns immer wieder stabil entwickelt. Sie fanden außerdem, dass als eine Folge des Alterns die Selektionskraft mit dem reproduktiven Alter sinkt.
Sie konnten damit also die klassische mathematische Theorie des Alterns, die von Hamilton aufgestellt wurde, einerseits bestätigen: Die Selektionskraft nimmt mit dem Alter ab. Andererseits aber zeigten sie, dass deren Logik umgekehrt werden muss: Die Selektionskraft schwächt sich mit dem Alter ab, weil sich das Altern entwickelt, und nicht, wie von Hamilton vertreten, umgekehrt.

Die Forschungen werden in dieser Woche im wissenschaftlichen Journal Nature Communications veröffentlicht.

Wissenschaftliche Ansprechpartner:
Stefano Giamo, Postdoc Abteilung Evolutionstheorie, Max-Planck-Institut für Evolutionsbiologie, giaimo@evolbio.mpg.de

Originalpublikation:
Stefano Giaimo, Arne Traulsen
The selection force weakens with age because ageing evolves and not vice versa
Nature Communications volume 13, Article number: 686 (2022)
doi: 10.1038/s41467-022-28254-3

(nach oben)


Neuer Geist in alter Hardware – Vermeidung von Elektroschrott durch Freie Software

Dorothea Hoppe-Dörwald Presse- und Öffentlichkeitsarbeit
Hochschule Worms
Das schicke Design und die gute Technik von Geräten der Firma Apple hat sich längst rumgesprochen.

Umso mehr schmerzt es, wenn das Gerät in die Jahre gekommen ist und nicht sicher weiter betrieben werden kann, weil aufgrund des Alters keine Sicherheits-Updates für die Software geliefert werden. Die alten Geräte sind nicht mehr kompatibel mit neuen Betriebssystem-Versionen des Herstellers. Und – ja, zugegeben: Abgesehen von weiter gewachsenen Anforderungen der aktuellen Software kommen auch über 10 Jahre alte Rechner aus der Mode, auch wenn es sich um optisch immer noch formschöne iMacs älterer Bauart handelt.

Alt bedeutet nicht gleich Schrottplatz
So ließen sich also etliche alte iMacs, die jahrelang am Fachbereich Informatik der Hochschule Worms im Labor von Studierenden genutzt wurden, nicht mehr zu Lehrzwecken einsetzen: Keine sichere Software, zu langsam, inkompatibel mit den aktuellen Betriebssystemversionen. Wird wirklich nur noch Alu- und Elektroschrott daraus?
Um das zu vermeiden, veranstaltete Prof. Dr. Herbert Thielen mit interessierten Erstsemester-Studierenden des Bachelor-Studiengangs Angewandte Informatik einen „iMac Upcycling Workshop“: Mit einer flotten SSD („Solid State Disk“) als Ersatz für die langsame Festplatte lässt sich auch alten Rechnern mit wenig Investition neuer Schwung verleihen. Als Ersatz für ein nicht mehr aktualisierbares kommerzielles Betriebssystem kann häufig Freie Software der alten Hardware einen neuen Geist einhauchen.
„Ein Projekt, das wir so bei neuen Geräten wohl eher nicht gewagt hätten,“ sagt Thielen. „Schließlich dauert es seine Zeit, bis so ein iMac zerlegt ist, um die Festplatte auszutauschen. Die Studierenden fanden das aber spannend und investierten gerne ihre Zeit, um durch den Umbau neues Tempo zu gewinnen“, ergänzt der engagierte Professor.

Mit etwas Know-how und Zeit mehr Upcycling
Jeder wieder „quicklebendige“ iMac wurde mit Freier Software in Form von Debian GNU/Linux Version 11 auch sicherheitstechnisch auf den Stand der Zeit gebracht. So erfüllt die alte Hardware zumindest wieder die Voraussetzungen für Standard-Aufgaben wie Textverarbeitung und Video-Konferenzen. Und für die eine oder andere Programmierübung reicht die begrenzte Rechenleistung auch noch aus.

Die Umwelt freut sich, dass Elektromüll vorerst vermieden werden konnte – und die Studierenden freuen sich, dass sie sich selbst ein Übungsgerät umrüsten konnten, das ihnen weiterhin gute Dienste im Studium leisten wird.

Das Projekt zeigt, dass alte PCs nicht weggeworfen werden müssen, nur weil die neuen Betriebssysteme nicht mehr darauf installierbar sind. Mit etwas zeitlichem Aufwand lassen sie sich oft noch soweit beschleunigen, dass sie beim Einsatz Freier Software noch für viele Zwecke brauchbar sind.

(nach oben)


KIT: Landnutzung: Plädoyer für einen gerechten Artenschutz

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Große Landflächen radikal für Tiere und Pflanzen reservieren – das könnte die Menschheit in den nächsten Jahrzehnten vor einem Kollaps der Artenvielfalt bewahren. Doch in einigen Ländern, insbesondere des globalen Südens, könnte das die Versorgung mit Nahrungsmitteln gefährden. Auf diesen Zielkonflikt machen jetzt Forschende des Karlsruher Instituts für Technologie (KIT) gemeinsam mit Partnern aus Großbritannien und Österreich in einer Studie in der Fachzeitschrift Nature Sustainability aufmerksam und plädieren für ein umsichtiges Vorgehen. (DOI: 10.1038/s41893-021-00844-x)

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_009_landnutzung-pladoyer-fur-einen-gerechten-art…

Dass ein weiterer ungebremster Verlust der Biodiversität durch menschliche Einwirkung langfristig die Bewohnbarkeit des Planeten einschränkt, wurde in vielen wissenschaftlichen Studien belegt. Gegensteuern könnte die Menschheit, indem sie große Flächen unter Schutz stellt, sagt Professorin Almut Arneth vom Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU), dem Campus Alpin des KIT in Garmisch-Partenkirchen: „Damit ließen sich die Auswirkungen zumindest abschwächen. Allerdings ist der Flächenbedarf enorm. Einige Forscherinnen und Forscher argumentieren, dass die Hälfte der Landoberfläche von einer menschlichen Nutzung ausgeschlossen werden müsste.“ Zwei Teams des Campus Alpin sowie Partnern an der Universität Aberdeen, der Universität Edinburgh und dem Internationalen Institut für Angewandte Systemanalyse (IIASA) in Österreich haben nun genauer untersucht, was die Folgen wären.

Die Studie zeigt mit Hilfe von gekoppelten sozio-ökologische Modellen, wie sich ein potenziell strikter Schutz von 30 Prozent und 50 Prozent der terrestrischen Landfläche auf Landnutzung und Ernährungssicherheit auswirken könnte. Festgestellt haben die Forschenden dabei, dass diese Maßnahme vermutlich zu einer Intensivierung landwirtschaftlicher Produktion auf den verbleibenden Flächen führen würde, um die Weltbevölkerung mit Nahrungsmitteln zu versorgen, was steigende Lebensmittelpreise zur Folge hätte. Der Verzehr von Obst und Gemüse würde sich verringern und insgesamt würde die Zahl der untergewichtigen Menschen in verschiedenen Regionen der Welt ansteigen. Damit verbunden wäre wiederum ein erhöhtes Risiko für ernährungsbedingte Krankheiten und Mortalität.

Ungleich verteilte Auswirkungen von extremen Maßnahmen
Die Untersuchungen ergaben außerdem, dass Länder des globalen Südens am stärksten von der Nahrungsmittelknappheit als Folge eines strikten Naturschutzes auf großen Flächen betroffen wären, da sie schon zuvor weniger Nahrung zur Verfügung hatten. Umgekehrt würden wohlhabendere Länder weitgehend von den negativen Auswirkungen verschont bleiben. Hier würde eine Verringerung des Kalorienverbrauchs durch höhere Nahrungsmittelpreise im Gegenteil sogar zu einer Reduktion der negativen Auswirkungen von Übergewicht und Fettleibigkeit führen.

Die Erstautorin Dr. Roslyn Henry von der Universität Aberdeen betont, dass sich aus der Studie keinesfalls ableiten lasse, dass von großen Naturschutzflächen Abstand genommen werden sollte: „Die Ausweisung von Schutzgebieten gehört zu den wichtigsten Instrumenten zum Erreichen der Biodiversitätsziele. Sie muss aber mit Bedacht umgesetzt werden, um sicherzustellen, dass sie die Ernährungssicherheit und Gesundheit der Bevölkerung nicht gefährdet, insbesondere in den ärmeren Regionen der Welt.“ Professor Mark Rounsevell, Forscher am IMK-IFU und ebenfalls Autor der Studie, fügt hinzu: „Die Untersuchung zeigt, wie wichtig es ist, die mit der Vergrößerung von Schutzgebieten für den Naturschutz verbundenen Kompromisse zu berücksichtigen. Der Schutz der Natur ist für das Wohlergehen der Menschheit natürlich von entscheidender Bedeutung. Aber Naturschutz muss so umgesetzt werden, dass er sich nicht negativ auf die Nahrungsmittelversorgung auswirkt. Beispielsweise indem die Effizienz der bestehenden Schutzgebiete verbessert wird.“

Studie soll für ungewollte Effekte sensibilisieren
Es sei insgesamt wenig wahrscheinlich, dass viele Länder sich dafür entscheiden, 30Prozent oder gar die Hälfte ihres Territoriums radikal schützen zu wollen, betonen Arneth und Rounsevell: „In Anbetracht der aktuellen Debatte und der Ungewissheit über die Form, die Schutzgebiete annehmen sollten, spürt die Modellstudie dem extremen Ende der Erhaltungsmaßnahmen nach und gibt Aufschluss über mögliche Kompromisse, die gefunden werden müssen – und die auch existieren.“ Die Quantifizierung solcher Zielkonflikte soll die Planung, Verhandlung und Umsetzung von Schutzmaßnahmen unterstützen, und so dabei helfen, unerwünschte, negative Nebeneffekte zu vermeiden. (mhe)

Details zum KIT-Zentrum Klima und Umwelt: https://www.klima-umwelt.kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Kontakt für diese Presseinformation:
Dr. Martin Heidelberger, Pressereferent, Tel.: +49 721 608-41169, E-Mail: martin.heidelberger@kit.edu

Originalpublikation:
https://www.kit.edu/kit/pi_2022_009_landnutzung-pladoyer-fur-einen-gerechten-art…

Weitere Informationen:
Originalpublikation
Roslyn C. Henry, Almut Arneth, Martin Jung, Sam S. Rabin, Mark D. Rounsevell, Frances Warren, Peter Alexander: Global and regional health and food security under strict conservation scenarios; Nature Sustainability, 2022. DOI: 10.1038/s41893-021-00844-x
https://www.nature.com/articles/s41893-021-00844-x
Details zum KIT-Zentrum Klima und Umwelt: https://www.klima-umwelt.kit.edu

(nach oben)


Gesünderes Licht für Schichtarbeit

Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München
Künstliches Licht in der Nacht und Mangel an Tageslicht verschlechtern die Gesundheit und das Wohlbefinden von Schichtarbeitern. Ein HM-Forschungsteam entwickelte ein Beleuchtungs- und Automatisierungssystem für gesündere Lichtverhältnisse in der industriellen Produktion.

Natürliches Tageslicht synchronisiert als Zeitgeber täglich die innere Uhr und beeinflusst unter anderem über das Hormon Melatonin die Schlafqualität. Durch den Einsatz künstlichen Lichts nimmt die Notwendigkeit ab, den natürlichen Schlaf-Wach-Rhythmus einzuhalten. Eine mögliche Folge: Die innere Uhr kommt „aus dem Takt“, was man auch als Chronodisruption bezeichnet. Insbesondere Langzeit-Nachtschichtarbeiter sind vermehrt künstlichen Lichtquellen zu ungünstigen Tageszeiten ausgesetzt und tragen dadurch ein erhöhtes Risiko für Chronodisruption. Die Folgen können unter anderem Störungen der Leistungsfähigkeit, des Stoffwechsels, und des Herz-Kreislauf-Systems sein. Für gesündere Lichtverhältnisse entwarfen die HM-Wissenschaftler Johannes Zauner und Prof. Dr. Herbert Plischke von der Fakultät für angewandte Naturwissenschaften und Mechatronik mit dem Lichtplanungsbüro 3lpi ein Lichtsystem für Schichtarbeiter in der industriellen Produktion.

Berücksichtigung der Effekte nicht-visuellen Lichts am Schichtarbeitsplatz
Neben den Wirkungen des visuell wahrnehmbaren Lichts, hat auch nicht-visuelle Strahlung gesundheitliche Effekte, wie etwa die Steuerung des zirkadianen, das heißt des tageszeitabhängigen Rhythmus und des Schlaf-Wach-Rhythmus. Jene beeinflusst auch die kognitive Leistungsfähigkeit. Verantwortlich für die Aufnahme nicht-visueller Strahlung sind lichtsensible Ganglienzellen in der Retina des Auges, die für blaues Licht empfindliches Melanopsin enthalten. Bei der Entwicklung eines neuen Beleuchtungssystems für Schichtarbeitende integrierte das HM-Team den aktuellen Wissensstand über diese nicht-visuellen Strahlungseffekte: Zunächst erfassten die Forscher die Beleuchtung einer Produktionsstätte in einer etwa 130 Quadratmeter großen Industriehalle auf nicht-visuelle sowie grundlegende, visuelle Aspekte. Dazu gehören die nicht-visuellen Reizstärke in Augenhöhe der Arbeitnehmer (MEDI) sowie die horizontale Beleuchtungsstärke in ihrem Arbeitsbereich, ein Maß für die Arbeitsplatzhelligkeit.

3lpi- und HM-Team entwickeln Leuchte „Drosa“ mit dosierbarem Licht
Auf Basis ihrer Untersuchungen entwickelten die Projektpartner die Zwei-Komponenten-Leuchte „Drosa“, eine Kombination von zwei blendfreien LED-Leuchten mit, in ihrem Winkel verstellbaren, Flügeln. Ein individuell programmiertes Automatisierungssystem steuert bei Drosa die Lichtdosierung und den zeitlichen Ablauf des Strahlungsspektrums während des Tages und der Nacht. Durch die Automation wird das Lichtspektrum, die Bestrahlungsstärke und der Raum- und Einfallswinkel durch die Relation der Komponenten zueinander aufeinander abgestimmt – diese sind alle Einflussfaktoren für die nichtvisuelle Reizstärke. Die Leuchtenflügel können frei in jedem Winkel zwischen Null und 90 Grad verstellt werden.

Weniger Anstrengung beim Arbeiten
Drosa verringert die kognitive Anstrengung beim Arbeiten. Ist der nichtvisuelle Reiz am Morgen hoch, wird die innere Uhr auf den normalen Tagesablauf synchronisiert und Mitarbeiter werden schneller wach und aufmerksam. Das erfolgt durch einen hohen Blauanteil im kalt-weißen Licht der LED-Strahler. Am Abend wird der nichtvisuelle Reiz auf den Mitarbeiter hingegen minimiert, während das Werkstück dagegen heller beleuchtet wird als es bei der Bestandsbeleuchtung der Fall war. Im Ergebnis wird die innere Uhr des Menschen und damit auch seine hormonellen Rhythmen durch Langzeitnachtschicht nur noch minimal verschoben. Das trägt zu einem guten Schlaf nach der Arbeit und einer erhöhten Langzeitgesundheit bei.

Lichtsystem Drosa in vielfältigen Branchen mit Schichtarbeit anwendbar
„Das wichtige Ziel ist es, den zirkadianen Rhythmus von Arbeitnehmern in den Schichten zu stärken und zu stabilisieren und somit der Chronodisruption entgegenzuwirken“, so Zauner und Plischke. Das Prinzip der Leuchte Drosa und des nicht-visuellen Simulationsverfahren könnten aber nicht nur für die Schichtarbeit in der Industrie zur Anwendung kommen, sondern auch bei nächtlicher Büroarbeit, in Pflegeheimen und anderen Arbeitsbereichen, in denen die negativen Folgen von Schichtarbeit für die Nutzer gemildert werden sollen.

Realisiert wurde das Forschungsprojekt der HM im Zeitraum 2018-2021, initiiert von der Verwaltungs-Berufsgenossenschaft (VBG), in Kooperation mit dem Unternehmen RHI Magnesita und dem Lichtplanungs- und Ingenieurbüro 3lpi lichtplaner + beratende Ingenieure.

Johannes Zauner
Johannes Zauner ist seit 2015 wissenschaftlicher Mitarbeiter der Hochschule München und promoviert seit 2018 in Kooperation mit der LMU in Humanbiologie mit dem Fokus „Licht und Gesundheit“. Darüber hinaus ist er freier Partner des Münchner Lichtplanungs- und Ingenieurbüros 3lpi, Mitglied und Sprecher des technisch-wissenschaftlichen Ausschuss (TWA) der Deutschen Lichttechnischen Gesellschaft (LiTG) für melanopische Lichtwirkungen, sowie Mitglied des Expertenforum Innenbeleuchtung (EFI).

Prof. Dr. Herbert Plischke
Herbert Plischke ist seit 2013 Professor an der Fakultät für Angewandte Naturwissenschaften und Mechatronik der Hochschule München mit dem Fachgebiet „Licht und Gesundheit“ und Medizintechnik, seit 2021 ist er Lehrbeauftragter der HM. Plischke ist außerdem Mitglied im Normungsausschuss DIN FNL 27 „Licht und Gesundheit“, im Ethikbeirat eines Demenzzentrums, Fellow im Netzwerk „Ageing Research“ der Universität Heidelberg sowie im Beirat des Instituts für Qualität in der Pflege (IQP).

Wissenschaftliche Ansprechpartner:
Johannes Zauner
E-Mail: johannes.zauner@hm.edu

Prof. Dr. Herbert Plischke
E-Mail: herbert.plischke@hm.edu

Originalpublikation:
Zauner, J.; Plischke, H. Designing Light for Night Shift Workers: Application of Nonvisual Lighting Design Principles in an Industrial Production Line. Appl. Sci. 2021, 11, 10896. https://doi.org/10.3390/app112210896

Weitere Informationen:
https://zenodo.org/record/5789009#.YfwRAt8xlaR Preprint der Studie

(nach oben)


Wasser in Berlin: Gewässer- und Flächenmanagement gemeinsam betrachten

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Viele Städte müssen sich auf zwei Herausforderungen einstellen: Der Wasserbedarf steigt, die Verfügbarkeit sinkt. Konflikte bei der Wasserverteilung betreffen nicht nur die menschliche Nutzung, sondern auch die blaue und grüne Infrastruktur – denn die Gewässer und Grünflächen in der Stadt benötigen Wasser. Die Forschungsgruppe von Professorin Dörthe Tetzlaff vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) untersucht die Wasserflüsse einer Stadt am Beispiel Berlin. Das Team nahm die große Trockenheit der Sommer 2018, 2019 und 2020 in den Fokus.

„Brl“ kommt aus dem Altpolabischen – eine slawische Sprache, die bis etwa zum 12. Jahrhundert in Nordostdeutschland weit verbreitet, aber nie eine Schriftsprache war. Trotzdem sind einige Worte bis heute erhalten geblieben, in Städtenamen wie Berlin beispielsweise. Brl steht für Sumpf oder Morast. Und richtig, Berlin ist auf sandigem Boden gebaut und der Grundwasserspiegel ist in vielen Bezirken hoch. Insbesondere in den Bereichen des Urstromtals wie im südlichen Mahlsdorf und Kaulsdorf, in Johannisthal, in Rudow, in der Rummelsburger Bucht, im Regierungsviertel, am Schloss Charlottenburg, in Siemensstadt und in Wittenau. Aufgrund der eiszeitliche Landschaftsformung ist Berlin sehr gewässerreich.

Eine „Sumpfstadt“ mit wenig Regen:
Andererseits gehört die Region Berlin-Brandenburg zu den niederschlagsärmsten Gegenden Deutschlands. Dies wird sich im Klimawandel noch verschärfen. „Es erscheint als eine etwas paradoxe Situation. Teils sumpfiger Boden durch hohes Grundwasser, viele Gewässer – und trotzdem haben Berlin und Brandenburg mit Wassermangel zu kämpfen“, sagt Dörthe Tetzlaff. Ein Städtevergleich: München hat im langjährigen Jahresmittel 944 mm Niederschlag, Köln 839 mm, Hamburg 793 mm und Berlin 591 mm. Im Jahr 2018 waren es in Berlin sogar nur 312 mm Niederschlag, ein Allzeit-Negativrekord.

Dörthe Tetzlaffs Team hat verschiedene Komponenten des Wasserhaushalts in Berlin in den Trockenjahren 2018 bis 2020 untersucht. Dabei betrachteten die Forschenden die Wasserflüsse von der Atmosphäre, der Vegetation, des Grundwassers, des Bodenwassers und der Oberflächengewässer in hoher räumlicher und zeitlicher Auflösung mittels stabiler Wasserisotope. Mit dieser Herangehensweise kann man den „Fingerabdruck“ von Wasser, und damit dessen Herkunft, das Alter und den Verbleib in der Landschaft detailliert bestimmen.

Grünflächen-Mosaik: Sträucher stabilisieren das Grundwasser, Bäume bringen Verdunstungskühle:
Pflanzen spielen eine wichtige Rolle im Wasserkreislauf. In Berlin machen Grünflächen mit etwa 30 Prozent einen bedeutenden Anteil der Stadtfläche aus. Das Team untersuchte, welche Art der Vegetation den Rückhalt von Wasser im Boden fördert und somit den Grundwasserspiegel stabilisiert. „Bäume spielen natürlich eine wichtige Rolle für das Stadtklima – sie spenden Schatten, produzieren Sauerstoff und bringen im Sommer einen Kühlungseffekt, weil Wasser über die Blattflächen verdunstet. Wichtig ist, dass Verdunstung und Grundwasserneubildung in enger Wechselwirkung stehen. Große Bäume verdunsten oft mehr Wasser, daher der große Kühlungseffekt. Es steht aber weniger Wasser zur Grundwasserneubildung zur Verfügung. Wir konnten zeigen, dass ein ,Grünflächen-Mosaik‘ aus Sträuchern – die in Trockenzeiten das Wasser besser im Boden halten – und Bäumen am besten gegen extreme Trockenheit gewappnet ist“, erläutert Dörthe Tetzlaff.

In den Untersuchungen gaben große Bäume nämlich mehr Feuchtigkeit über die Blätter ab und zogen auch mehr Wasser aus den tiefen Bodenschichten, sodass Niederschlag dort kaum zur Neubildung von Grundwasser führte. Grünflächen mit Sträuchern gaben etwa 17 Prozent weniger Feuchtigkeit durch Verdunstung über ihre Blätter an die Atmosphäre ab. Sie bezogen auch kein Wasser aus den tieferen Bodenschichten, da sie flacher wurzeln. Über Rasen verdunstete etwa die gleiche Menge Wasser wie bei Bäumen, trotz geringerer Wurzeltiefe und Blättermasse.

Außerdem zeigte sich, dass Berlins Grünflächen während Trockenzeiten einen geringen Austausch mit Oberflächengewässern und dem Grundwasser haben. „Grüne Wasserflüsse“, wie Verdunstung, sind also die dominanten Komponenten der Wasserbilanz. Das muss bei einem nachhaltigen Management beachtet werden, um zukünftig urbane Grünflächen zu erhalten und gleichzeitig Wasserressourcen zu schonen.

Die Erpe führt in Trockenperioden vor allem gereinigte Abwässer – die Panke ebenfalls:
Aber wie wichtig ist das Grundwasser für diese Stadt? Die Berliner Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz (SenUVK) hat den Grundwasserstand immer im Blick – schließlich gilt es sowohl wichtige Feuchtbiotope zu erhalten und gleichzeitig zu verhindern, dass es zu nassen Kellern und Grundbruch kommt. Außerdem wird das gesamte Wasser für die öffentliche Wasserversorgung und der größte Teil des Brauchwassers aus dem Grundwasser des Stadtgebietes gewonnen.

Auch die Flüsse Berlins speisen sich aus dem Grundwasser – aber vorwiegend im Winterhalbjahr, wie die IGB-Nachwuchsforscherin Lena-Marie Kuhlemann herausgefunden hat. Die Doktorandin aus der Forschungsgruppe von Dörthe Tetzlaff untersuchte im 220 Quadratkilometer großen Einzugsgebiet der Erpe die Rolle von Grundwasser, Niederschlag, geklärten Abwässern und städtischem Abfluss für die trockenen Jahre 2018 und 2019.

Im Winter vor allem durch Grundwasser gespeist, führt die Erpe in Trockenperioden im Sommer hauptsächlich geklärte Abwässer durch die Einleitungen der zwei kommunalen Kläranlagen. Wasser aus Niederschlägen und städtischen Wassereinträgen machten weniger als 10 Prozent des Abflusses der Erpe aus, obwohl das Einzugsgebiet zu etwa 20 Prozent städtisch ist. Der hohe Anteil an geklärtem Abwasser kann Auswirkungen auf die Umweltqualität und die Ökosystemleistungen haben und ist damit auch ein wichtiger Aspekt für die Behandlung von kommunalem Abwasser. „Wenn gereinigte Abwässer in ein Oberflächengewässer eingeleitet werden, können Spurenstoffe und Nährstoffe eingetragen werden. Dies beeinflusst die Gewässerqualität insbesondere, wenn gleichzeitig wenig ‚natürliches Wasser´ ins Gewässer gelangt“, erläutert Lena-Marie Kuhlemann.

Überarbeitung der EU-Richtlinie über die Behandlung von kommunalen Abwässern:
Christian Marx, ebenfalls ein Nachwuchswissenschaftler im Forschungsteam, ist für die Panke zu ähnlichen Ergebnissen gekommen. Die Panke ist nach Spree und Havel der drittlängste Fluss im Berliner Stadtgebiet. Der obere Teil des Einzugsgebiets wird zu rund 75 Prozent von Grundwasser aus Kiesgrundwasserleitern gespeist. Bei starkem Regen ist dieser die Hauptquelle für das Wasser der Panke. Insgesamt macht das Wasser aus Niederschlägen allerdings nur 10 bis 15 Prozent des jährlichen Wasserflusses aus. Flussabwärts wird der Fluss von verschiedenen Nebenflüssen beeinflusst. Die Abwässer einer Kläranlage prägen jedoch mit 90 Prozent den Wasserfluss im unteren Einzugsgebiet, wo die Auswirkungen der Verstädterung am stärksten sind. Die damit verbundene Zunahme der versiegelten Flächen flussabwärts verringert auch den relativen Beitrag des Grundwassers.

Die Europäische Kommission führte im letzten Jahr eine Konsultation zur Überarbeitung der EU-Richtlinie über die Behandlung von kommunalem Abwasser (UWWTD) durch. „Der zunehmende Anteil von geklärten Abwässern in Oberflächengewässern durch Trockenheit und Versiegelung ist ein wichtiger Aspekt für die Anpassung dieser EU-Richtlinie“, resümiert Dörthe Tetzlaff.

Spree, Dahme, Havel: Verdunstungsverluste in flussaufwärts gelegenen Einzugsgebieten:
Bei den drei großen Flüssen in Berlin – Spree, Dahme, Havel – ist weniger der Anteil an geklärtem Abwasser problematisch; sie haben mit anderen Herausforderungen zu kämpfen: Bevor die Flüsse im Stadtgebiet von Berlin ankommen, ist bereits viel Wasser verdunstet, wie Isotopenanalysen ergaben. Insbesondere mit Blick auf das Ende des Tagebaus in der Lausitz im oberen Einzugsgebiet der Spree und den Klimaänderungen wird es wichtig sein, den Wasserhaushalt der stromaufwärts gelegenen Einzugsgebiete mit einzubeziehen, um durch nachhaltige Nutzungsstrategien Wasserverluste zu minimieren und den Zufluss in der Spree nach Berlin aufrechtzuerhalten. „Einfache Messprogramme mittels Isotopen können in Zukunft helfen, die Verdunstungsverluste auch über größere Gebiete hinweg besser zu quantifizieren“, sagt Dörthe Tetzlaff.

Ein Blick nach Brandenburg zeigt „Dürre-Gedächtniseffekte“:
Das Team betreibt auch ein Freiland-Observatorium im Demnitzer Mühlenfließ im Osten Brandenburgs. Im Dürrejahr 2018 fielen dort im Vergleich zum langjährigen Mittel 30 Prozent weniger Niederschlag. In den beiden darauffolgenden, ebenfalls trockenen Jahren 2019 und 2020 waren es jeweils noch 10 bis 15 Prozent weniger als die langjährigen Mittel. Auch in der ersten Jahreshälfte in 2021 regnete es noch zu wenig. Doch wie wirken sich solche Trockenphasen auf die Wasserressourcen aus? Und wie viel Niederschlag wäre nötig, um den Mangel auszugleichen? Die Messdaten zeigen, dass die Grundwasserneubildung zeitversetzt geschieht. So erreichte der Grundwasserspiegel erst 2020 seinen tiefsten Wert nach dem Dürresommer 2018. Er lag mehr als 20 Prozent – das heißt 40 Zentimeter – unter dem normalen Grundwasserstand. Auch heute, Anfang 2022, ist trotz der erhöhten Niederschläge der letzten Wochen, immer noch zu wenig Grundwasser vorhanden. Ähnlich ist es bei der Feuchte des Oberbodens: Die jüngsten Regenfälle haben nicht dazu geführt, dass die Böden genug Wasser aufnehmen konnten. Im Vergleich zum Mittel der letzten 13 Jahre fehlen noch etwa 15 Prozent.

„Unsere integrierten Messungen und Modellierungen zeigen, dass wir mindestens vier Jahre an durchschnittlichen Regenmengen bräuchten, also in dieser Region etwa 600 mm pro Jahr, damit sich die Grundwasserspiegel auf Vor-Dürre-Niveau erholen könnten, und ein Jahr, um die Bodenwasserspeicher wieder aufzufüllen“, prognostiziert Dörthe Tetzlaff. Zunehmende Extremereignisse wie Dürren erfordern daher sowohl in der Stadt, als auch im Umland Strategien, die an die Wasserverfügbarkeit angepasst sind und die Widerstandsfähigkeit gegenüber dem Klimawandel erhöhen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dörthe Tetzlaff
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
doerthe.tetzlaff@igb-berlin.de

Originalpublikation:
Lena-Marie Kuhlemann, Doerthe Tetzlaff, Chris Soulsby (2021). Spatio-temporal variations in stable isotopes in peri-urban catchments: A preliminary assessment of potential and challenges in assessing streamflow sources, Journal of Hydrology, Volume 600, 2021, 126685, ISSN 0022-1694. https://doi.org/10.1016/j.jhydrol.2021.126685.

Weitere Informationen:
https://www.igb-berlin.de/news/wasser-berlin

(nach oben)


Blutdruck im Alter: Je höher – desto besser? Höhere Zielwerte bei gebrechlichen Personen können vorteilhaft sein

Daniela Stang Presse- und Öffentlichkeitsarbeit
Universität Ulm
Forschende der Universität Ulm und der Agaplesion Bethesda Klinik Ulm kommen in einer neuen Studie zu dem Schluss, dass das Sterberisiko von älteren Personen mit Bluthochdruck stark von dem Faktor „Gebrechlichkeit“ abhängt. Bei stark gebrechlichen Personen könnte ein höherer Blutdruck sogar von Vorteil sein.

In einer neuen Studienarbeit haben Forschende der Universität Ulm und der Agaplesion Bethesda Klinik Ulm die Sterblichkeit von älteren Personen im Zusammenhang mit dem systolischen Blutdruck und dem Faktor „Gebrechlichkeit“ untersucht. Das Ergebnis: Das durch einen höheren systolischen Blutdruck bedingte Sterberisiko im Alter unterscheidet sich stark je nach der individuellen Fitness der Personen. Erschienen ist die Untersuchung in „Hypertension“, einem kardiovaskulären Fachjournal, das von der American Heart Association herausgegeben wird.

Mit zunehmendem Lebensalter nimmt das Risiko für Bluthochdruck (Hypertonie) zu, da unter anderem die Gefäße an Elastizität verlieren. Mit dem Blutdruck steigt das Risiko für Herz-Kreislauf-Erkrankungen wie Schlaganfall oder Herzinfarkt. Deshalb zählt Hypertonie zu den großen vier Risikofaktoren. Rund dreiviertel aller 75-Jährigen leiden an Bluthochdruck. Deshalb gilt die Empfehlung, den systolischen Blutdruck meist medikamentös auf unter 140 mmHg zu senken. Jedoch kann eine starke Absenkung des Blutdrucks im Alter mit negativen Ereignissen wie Stürzen zusammenhängen. Dies ist auf die zunehmende autonome Dysregulation zurückzuführen. Das heißt, dass das körpereigene Kontrollsystem aus dem Gleichgewicht geraten ist. Dies kann im Zusammenspiel mit Störungen der venösen Durchblutung zu einem langanhaltenden Blutdruckabfall nach dem Aufstehen führen. Gleichzeitig gibt es Hinweise auf eine Verschlechterung der kognitiven Fähigkeiten, wenn der systolische Blutdruck bei Älteren deutlich unter 130 mmHg gesenkt wird. Auch andere Nebenwirkungen von blutdrucksenkenden Medikamenten wie Reizhusten, Allergien und Verdauungsprobleme sind bekannt.

„Heutzutage wird der Nutzen der intensiven Behandlung der arteriellen Hypertonie, also des Bluthochdrucks im höheren Alter, kontrovers diskutiert. Noch existieren keine einheitlichen Empfehlungen in den vorhandenen Leitlinien. Mit unserer Untersuchung wollen wir einen Beitrag leisten und die Datenlage verbessern“, erklärt PD Dr. Dhayana Dallmeier, Leiterin der Forschungsabteilung an der Agaplesion Bethesda Klinik Ulm. Aus diesem Grund haben Dallmeier und das Team rund um Erstautor Kaj-Marko Kremer die Sterblichkeit von Älteren in Bezug mit dem Blutdruck und der Gebrechlichkeit gesetzt. In der Untersuchung griffen die Forschenden auf die Daten von über 1100 Teilnehmenden (mittleres Alter 73,9 Jahre, 41,6 Prozent Frauen) der ActiFE-Studie Ulm zurück, die vor allem die körperliche Aktivität bei Personen über 65 Jahren erfasst. Die Wissenschaftlerinnen und Wissenschaftler konnten feststellen, dass die Gebrechlichkeit das Sterberisiko stark beeinflusst. So lag bei „fitteren“ Personen das geringste Sterberisiko bei einem systolischen Blutdruck von 130 mmHg, wie auch in den aktuellen Leitlinien angegeben. Weiterhin zeigte die Untersuchung, dass bei stark gebrechlichen Älteren das Sterberisiko mit einem höheren Blutdruck tendenziell sogar sank. Das geringste Risiko verzeichneten gebrechlichen Personen mit einem Blutdruck von 160 mmHg oder höher. „Wie wir beobachten können, verläuft das Altern von Mensch zu Mensch sehr unterschiedlich. Neben den fitten und sportlich aktiven Über-80-Jährigen gibt es gebrechliche und wenig belastbare 70-Jährige. Unsere Untersuchung bestätigt, wie wichtig dieser Umstand im Alter, beispielsweise in Bezug auf die Anwendung differenzierter Behandlungsansätzen, sein kann“, so Erstautor Kaj-Marko Kremer. Die Autorinnen und Autoren der Studienarbeit raten dazu, die körperliche und kognitive Fitness im Alter bei der patientenspezifischen Behandlung der arteriellen Hypertonie zu beachten und bei der Erarbeitung von neuen Richtlinien einfließen zu lassen.

Für ihre Untersuchung griffen die Forschenden auf Daten der ActiFE-Studie (Activity and Function in the Elderly in Ulm) zurück, die an der Agaplesion Bethesda Klinik Ulm in Zusammenarbeit mit dem Institut für Epidemiologie und Medizinische Biometrie an der Universität Ulm seit 2009 durchgeführt wird. Diese Studie wurde teilweise mit Mitteln der Deutschen Forschungsgemeinschaft (DFG) finanziert.

Wissenschaftliche Ansprechpartner:
PD Dr. Dhayana Dallmeier Ph.D., Leiterin der Forschungsabteilung, Agaplesion Bethesda Klinik Ulm, Tel.: 0731/1897190, dhayana.dallmeier@agaplesion.de

Originalpublikation:
Systolic Blood Pressure and Mortality in Community-Dwelling Older Adults: Frailty as an Effect Modifier; Kaj-Marko Kremer, Ulrike Braisch, Dietrich Rothenbacher, Michael Denkinger, Dhayana Dallmeier and for the ActiFE Study Group; Hypertension. 2022;79:24–32
https://doi.org/10.1161/HYPERTENSIONAHA.121.17530

(nach oben)


Wie Menschen lernen, sich beim Denken gerne anzustrengen

Anne-Stephanie Vetter Pressestelle
Technische Universität Dresden
Menschen gehen gerne den Weg des geringsten Widerstands, wenn es um kognitive Anstrengung geht – eine gängige Lehrmeinung in der Kognitionspsychologie. Forschende der Universität Wien und der Technischen Universität Dresden kommen nun zu einem diametral anderen Fazit: Bekommen Personen einmal eine Belohnung für ihre Denkleistung, wählen sie später auch dann herausfordernde Aufgaben, wenn sie keine Belohnung für ihre kognitiven Anstrengung mehr erhalten. Die Studie ist aktuell in der Fachzeitschrift Proceedings of the National Academy of Science (PNAS) erschienen.

Viele außergewöhnliche menschliche Fähigkeiten wie das Lesen, das Beherrschen eines Musikinstruments oder das Programmieren komplexer Software erfordern tausende Stunden des Übens und ständige kognitive Anstrengung. In den vorherrschenden wissenschaftlichen Theorien wird die Meinung vertreten, dass kognitive Anstrengung als unangenehm erlebt wird und Menschen versuchen, wann immer möglich diese zu vermeiden.

Allerdings gibt es im Alltag viele Situationen, in denen sich Menschen scheinbar freiwillig anstrengen, selbst wenn es keine offensichtliche äußere Belohnung dafür gibt. So macht es vielen Menschen Spaß, Sudokus zu lösen, Studierende werden oft durch anspruchsvolle intellektuelle Aufgaben motiviert und Amateurpianist:innen können sich stundenlang um Perfektion bemühen, ohne dass sie, von außen betrachtet, dafür belohnt werden. In jüngster Zeit haben einige Wissenschafter:innen kritisch hinterfragt, ob kognitive Anstrengung wirklich immer etwas Negatives ist und argumentieren stattdessen, dass herausfordernde kognitive Tätigkeiten unter bestimmten Umständen als lohnend und wertvoll erlebt werden. Studien dazu fehlten bislang.

In einem aktuellen Projekt des Sonderforschungsbereichs (SFB) 940 „Volition und kognitive Kontrolle“ widmeten sich nun Forschende der Universität Wien und der Technischen Universität Dresden dieser Frage. Unter der Leitung von Veronika Job, Thomas Goschke und Franziska Korb haben die Teams erstmals unter kontrollierten Bedingungen untersucht, ob Menschen, die die Erfahrung machen, dass sich Anstrengung lohnt (d.h. die in einer kognitiven Aufgabe für ihre Anstrengungsbereitschaft belohnt wurden), auch bei anderen neuen Aufgaben bereit sind, sich stärker anzustrengen und von sich aus schwierigere Aufgaben wählen als Personen einer Vergleichsgruppe – selbst wenn sie wussten, dass sie dabei keinerlei weitere Belohnung erhalten werden.

Schon nach einmaliger Belohnung steigt die Bereitschaft zur Anstrengung
Im einem ersten Experiment mit 121 Testpersonen erhoben Georgia Clay und Christopher Mlynski mit Hilfe von kardiovaskulären Messungen (Aktivität des Herzens), wie sehr sich jemand bei verschiedenen kognitiven Aufgaben in einer Trainingsphase anstrengt. Die Belohnung wurde dabei direkt durch die Anstrengung bestimmt: Wenn sich eine Person bei schwierigen Aufgaben mehr angestrengt hatte, erhielt sie eine höhere Belohnung als bei einfachen Aufgaben, in denen sie sich nur wenig angestrengt hatte. In der Vergleichsgruppe wurde die Belohnung zufällig zugeteilt und war unabhängig davon, wie sehr sich jemand angestrengt hatte. Beide Gruppen erhielten gleich viel Belohnung, aber nur die eine wurde gezielt für die Anstrengung belohnt, die anderen nicht. Im Anschluss bearbeiteten alle Testpersonen Mathematikaufgaben, bei denen sie selbst die Schwierigkeitsstufe der Aufgaben auswählen konnten, die sie bearbeiten wollten. Fazit: „Personen, die zuvor für Anstrengung belohnt worden waren, wählten im Anschuss schwierigere Aufgaben als Personen der Vergleichsgruppe, obwohl ihnen bewusst war, dass sie keine externe Belohnung mehr erhalten würden“, erklärt Prof. Veronika Job von der Fakultät für Psychologie der Universität Wien.

Weitere Experimente bestätigen Ergebnisse
Um zu untersuchen, ob sich die Effekte einer anstrengungsabhängigen Belohnung erneut zeigen und verallgemeinern lassen, wurden fünf weitere Experimente mit insgesamt 1.457 Testpersonen online durchgeführt. Dabei erhielten die Personen in der Experimentalgruppe für schwierige Aufgaben eine höhere Belohnung als für leichte Aufgaben, unabhängig davon, wie gut sie die Aufgaben gelöst hatten. Die Belohnung hing also wieder von der notwendigen kognitiven Anstrengung und nicht von der Leistung der Teilnehmenden ab. Es zeigte sich erneut, dass eine anstrengungsabhängige Belohnung dazu führte, dass die Personen in einer nachfolgenden Testphase, in der sie Aufgaben wieder frei wählen konnte, die schwierigeren Aufgaben bevorzugten, die mehr kognitive Anstrengung erforderten.

Diese Ergebnisse stellen die weit verbreitete Auffassung in aktuellen Theorien der Kognitiven Psychologie und der Neurowissenschaften in Frage, dass Anstrengung stets als unangenehm und kostspielig erlebt wird. „Dass Menschen den Weg des geringsten Widerstands gehen möchten, ist also möglicherweise keine universelle Eigenschaft menschlicher Motivation. Die Neigung, anspruchsvolle Aufgaben zu vermeiden, könnte vielmehr das Ergebnis individueller Lerngeschichten sein, die sich je nach Belohnungsmuster unterscheiden: wurde vor allem die Leistung oder aber die Anstrengung belohnt“, schließt Thomas Goschke, Professor für Allgemeine Psychologie an der TU Dresden und Sprecher des SFB 940.

Der Sonderforschungsbereich 940 „Volition und kognitive Kontrolle“
Der Sonderforschungsbereich (SFB) 940 „Volition und kognitive Kontrolle“ wurde im Jahr 2012 eingerichtet und befindet sich aktuell in seiner 3. Förderperiode. Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Zentrum bündelt Kompetenzen aus den Feldern Experimentelle Psychologie, Kognitiv-Affektive Neurowissenschaften und Neuroimaging, Klinische Psychologie, Psychiatrie und Neurologie, um Mechanismen, Modulatoren und Dysfunktionen der Willenskontrolle auf psychologischer und neuronaler Analyse-Ebene zu untersuchen. Basierend auf einem interdisziplinären Netzwerk ist der SFB 940 bestrebt, nicht nur das Verständnis der grundlegenden Mechanismen der willentlichen Handlungssteuerung zu erweitern, sondern langfristig die Grundlagen für eine verbesserte Prävention und Therapie von Beeinträchtigungen willentlicher Handlungssteuerung bei psychischen Störungen zu schaffen. Sprecher ist Prof. Dr. Thomas Goschke, Professor für Allgemeine Psychologie an der TU Dresden. https://tu-dresden.de/bereichsuebergreifendes/sfb940

Wissenschaftliche Ansprechpartner:
Prof. Thomas Goschke
Sprecher des SFB 940
Professor für Allgemeine Psychologie
TU Dresden
Email: thomas.goschke@tu-dresden.de

Prof. Veronika Job
Fakultät für Psychologie
Universität Wien
Email: veronika.job@univie.ac.at

Originalpublikation:
Georgia Clay, Christopher Mlynski, Franziska Korb, Thomas Goschke und Veronika Job: Rewarding cognitive effort increases the intrinsic value of mental labor,
In: Proceedings of the National Academy of Science (2022). Veröffentlichungsdatum: 28. Januar 2022.

(nach oben)


Morgensport vs. Abendsport: Forschende entschlüsseln die unterschiedlichen Auswirkungen auf unsere Gesundheit

Verena Schulz Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Bewegen wir unseren Körper, sendet dieser Hunderte verschiedener Signale aus, die unsere Gesundheit in vielerlei Hinsicht fördern. Forschende haben nun am Mausmodell untersucht, welchen Einfluss die Tageszeit auf die Freisetzung organspezifischer Signale nach körperlicher Betätigung hat. Die Ergebnisse haben sie in einem „Atlas des Bewegungsstoffwechsels“ zusammengefasst – ein wichtiger Schritt für wirksamere Sporttherapien, die auf unsere innere Uhr abgestimmt sind.

Dass Bewegung die Gesundheit fördert, ist allgemein bekannt. Jüngste Forschungsergebnisse haben gezeigt, dass die Auswirkungen von Bewegung auf den Körper je nach Tageszeit unterschiedlich sind. Warum dies so ist, wurde noch nicht vollständig erforscht. Ein internationales Forschungsteam unter Leitung von Helmholtz Munich und dem Karolsinka-Institut in Schweden veröffentliche nun eine umfassende Studie zu diesem Thema in der Fachzeitschrift Cell Metabolism. Ihre Forschungen zeigen, wie der Körper nach dem Sport je nach Tageszeit und organabhängig unterschiedliche gesundheitsfördernde Signale produziert. Diese Signale haben weitreichende Auswirkungen auf die Gesundheit und beeinflussen den Schlaf, das Gedächtnis, die körperliche Leistungsfähigkeit und das Gleichgewicht unseres Stoffwechsels.

„Wenn wir besser verstehen, wie sich Bewegung zu verschiedenen Tageszeiten auf den Körper auswirkt, könnte dies Menschen mit einem erhöhten Risiko für Krankheiten wie Adipositas und Typ-2-Diabetes zugutekommen“, so Juleen R. Zierath vom Karolinska-Institut und dem Novo Nordisk Foundation Center for Basic Metabolic Research an der Universität Kopenhagen.

Atlas des Bewegungsstoffwechsels
Fast alle Zellen regulieren ihre biologischen Prozesse über einen Zeitraum von 24 Stunden, in der Wissenschaft bekannt als zirkadianer Rhythmus. Das bedeutet, dass sich die Empfindlichkeit der verschiedenen Gewebe gegenüber den Auswirkungen von Bewegung je nach Tageszeit ändert. Frühere Forschungsarbeiten haben bestätigt, dass die gesundheitsfördernde Wirkung von Bewegung optimiert werden kann, wenn sie zeitlich auf unseren zirkadianen Rhythmus abgestimmt ist.

Das internationale Forschungsteam wollte diesen Effekt genauer verstehen und führte daher eine Reihe von Untersuchungen an Mäusen durch, die entweder am frühen Morgen oder am späten Abend trainierten. Die Forschenden sammelten und analysierten Blutproben und verschiedene Gewebeproben von Hirn, Herz, Muskel, Leber und Fett. Auf diese Weise konnten sie Hunderte verschiedener Stoffwechselprodukte und Hormonsignalmoleküle in jedem Gewebe nachweisen und verfolgen, wie sie sich durch das Training zu unterschiedlichen Tageszeiten veränderten.

Das Ergebnis ist ein „Atlas des Bewegungsstoffwechsels“ – eine umfassende Karte von Signalmolekülen, die in unterschiedlichen Geweben nach körperlicher Belastung zu verschiedenen Tageszeiten vorhanden sind.

„Dies ist die erste Studie, die den Stoffwechsel in Abhängigkeit von Bewegung und Tageszeit über mehrere Gewebe hinweg beschreibt. Wir verstehen jetzt besser, wie Bewegung gestörte zirkadiane Rhythmen, die mit Adipositas und Typ-2-Diabetes in Verbindung stehen, neu ausrichten kann. Unsere Ergebnisse werden neue Studien ermöglichen, die den richtigen Zeitpunkt körperlicher Belastung für Therapien und die Prävention von Krankheiten erforschen“, sagt Dominik Lutter, der die Studie seitens Helmholtz Munich leitete und sowohl am Helmholtz Diabetes Center als auch beim Deutschen Zentrum für Diabetesforschung (DZD) forscht.

Die Studie ist das Ergebnis einer Zusammenarbeit zwischen der Universität Kopenhagen, dem Karolinska-Institut, der Texas A&M University, der University of California-Irvine und Helmholtz Munich.

Einschränkungen der Studie
Da die Studie an Mäusen durchgeführt wurde, unterliegt sie gewissen Einschränkungen. Mäuse und Menschen teilen zwar viele genetische, physiologische und verhaltensbezogene Merkmale, dennoch gibt es Unterschiede. Mäuse sind beispielsweise von Natur aus nachtaktiv. Außerdem bewegten sich die Mäuse für die Studie nur auf einem Laufband, was zu anderen Ergebnissen führen kann als ein hochintensives Training. Weitere Studien müssen zudem den Einfluss von Geschlecht, Alter und Krankheit auf die Signalproduktion klären.

Originalpublikation
Sato, Dyar, Treebak et al., 2022: Atlas of Exercise Metabolism Reveals Time-Dependent Signatures of Metabolic Homeostasis. Cell Metabolism, DOI: 10.1016/j.cmet.2021.12.016.

Über Helmholtz Munich
Helmholtz Munich ist ein biomedizinisches Spitzenforschungszentrum. Seine Mission ist, bahnbrechende Lösungen für eine gesündere Gesellschaft in einer sich schnell verändernden Welt zu entwickeln. Interdisziplinäre Forschungsteams fokussieren umweltbedingte Krankheiten, insbesondere die Therapie und die Prävention von Diabetes, Adipositas, Allergien und chronischen Lungenerkrankungen. Mittels künstlicher Intelligenz und Bioengineering transferieren die Forschenden ihre Erkenntnisse schneller zu den Patient:innen. Helmholtz Munich zählt mehr als 2.500 Mitarbeitende und hat seinen Sitz in München/Neuherberg. Es ist Mitglied der Helmholtz-Gemeinschaft, mit mehr als 43.000 Mitarbeitenden und 18 Forschungszentren die größte Wissenschaftsorganisation in Deutschland. Mehr über Helmholtz Munich (Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt GmbH): www.helmholtz-muenchen.de

Wissenschaftliche Ansprechpartner:
Helmholtz Munich
Dominik Lutter
Email: dominik.lutter@helmholtz-munich.de

Originalpublikation:
Sato, Dyar, Treebak et al., 2022: Atlas of Exercise Metabolism Reveals Time-Dependent Signatures of Metabolic Homeostasis. Cell Metabolism, DOI: 10.1016/j.cmet.2021.12.016.
https://www.cell.com/cell-metabolism/fulltext/S1550-4131(21)00635-5

(nach oben)


Mikroplastik in der Umwelt: Daten reichen nicht aus

Johannes Scholten Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg
Misst man nur zu einem einzigen Zeitpunkt, wieviel Mikroplastik sich in der Umwelt befindet, so lassen sich daraus keine Rückschlüsse auf den Zerfall und die künftige Verbreitung des Kunststoffs ziehen. Dazu sind vielmehr Zeitreihen der Partikelverteilung erforderlich, wie Physiker der Philipps-Universität Marburg mit Modellrechnungen herausgefunden haben. Die Forscher berichten im Wissenschaftsmagazin „Scientific Reports“ über ihre Ergebnisse.

Messen, messen und wieder messen: Marburger Physiker zeigen, wie sich der Abbau von Kunststoffpartikeln erforschen lässt.

Die weltweite Kunststoffproduktion erreichte im Jahr 2019 einen Umfang von 368 Millionen Tonnen, rechnet der Weltverband der Plastikhersteller vor. Ein großer Teil des Materials gelangt in die Umwelt. Wie der Kunststoff sich dort im Lauf der Zeit verteilt, hängt unter anderem vom Zerfall der Partikel ab. „Bisher weiß man wenig über den Abbau von Mikroplastik“, sagt der Marburger Physiker Professor Dr. Peter Lenz, der die aktuelle Studie leitete.

Messen Kunststoffpartikel weniger als fünf Millimeter im Umfang, nennt man sie Mikroplastik. „Sie werden durch Kosmetika oder andere Gebrauchsprodukte in die Umwelt eingetragen oder entstehen durch die Zersetzung von Plastikmüll“, führt Lenz aus. Die Wissenschaftler nutzten ausgeklügelte Berechnungsverfahren, um herauszufinden, ob aus den derzeit verfügbaren Daten nützliche Informationen über den Zerfall von Mikroplastikpartikeln gewonnen werden können. Lässt sich der Zerfallsprozess erklären, wenn man die Ergebnisse nutzt, die im Gelände gewonnen werden?

„Derzeit liegen meist Daten von Größenverteilungen vor, die zu einzelnen Zeitpunkten gemessen wurden“, berichtet Mitverfasser Timo Metz, der seine Bachelorarbeit in der Arbeitsgruppe von Lenz anfertigte. „Wir haben zunächst mit einem sehr einfachen Modell für den Zerfall von Mikroplastik gearbeitet.“ Mit diesem Modell zeigen die Wissenschaftler, dass es unmöglich ist, alle wichtigen Faktoren für den Zerfall des Kunststoffs aus einer einzigen Größenverteilung zu gewinnen. Denn zerkleinerte Partikel unterscheiden sich in der Größe nicht unbedingt von Plastikteilchen, die neu in die Umwelt gelangen.

Wie müssen die Daten beschaffen sein, um aussagekräftiger zu sein? Das Team ging dieser Frage nach, indem es künstliche, komplexere Daten erzeugte, auf die es das Berechnungsmodell anwendete. „Unsere Analyse ergab einige Mindestanforderungen, die experimentell gewonnene Daten erfüllen müssen“, legt der dritte Koautor dar, der Marburger Physiker Professor Dr. Martin Koch: Die Daten sollten zu mehreren Zeitpunkten an identischen Stellen gesammelt werden, um eine Zeitreihe zu bilden. Außerdem reichen Größenmessungen alleine nicht aus, sie sollten mit der Bestimmung der Massen kombiniert werden.

Das Team gibt außerdem noch weitere Anregungen, wie sich das Vorkommen von Kunststoffteilchen besser als bisher erheben lässt. Unter anderem empfehlen die Forscher, zusätzliche Größenkategorien einzuführen, Messungen an verschiedenen Orten vorzunehmen und Eigenschaften wie Material und Form einzubeziehen, die den Abbauprozess beeinflussen. Alle Daten sollten in Zeitreihen erhoben werden.

Peter Lenz leitet eine Arbeitsgruppe im Fachgebiet „Komplexe Systeme“ des Fachbereichs Physik der Philipps-Universität. Professor Dr. Martin Koch lehrt Physik an der Philipps-Universität Marburg und leitet die Arbeitsgruppe Halbleiterphotonik. Das Land Hessen unterstützte die zugrunde liegende wissenschaftliche Arbeit durch eine LOEWE-Exploration-Förderung.

Originalveröffentlichung:
Timo Metz, Martin Koch & Peter Lenz: Extracting microplastic decay rates from field data, Scientific Reports 2022, DOI: https://doi.org/10.1038/s41598-022-04912-w

Weitere Informationen:
Ansprechpartner: Professor Dr. Peter Lenz,
Fachgebiet Komplexe Systeme
Tel.: 06421 28-24326
E-Mail: peter.lenz@Physik.Uni-Marburg.de
Internet: http://www.uni-marburg.de/de/fb13/komplexe-systeme

(nach oben)


Wasserstofftechnologie: Elektrolyseure sollen Massenware werden

Hannes Weik Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Wer Wasserstoff als Energiequelle nutzen will, braucht Elektrolyseure. Doch die sind rar und teuer, weil sie bisher noch weitgehend von Hand gefertigt werden. Damit sie künftig im industriellen Maßstab produziert werden können, entwickelt ein Forschungsteam vom Fraunhofer IPA derzeit eine durchgängig automatisierte Elektrolyseurfabrik.

Wasserstoff ist auf der Erde reichlich vorhanden. Allerdings ist er sehr reaktionsfreudig und daher in Molekülen gebunden, in Wasser (H2O) zum Beispiel. Wer das gasförmige Element als emissionsfreie Energiequelle nutzen möchte, muss den Wasserstoff also zunächst aus dem Wassermolekül herauslösen. Dafür gibt es sogenannte Elektrolyseure. Sie spalten Wasser in seine Bestandteile Wasserstoff (H2) und Sauerstoff (O) auf. Brennstoffzellen können den Wasserstoff wieder in elektrischen Strom umwandeln, der dann Motoren antreibt. Oder der Wasserstoff wird in Hochöfen direkt verbrannt.

Da Wasserstoff bei der Energie- und Verkehrswende eine wichtige Rolle spielt, braucht die Welt in absehbarer Zeit massenhaft neue Elektrolyseure. Doch die werden bisher noch weitgehend in Handarbeit gefertigt, was sehr viel Zeit braucht, teuer und fehleranfällig ist. Wissenschaftlerinnen und Wissenschaftler vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA wollen deshalb zusammen mit Partnern aus Forschung und Industrie die Fertigung von Elektrolyseuren durchgängig automatisieren. »Ziel ist eine automatisierte Elektrolyseurfabrik im Gigawatt-Maßstab«, sagt Friedrich-Wilhelm Speckmann vom Zentrum für digitalisierte Batteriezellenproduktion (ZDB) am Fraunhofer IPA. »Die hier innerhalb eines Jahres produzierten Elektrolyseure sollen also eine aufaddierte Nominalleistung von mindestens einem Gigawatt haben.«

Roboter sollen künftig das Stacking übernehmen
Ein Elektrolyseur besteht aus zwei Elektroden – der positiv geladenen Anode und der negativ geladenen Kathode – und einem Separator, in diesem Fall einer Protonen-Austausch-Membran (PEM). Um die Leistung zu erhöhen, werden viele Elektrolysezellen zu einem sogenannten Stack gestapelt. Dieses Stacking geschieht bisher noch größtenteils in Handarbeit, könnte in Zukunft aber von Robotern erledigt werden.

Weil aber nicht nur das Stacking, sondern die gesamte Produktionslinie automatisiert werden soll, müssen die Forscherinnen und Forscher auch sämtliche vor- und nachgelagerte Prozesse, bis zum Einfahren der Gesamtsysteme, berücksichtigen. Dabei reichen die Aufgaben von der Fabrik- und Produktionsplanung, über die Bauteiltests bis hin zu den End-of-Line-Prüfständen. Zusätzlich werden im Konsortium auch neuartige Stackdesigns entwickelt, die zukünftige Produktionsverfahren vereinfachen und somit beschleunigen.

Fertigungssystemplanung, Roboter und Sensoren für die Elektrolyseurfabrik
Um die automatisierte Elektrolyseurfabrik verwirklichen zu können, bauen die Projektpartner zunächst eine Fertigungslinie nach dem aktuellen Stand der Technik auf. Diese wird dann Stück für Stück modular angepasst und erweitert, damit die einzelnen Prozesse besser als bisher ineinandergreifen und automatisiert ablaufen. Dabei klären die Wissenschaftlerinnen und Wissenschaftler eine ganze Reihe offener Fragestellungen, zum Beispiel: Welche Robotertopologie eignet sich für das Stacking am besten? Wie muss ein Roboter die Bauteile greifen und wie schnell darf er sich dabei maximal bewegen, um die sensiblen Komponenten nicht zu beschädigen? Welche optischen Sensoren sollen zur Qualitätssicherung in die Anlage integriert werden? Welche Fertigungstechnologien ermöglichen eine Skalierung der Elektrolyseurproduktion? Wie muss eine vollkommen automatisierte Elektrolyseurfabrik aussehen und aufgebaut sein?

Antworten auf diese und viele weitere Fragen will das Forschungsteam bis 31. März 2025 gefunden haben. Dann nämlich läuft das Forschungsprojekt »Industrialisierung der PEM-Elektrolyse-Produktion« (PEP.IN) aus, welches das Bundesministerium für Bildung und Forschung (BMBF) mit über 20 Millionen Euro fördert. Beteiligt sind an dem Verbundprojekt neben dem Fraunhofer IPA auch das Fraunhofer-Institut für Solare Energiesysteme ISE, das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, die MAN Energy Solutions SE, die H-TEC Systems GmbH, die Audi AG, die VAF GmbH, das Zentrum für Brennstoffzellen-Technik GmbH und das Forschungszentrum Jülich GmbH. PEP.IN ist Teil des Leitprojekts »H2Giga«, einem von drei Wasserstoff-Leitprojekten, die einen zentralen Beitrag des BMBF zur Umsetzung der Nationalen Wasserstoffstrategie bilden.

Weitere H2Giga-Projekte mit Beteiligung des Fraunhofer IPA

Degrad-EL3-Q: Im Forschungsprojekt »Degrad-EL3-Q« untersucht ein Forschungsteam vom Zentrum für Cyber Cognitive Intelligence (CCI) am Fraunhofer IPA, inwiefern Degradationsanalysen, die mit einem Quantencomputer durchgeführt werden, klare Vorteile gegenüber klassischen Computertechnologien bieten. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/Degrad-EL3-Q.html

FRHY: Im H2Giga-Projekt »Referenzfabrik für hochratenfähige Elektrolyseur-Produktion« (FRHY) bildet ein Forschungsteam vom Kompetenzzentrum DigITools am Fraunhofer IPA die einzelnen Produktionsmodule der Referenzfabrik als Digitale Zwillinge ab und vernetzt sie virtuell zu einer kompletten Produktionslinie. Dazu baut es eine standortübergreifende, serviceorientierte Produktions-IT-Plattform auf. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/FRHY.html

IREKA: Im Forschungsprojekt »Iridium-reduzierte Anodenkatalysatoren für die PEM-Wasserelektrolyse« (IREKA) verfolgt ein Forschungsteam von der Abteilung Galvanotechnik am Fraunhofer IPA und vom Leibniz-Institut für Katalyse das Ziel, den Bedarf des seltenen Elements Iridium für PEM-Elektrolyseure zu reduzieren. Dazu untersucht es drei mögliche Ansätze. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/IREKA.html

ReNaRe: Im H2Giga-Projekt »Recycling – Nachhaltige Ressourcennutzung« (ReNaRe) arbeitet ein Forschungsteam von der Abteilung Roboter- und Assistenzsysteme am Fraunhofer IPA an der automatisierten Demontage von Elektrolyseuren. Dazu werden erhältliche Systeme erfasst und die Anforderungen hinsichtlich modularer Roboterwerkzeuge und notwendiger KI-Algorithmen für die Roboterprogrammierung definiert. Ein Digitaler Zwilling flankiert die Demontage, um die einzelnen Schritte virtuell zu optimieren. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/ReNaRe.html

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Friedrich-Wilhelm Speckmann | Telefon +49 711 970-3690 | friedrich-wilhelm.speckmann@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de

(nach oben)


Bergische Uni untersucht Ausdauer und Leistungsfähigkeit beim Tragen von FFP2-Masken

Marylen Reschop Pressestelle
Bergische Universität Wuppertal
Welcher Maskentyp bietet einen optimalen Schutz, aber auch guten Tragekomfort? Da OP- oder anderweitige Gesichtsmasken Gesicht und Atemstrom nicht ausreichend abdichten, wurden in den letzten Wochen immer häufiger FFP-Atemschutzmasken vorgeschrieben. Im Labor für Bewegungs- und Trainingswissenschaft haben Experten der Bergischen Universität in einem studentischen Projekt den Einfluss dieser Atemschutzmasken auf Herz-Kreislauf, Atmung und Stoffwechsel sowie auf psychologische Parameter untersucht. 12 Männer im Alter von 24 ± 2 Jahren absolvierten im Abstand von sieben Tagen auf einem Fahrradergometer zwei Ausbelastungstest mit Atem-Gasanalyse sowohl mit als auch ohne FFP-Atemschutzmaske.

Obwohl während dem Testverfahren hohe Atemleistungen erforderlich waren, hatte das Tragen der Atemschutzmaske keinen Einfluss auf die Ausdauerleistungsfähigkeit. Auch Herzfrequenz und weitere medizinische Parameter zeigten keine bedeutsamen Unterschiede, obwohl der Atemwiderstand mit Maske signifikant zugenommen und die forcierte Ausatmung signifikant abgenommen hat.

Es zeigten sich keine Einschränkung der körperlichen Ausdauerleistungsfähigkeit – trotz des durch den höheren Atemwiderstand subjektiv unangenehmen Empfindens beim Tragen der Maske.

Die Ergebnisse deuten darauf hin, dass durch das Tragen von FFP-Atemschutzmasken im Arbeitsalltag und der Schule keine körperlichen Leistungsminderungen zu erwarten sind. Das oft postulierte Argument, beim Tragen von Atemmasken erfolge eine Rückatmung von Kohlenstoffdioxid, konnte durch die Studie an der Bergischen Universität nicht bestätigt werden. Ob diese Ergebnisse auch für die geistige Fähigkeiten – etwa kognitive Leistungs- oder Konzentrationsfähigkeit gelten – ist weiteren Untersuchungen vorbehalten.

Gesunde Menschen können den durch die Atemmaske erhöhten Atemwiderstand problemlos kompensieren, die Atemmuskulatur erfährt einen zusätzlichen Trainingsreiz, was bei Herz-Kreislaufpatienten und bei eingeschränkter Lungenfunktionsfähigkeit berücksichtigt werden muss.

Bislang wenig beachtet ist die Arbeitsschutz-Empfehlung der Deutschen Gesetzlichen Unfallversicherung von 75 Minuten als maximale Tragedauer, was knapp einer Doppelstunde im Schulunterricht entspricht. Bei Umsetzung dieser Empfehlung müssten Schulkinder und Arbeitnehmer mit mehreren Masken pro Tag ausgerüstet sein.

Den Gesamttext und die Studienergebnisse finden Interessierte in dieser Pressemeldung: https://www.uni-wuppertal.de/de/news/detail/bergische-universitaet-untersucht-au…

Wissenschaftliche Ansprechpartner:
Dipl.-Sporting. Dr. Christian Baumgart
E-Mail: baumgart@uni-wuppertal.de

Prof. Dr. Jürgen Freiwald
E-Mail: freiwald@uni-wuppertal.de

Weitere Informationen:
https://www.uni-wuppertal.de/de/news/detail/bergische-universitaet-untersucht-au… – Link zur Pressemeldung inkl. der Langfassung

(nach oben)


Covid-19-bedingte Fehlzeiten erreichten im November 2021 vorläufigen Höchststand

Peter Willenborg Presse & Kommunikation
Wissenschaftliches Institut der AOK
Berlin. Eine aktuelle Auswertung des Wissenschaftlichen Instituts der AOK (WIdO) zeigt, dass im Pandemie-Zeitraum von März 2020 bis November 2021 von den 13,4 Millionen bei der AOK versicherten Erwerbstätigen knapp 700.000 Beschäftigte mindestens eine Krankschreibung aufgrund einer Covid-19-Diagnose erhielten. Damit sind in den ersten 21 Monaten seit Beginn der Pandemie 5,1 Prozent der AOK-Mitglieder im Zusammenhang mit Covid-19 krankheitsbedingt an ihrem Arbeitsplatz ausgefallen.

Die besondere Dynamik des Covid-19-Geschehens in der vierten Welle wird im November 2021 deutlich: Mehr als 20 Prozent aller bisher von Covid-19 betroffenen AOK-Mitglieder (142.786 Beschäftigte) haben eine Arbeitsunfähigkeit allein in diesem Monat erhalten. „Es ist zu erwarten, dass die Fehlzeiten im November 2021 nur einen vorläufigen Höchststand erreicht haben. Mit der zunehmenden Verbreitung der Omikron-Variante in Deutschland wird es eine Herausforderung sein zu gewährleisten, dass die Beschäftigten gerade in der kritischen Infrastruktur weiterhin gesund und arbeitsfähig bleiben“, so Helmut Schröder, stellvertretender Geschäftsführer des WIdO.

Vor allem Beschäftigte in den Branchen Erziehung und Altenpflege waren von Krankschreibungen im Zusammenhang mit Covid-19 betroffen: So gab es im bisherigen Verlauf der Pandemie 8.141 Krankschreibungen je 100.000 AOK-Mitglieder in den Berufen der Erziehung, Sozialarbeit und Heilerziehungspflege und 7.515 Krankschreibungen je 100.000 AOK-Mitglieder in der Altenpflege. Aber auch Berufe in der „nicht-ärztlichen Therapie und Heilkunde“, zu denen beispielsweise Physio- oder Ergotherapeuten gehören (7.438 je 100.000 AOK-Mitglieder), in Arzt- und Praxishilfe (7.323 je 100.000 AOK-Mitglieder) sowie in Gesundheits- und Kranken-pflege, Rettungsdienst und Geburtshilfe (7.248 je 100.000 AOK-Mitglieder) hatten auffallend hohe Fehlzeiten im Zusammenhang mit Covid-19. Die niedrigsten Covid-19-bedingten Fehlzeiten wiesen dagegen die Berufe in der Landwirtschaft (1.270 je 100.000 AOK-Mitglieder), der Gastronomie (2.184 je 100.000 AOK-Mitglieder) und der Hotellerie (2.641 je 100.000 AOK-Mitglieder) auf.

Bei 65 Prozent der betroffenen Beschäftigten wurde der gesicherte Nachweis der Infektion auf der Arbeitsunfähigkeitsbescheinigung dokumentiert (ICD-10 GM: U07.1!). Bei den übrigen Fällen ist SARS-CoV-2 nicht durch einen Labortest nachgewiesen worden, sondern aufgrund eines klinischen Kriteriums (zum Beispiel typische Symptome für Covid-19) und eines epidemiologischen Kriteriums (zum Beispiel enger Kontakt zu einer Person mit bestätigter Infektion) als Verdachtsfall dokumentiert (ICD-10 GM: U07.2!).

Im Durchschnitt waren 5.144 je 100.000 AOK-Mitglieder im Zusammenhang mit Covid-19 mindestens einmal im gesamten Pandemiezeitraum krankgeschrieben.

Die isolierte Betrachtung des Monats November 2021 macht eine Verschiebung bei den betroffenen Berufsgruppen deutlich: In den „Top 20“ finden sich nun nicht nur die Berufe der Erziehung und der Altenpflege, sondern auch Beschäftigte aus den Berufen der Fahrzeug-, Luft-, Raumfahrt- und Schiffbautechnik (1.561 Erkrankte je 100.000 AOK-Mitglieder), der Metallverarbeitung (1.546 Erkrankte je 100.000 AOK-Mitglieder) sowie aus Maschinenbau und Betriebstechnik (1.522 Erkrankte je 100.000 AOK-Mitglieder). Auch Berufe der Ver- und Entsorgung sind mit 1.303 Erkrankten je 100.000 AOK-Mitglieder relativ stark betroffen. „Die Daten aus dem November 2021 zeigen, dass infolge der aktuellen Omikron-Welle eine flächendeckende Betroffenheit in einer Vielzahl von verschiedenen Berufsgruppen zu erwarten ist. Auch in den technischen Berufen sind die Fehlzeiten stark angestiegen. Es sind gemeinsame Anstrengungen notwendig, damit die Beschäftigten gerade auch in diesen Teilen der kritischen Infrastruktur weiterhin gesund und arbeitsfähig bleiben“, so Helmut Schröder.

Vorläufiger Höhepunkt der Covid19-bedingten Krankmeldungen im November 2021
Der wellenartige Verlauf der Prävalenz von Covid-19-Infektionen in der Bevölkerung spiegelt sich auch in den krankheitsbedingten Fehlzeiten der AOK-versicherten Beschäftigten wider. Im April 2020 gab es mit 281 Erkrankten je 100.000 AOK-Mitglieder einen ersten Höhepunkt der Krankschreibungen aufgrund einer im Labor bestätigten Covid-19-Diagnose (ICD U07.1). Im Dezember 2020 erreichte die Anzahl der Erkrankten – nach einem deutlichen Rückgang im Sommer 2020 – den Spitzenwert in der zweiten Welle mit 486 je 100.000 AOK-Mitglieder. In der dritten Pandemiewelle lag der Spitzenwert im April 2021 mit 467 Erkrankten je 100.000 Beschäftigten. Ihren vorläufigen Höhepunkt erreichte die Covid-19-Pandemie im November 2021 (918 Erkrankte je 100.000 Beschäftigte). „Die Befürchtung, dass die Omikron-Variante auch Auswirkungen auf die Covid-19-bedingten Fehlzeiten bei Beschäftigten in der kritischen Infrastruktur haben wird, ist angesichts des zuletzt sehr deutlichen Anstiegs der Fehlzeiten in den relevanten Berufsgruppen durchaus berechtigt,“ so die Einschätzung von WIdO-Geschäftsführer Helmut Schröder.

Weitere Informationen:
https://wido.de

(nach oben)


Bestätigt: Wird Klärschlamm auf Äcker gegeben, kann Mikroplastik tief in den Boden und auf angrenzende Felder geraten

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Dass Klärschlamm aus städtischen Anlagen einen hohen Anteil an Mikroplastik enthält, konnte schon in früheren Studien gezeigt werden. Der Verdacht lag nahe, dass die Nutzung solcher Schlämme zur Düngung von Feldern auch den unkontrollierten Eintrag von Mikroplastik in die weitere Umwelt fördern könnte. Nun bestätigen Studien im Rahmen des BMBF-Projektes MicroCatch_Balt diese Annahme.

Als Mikroplastik werden Kunststoff-Partikel bezeichnet, die kleiner als 5 mm sind. Mittlerweile findet die Wissenschaft sie überall auf der Welt, auch an solch abgeschiedenen Orten wie Arktis und Antarktis. Im Vergleich zu dieser Omnipräsenz ist der Kenntnisstand zu den Quellen dieser Belastung gering. Aber nur, wenn die Quellen bekannt sind, kann effizient gegen den Eintrag von MP in der Umwelt vorgegangen werden. In den letzten Jahren wurden daher überall auf der Welt Forschungsanstrengungen unternommen, um die Wissenslücken zu schließen.

Als eine mögliche Quelle stehen seit geraumer Zeit Klärschlämme im Visier. Sie enthalten häufig große Mengen an Mikroplastik und werden in einigen Ländern als Dünger in der Landwirtschaft genutzt. Umweltforscher:innen vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW), dem Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei in Braunschweig sowie dem Leibniz-Institut für Polymerforschung Dresden untersuchten an einem Testfeld der Landwirtschaftlichen Untersuchungs- und Forschungsanstalt Speyer, das seit den 1980er Jahren regelmäßig mit Klärschlamm gedüngt wurde, wie die MP-Belastung im Pflug-Bereich, in dem darunterliegenden Boden und im benachbarten, unbehandelten Feld aussah. Ihre Ergebnisse stellte das Autorenteam um Alexander Tagg (IOW) nun in der internationalen Fachzeitschrift Science of the total environment vor.

„Auf dem Testfeld fanden wir erwartungsgemäß relativ viele Mikroplastik-Partikel. Aber auf dem unbehandelten Acker in der Nachbarschaft wurden wir ebenfalls fündig. Die Menge entsprach 44 % dessen, was wir im Oberflächenbereich des Testfeldes gefunden haben“, berichtet Alexander Tagg. Dieser Befund alleine hätte für den Nachweis einer Verbindung noch nicht gereicht. „Das Polymer-Spektrum des Mikroplastiks zeigt aber an beiden Orten ein fast identisches Profil. Unserer Meinung nach lässt sich das nur mit dem Transport aus dem Testfeld erklären.“

Darüber hinaus wurde in dem mit Klärschlamm behandelten Boden des Testfeldes Mikroplastik bis in einer Tiefe von 60-90 cm nachgewiesen, was darauf hindeutet, dass MP auch tief genug eindringen kann, um landwirtschaftliche Entwässerungssysteme zu erreichen. Allerdings waren die MP-Mengen in der Tiefe nur sehr gering (1,6 % der Oberflächenbelastung) und die kontrollierte langjährige und intensive Behandlung des untersuchten Testfeldes mit Klärschlamm lag weit über dem, was im Rahmen der Klärschlammverordnung in der Landwirtschaft zulässig ist.

„Es sind nicht die aktuellen Mengen an Mikroplastik, die uns Sorgen machen, sondern der Umstand, dass diese Kunststoffe immer wieder in die Umwelt gelangen und dort persistent sind. Sie werden nicht mehr verschwinden und sich immer weiter anreichern, wenn wir die Quellen nicht schließen“, kommentiert Matthias Labrenz, Leiter des BMBF geförderten Projektes MicroCatch_Balt (Untersuchung der Mikroplastik-Senken und -Quellen von einem typischen Einzugsgebiet bis in die offene Ostsee) die Werte. Und er kommt zu dem Schluss: „Die Ausbringung von kommunalem Klärschlamm auf landwirtschaftlichen Flächen kann zu weiteren unkontrollierten Verunreinigungen führen.“ Klärschlamm ist jedoch nur eine von vielen Quellen von Mikroplastik. Um seine Bedeutung im Vergleich mit anderen bekannten Einträgen, z.B. durch Reifenabrieb oder Ablagerung von Staub aus der Luft einordnen zu können, ist weitere Forschung dringend notwendig.

Wissenschaftliche Ansprechpartner:
Dr. Alexander Tagg | Tel.: 0381 5197 315 | alexander.tagg@io-warnemuende.de
Sektion Biologische Meereskunde, Leibniz-Institut für Ostseeforschung Warnemünde

Prof. Dr. Matthias Labrenz | Tel.: 0381 5197 378 | matthias.labrenz@io-warnemuende.de, Sektion Biologische Meereskunde, Leibniz-Institut für Ostseeforschung Warnemünde

Originalpublikation:
Tagg, A. S., E. Brandes, F. Fischer, D. Fischer, J. Brandt and M. Labrenz (2022). Agricultural application of microplastic-rich sewage sludge leads to further uncontrolled contamination. Sci. Total Environ.: 150611, doi: https://doi.org/10.1016/j.scitotenv.2021.150611

(nach oben)


Online-Studie: Was bedeutende Lebensereignisse bewirken

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Keine anderen Lebensphase ist so sehr von Umbrüchen geprägt wie das junge Erwachsenenalter. Wie stellen sich junge Menschen bedeutende Lebensereignisse vor? Wie erleben sie diese Ereignisse wirklich, und welchen Einfluss haben sie auf das Wohlbefinden? Das will ein Team der Psychologie der Ruhr-Universität Bochum (RUB) wissen. Die Forschenden um Peter Hähner und Prof. Dr. Maike Luhmann laden Menschen dieser Altersgruppe daher zu einer Online-Umfrage ein. Alle Infos gibt es online: http://www.hype-studie.de/.

Auswirkungen auf Wohlbefinden und Persönlichkeit
Die Studie namens HYPE, kurz für hypothetische und erlebte Ereignisse, umfasst drei einzelne Befragungen über insgesamt neun Monate. „Mit der Studie wollen wir einen genaueren Einblick in die Wahrnehmung von bedeutenden Lebensereignissen erhalten“, erklärt Peter Hähner. „Außerdem wollen wir untersuchen, wie sich junge Erwachsene bedeutende Lebensereignisse vorstellen und unter welchen Umständen es möglicherweise zu Abweichungen zwischen unserer Erwartung an Lebensereignisse und dem tatsächlichen Erleben dieser Ereignisse kommt.“ Die Erkenntnisse sollen dazu beitragen, die Auswirkungen von Lebensereignissen auf das Wohlbefinden und die Persönlichkeit im jungen Erwachsenenalter besser zu verstehen.

Teilnehmen können alle bis etwa 35 Jahre. Die erste Befragung startet gleich nach der Anmeldung und dauert etwa 30 Minuten. Teilnehmende werden dann per Mail zur zweiten und dritten Befragung eingeladen, die nach sechs und neun Monaten stattfinden. Diese Befragungen dauern etwa 15 bis 25 Minuten. Wer mitmacht, kann Informationen über sein Persönlichkeitsprofil erhalten und an Verlosungen für Gutscheine im Gesamtwert von 700 Euro teilnehmen.

Wissenschaftliche Ansprechpartner:
Peter Hähner
Psychologische Methodenlehre
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 27986
E-Mail: peter.haehner@rub.de

Weitere Informationen:
http://www.hype-studie.de/

(nach oben)


Klimawandel und Waldbrände könnten Ozonloch vergrößern

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.
Leipzig. Rauch aus Waldbränden könnte den Ozonabbau in den oberen Schichten der Atmosphäre verstärken und so das Ozonloch über der Arktis zusätzlich vergrößern. Das geht aus Daten der internationalen MOSAiC-Expedition hervor, die 2019/20 die Region um dem Nordpol untersucht hatte. Ein Zusammenhang zwischen ungewöhnlich hohen Temperaturen, starken Dürren und zunehmenden Waldbränden mit viel Rauch in der unteren Stratosphäre und starkem Ozonabbau über den Polarregionen sei wahrscheinlich.

Sollte sich diese Annahme bestätigen, dann werde die Debatte zu den Folgen des Klimawandels um einen neuen Aspekt erweitert, schreibt ein internationales Forschungsteam unter Leitung des Leibniz-Instituts für Troposphärenforschung (TROPOS) im Fachjournal Atmospheric Chemistry and Physics (ACP).

Als Ursache für die jüngsten Rekordtiefstwerte an Ozon über der Arktis galten bisher Veränderungen in den vorherrschenden Windsystemen, die zu niedrigeren Temperaturen im Polarwirbel führen, einem Tiefdruckgebiet in der arktischen Stratosphäre in 15 bis 50 Kilometern Höhe. Mit dem Rauch aus Waldbränden in den borealen Nadelwäldern kommt durch die neue Hypothese jetzt noch ein weiterer Faktor des Klimawandels hinzu, der über komplexe Rückkopplungsmechanismen auch Gesundheitsauswirkungen in den angrenzenden Regionen Europas, Nordamerikas und Asiens haben könnte.

Basis für die neue Hypothese sind umfangreiche Auswertungen von Messungen zu Aerosolen an verschiedenen Orten: Eine zentrale Rolle spielten die Messungen während der internationalen MOSAiC-Expedition, als der deutsche Eisbrecher Polarstern von Herbst 2019 an ein Jahr lang durch das Eis des Arktischen Ozeans am Nordpol driftete. Teil der größten Polarexpedition der Geschichte mit über 80 Forschungsinstituten aus über 20 Nationen unter Leitung des Alfred-Wegener-Instituts, dem Helmholtz-Zentrum für Polar- und Meeresforschung, (AWI) waren auch umfangreiche Untersuchungen der Atmosphäre. Dabei entstand erstmals ein zusammenhängender, vertikal aufgelöster Blick auf die Aerosole und Wolken in der zentralen Arktis während des Winterhalbjahres bis in 30 km Höhe. Dafür hatte ein Mehrwellenlängen-Lidar des TROPOS die Luftschichten von Bord des Forschungseisbrechers aus ausgemessen. In 369 Tagen gingen dabei 640 Millionen Laserpulse in den Himmel und es kamen 112 Gigabyte Daten zusammen. Die Daten aus der zentralen Arktis um den Nordpol wurden ergänzt durch Lidar-Daten vom Koldewey Aerosol Raman Lidar (KARL) des AWI in Ny-Ålesund auf Spitzbergen sowie des Erdbeobachtungssatelliten CALIPSO von NASA und CNES.

Wo kommt der Rauch über dem Nordpol her?
Die Atmosphäre über dem Nordpol galt lange als sehr sauber, weil die Region nördlich des Polarkreises nur dünn besiedelt ist. Die Überwinterung des Forschungseisbrechers Polarstern 2019/20 ermöglichte erstmals Einblick in eine Welt, die der Forschung bisher unzugänglich war und auch die Atmosphärenforschung überraschte: „Vom ersten Tag der MOSAiC-Messungen Ende September 2019 an beobachteten wir eine auffällige Aerosolschicht mit einem breiten Maximum in etwa 10 km Höhe, direkt über der lokalen Tropopause. Nach unseren Raman-Lidar-Beobachtungen wies die Schicht klare Signaturen von Waldbrandrauch bis in etwa 12-13 km Höhe auf. Ein Vergleich mit kontinuierlichen Lidar-Messungen in Leipzig und Ny-Ålesund zeigte, dass bereits seit August 2019 viele Partikel in dieser Höhe schwebten, die nicht allein durch den Ausbruch des Vulkans Raikoke im Pazifik im Sommer 2019 zu erklären waren“, berichtet Dr. Ronny Engelmann, der als erster von fünf TROPOS-Forschenden die Lidarmessungen auf der Polarstern betreut hat. Rauchpartikel reflektieren das Laserlicht des Lidars anders als Partikel aus Vulkanausbrüchen. Analysen der Luftströmung mittels sogenannter Rückwärtstrajektorien deuteten auf die außergewöhnlich starken und lang anhaltenden Waldbrände in Mittel- und Ostsibirien im Juli und August 2019. Zu dieser Zeit brannten große Wälder am Baikalsee in einem Gebiet von etwa 1000 km × 2000 km. Auswertungen von Satellitenaufnahmen zeigten später, dass die Feuersaison 2019 in Sibirien zu den stärksten der letzten zwei Jahrzehnte gehörte.
Die Waldbrände im Sommer in Sibirien sorgten also dafür, dass die Aerosolkonzentration in der unteren Stratosphäre der zentralen Arktis im Winterhalbjahr um das Zehnfache erhöht war. Die genauen Auswirkungen der Rauchpartikel in der Stratosphäre auf das Klimasystem sind noch weitgehend unerforscht. Einerseits könnten sich Strahlungsflüsse verändern, andererseits könnten die Aerosole als Eisnukleationskeime dienen und dadurch Zirruswolken bilden.

Wie gelangen die Rauchpartikel bis in Höhen von 10 km, der typischen Reisehöhe von Interkontinentalflügen?
Aus wärmeren Regionen sind sogenannte Feuerwolken (Pyrocumulus, kurz: PyroCb) bekannt, bei denen die Hitze durch das Feuer am Boden so stark ist, dass die Luft wie in einem Fahrstuhl nach oben transportiert wird und dabei den Rauch bis in die Stratosphäre trägt. Bei den katastrophalen Bränden in Australien 2019 oder an der Westküste Nordamerikas 2020 wurden diese „Fahrstuhlwolken“ ebenfalls beobachtet. Im Sommer 2019 entwickelten sich jedoch keine kräftigen Gewitter über den Brandgebieten in Sibirien. „Wir vermuten daher, dass sich die dunklen, kohlenstoffhaltigen Rauchpartikel durch das Sonnenlicht so stark erwärmten, dass ihre Umgebungsluft langsam aufstieg. Dies ist die einzige plausible Erklärung für einen effizienten vertikalen Transport über mehrere Kilometer“, erklärt Kevin Ohneiser vom TROPOS, der in seiner Doktorarbeit den Einfluss von Waldbränden auf die Atmosphäre untersucht. „Über sogenannte Selbstauftriebsprozesse wurde mehrfach nach großen Waldbränden berichtet – allerdings nur für Rauchschichten in der Stratosphäre, also oberhalb von ca. 10 km Höhe. Nach unserem besten Wissen gibt es in der Literatur keinen Bericht über Selbstauftriebsprozesse in der Troposphäre, also unterhalb von 10 km Höhe. Ruhige Wetterbedingungen ohne starke Winde könnten eine der wichtigsten Voraussetzungen für dieses Phänomen in der Troposphäre sein, welches wir wahrscheinlich zum allerersten Mal registriert haben, wenn sich unsere Beobachtungen bestätigen sollten.“

Was hat der Rauch mit dem Ozonloch zu tun?
Bereits bekannt ist, dass ein kräftiger, lang anhaltender Polarwirbel für starken Ozonabbau sorgt: Der Polarwirbel ist ein großes Tiefdruckgebiet in der Stratosphäre in Höhen von 15 bis 50 km, das für sehr tiefe Temperaturen sorgt. Bei Temperaturen unter -78°C bilden sich polare Stratosphärenwolken (PSC) mit Eiskristallen, an deren Oberfläche chemische Reaktionen ablaufen, bei denen Chlorverbindungen entstehen, die zusammen mit Brom bei Sonneneinstrahlung Ozon abbauen. Auch an der Oberfläche von Sulfatpartikeln können solche Reaktionen ablaufen. Sie können bei Vulkanausbrüchen entstehen, die Schwefeldioxid bis in die Stratosphäre transportieren: Bereits Anfang der 1990er Jahre konnte ein Ozonverlust von bis zu 30 Prozent über Mitteleuropa während des ersten Winters nach dem großen Vulkanausbruch des Pinatubo nachgewiesen werden.
Der starke, kalte und anhaltende Polarwirbel prägte während der MOSAiC-Expedition die Atmosphäre der Arktis ab 15 km Höhe über der Polarstern von Januar bis April 2020. Der arktische Frühling 2020 zeichnete sich durch sehr kalte Temperaturen und den stärksten arktischen Polarwirbel der letzten 40 Jahre aus, der in der unteren Stratosphäre zu Rekordwerten bei den polaren Stratosphärenwolken und einem extremen Ozonabbau führte: Eine Auswertung von Ozonsonden vom März/April 2020 aus verschiedenen Teilen der Arktis hatte einen extremen Rückgang in 18 km Höhe ergeben. Ohne das Montrealer Protokoll hätten die bereits extremen Ozonverluste in der Arktis 2020 wahrscheinlich ein noch deutlich größeres Ozonloch wie in der Antarktis hervorgerufen, so Simulationen anderer Forscher, die zeitgleich im Fachjournal ACP erschienen sind.
Die regelmäßig durchgeführten Ozonprofilmessungen zeigten nicht nur eine Schicht mit extrem niedriger Ozonkonzentration in 15 bis 20 km Höhe an, sondern auch deutlich unterdurchschnittliche Ozonwerte in Höhen von 10 bis 15 km. „Wir stellen einen klaren Zusammenhang zwischen dem Auftreten von Waldbrandrauch im untersten Bereich der Stratosphäre und dem anomal starken Ozonabbau fest“, betont Dr. Albert Ansmann vom TROPOS..
Die jetzt veröffentlichen Daten der MOSAiC-Expedition zeigen, dass sich Rauch in der Atmosphäre der Polargebiete lange halten kann und bereits kleine Mengen das empfindliche System stören können. Menschliche Aktivitäten können auch in großer Entfernung einen massiven Einfluss auf die oberen Schichten der Atmosphäre und damit das Klima in der Arktis haben. Die Ergebnisse sind von besonderer Bedeutung, weil Waldbrände zunehmend als Klimarisiko begriffen werden: Der neueste Bericht des Weltklimarates IPCC hat im August 2021 festgestellt, dass Wetterbedingungen, die Waldbrände begünstigen, im letzten Jahrhundert wahrscheinlicher geworden sind und rechnet damit, dass die Häufigkeit von Bränden mit der globalen Erwärmung weiter zunehmen wird. Tilo Arnhold

Publikationen:
Ohneiser, K., Ansmann, A., Chudnovsky, A., Engelmann, R., Ritter, C., Veselovskii, I., Baars, H., Gebauer, H., Griesche, H., Radenz, M., Hofer, J., Althausen, D., Dahlke, S., and Maturilli, M.: The unexpected smoke layer in the High Arctic winter stratosphere during MOSAiC 2019–2020 , Atmos. Chem. Phys., 21, 15783–15808, https://doi.org/10.5194/acp-21-15783-2021, 2021. <Published: 22 Oct 2021>

Engelmann, R., Ansmann, A., Ohneiser, K., Griesche, H., Radenz, M., Hofer, J., Althausen, D., Dahlke, S., Maturilli, M., Veselovskii, I., Jimenez, C., Wiesen, R., Baars, H., Bühl, J., Gebauer, H., Haarig, M., Seifert, P., Wandinger, U., and Macke, A.: Wildfire smoke, Arctic haze, and aerosol effects on mixed-phase and cirrus clouds over the North Pole region during MOSAiC: an introduction, Atmos. Chem. Phys., 21, 13397–13423, https://doi.org/10.5194/acp-21-13397-2021, 2021. <Published: 09 Sep 2021>

Die Daten wurden im Rahmen des internationalen Expedition MOSAiC (Multidisciplinary drifting Observatory for the Study of the Arctic Climate erstellt (#MOSAiC20192020 & #AWI_PS122_00). Die Studien wurde gefördert durch die Europäischen Union (Horizon 2020 (#H2020-INFRAIA-2014-2015) & ACTRIS-2 Integrating Activities (#654109) und die Deutsche Forschungsgemeinschaft (DFG) im Rahmen des Transregio-Sonderforschungsbereichs „ArctiC Amplification: Climate Relevant Atmospheric and SurfaCe Processes, and Feedback Mechanisms (AC)3“ (#268020496 – TRR 172). Die Entwicklung des Lidar-Inversionsalgorithmus zur Analyse der Polly-Daten wurde von der Russischen Wissenschaftsstiftung unterstützt (#16-17-10241).

Kontakte für die Medien:
Dr. Albert Ansmann
Leiter der Arbeitsgruppe Bodengebundene Fernerkundung, Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717-7064
https://www.tropos.de/institut/ueber-uns/mitarbeitende/albert-ansmann
und
Kevin Ohneiser
Doktorand, Arbeitsgruppe Bodengebundene Fernerkundung, Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717-7413
https://www.tropos.de/institut/ueber-uns/mitarbeitende/kevin-ohneiser
und
Dr. Ronny Engelmann/ Hannes Griesche/ Martin Radenz/ Dr. Julian Hofer/ Dr. Dietrich Althausen
TROPOS-Lidar-Team der MOSAiC-Expedition, Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717-7315, -7401, -7369, -7336, -7063
https://www.tropos.de/institut/ueber-uns/mitarbeitende/ronny-engelmann
https://mosaic-expedition.org/profile/hannes-griesche/
https://dacapo.tropos.de/index.php/team/9-tropos/3-martin-radenz
https://www.tropos.de/institut/ueber-uns/mitarbeitende/julian-hofer
https://www.tropos.de/institut/ueber-uns/mitarbeitende/dietrich-althausen
oder
Tilo Arnhold, TROPOS-Öffentlichkeitsarbeit
Tel. +49 341 2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/

Weitere Informationen und Links:
Einmaliger Blick in die „neue Arktis“: Internationale MOSAiC-Expedition erfolgreich beendet (Pressemitteilung, 12.10.2020):
https://www.tropos.de/aktuelles/pressemitteilungen/details/einmaliger-blick-in-d…

Leipziger Beteiligung an MOSAiC
https://www.tropos.de/mosaic/

MOSAiC-Expedition (auf Englisch)
https://www.mosaic-expedition.org/
MOSAiC-Expedition (auf Deutsch)
https://www.awi.de/im-fokus/mosaic-expedition.html

DFG-Transregio 172 „Arktische Klimaveränderungen“ (auf Englisch)
http://www.ac3-tr.de/
DFG-Transregio 172 „Arktische Klimaveränderungen“ (auf Deutsch)
http://www.ac3-tr.de/wp-content/uploads/2016/06/flyer_de_web.pdf

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 97 selbständige Forschungseinrichtungen verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen.
Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit.
Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.500 Personen, darunter 11.500 Wissenschaftlerinnen und Wissenschaftler.
Der Gesamtetat der Institute liegt bei 2 Milliarden Euro. Finanziert werden sie von Bund und Ländern gemeinsam. Die Grundfinanzierung des Leibniz-Instituts für Troposphärenforschung (TROPOS) wird vom Bundesministerium für Bildung und Forschung (BMBF) und dem Sächsischen Staatsministerium für Wissenschaft und Kunst (SMWK) getragen. Das Institut wird mitfinanziert aus Steuermitteln auf Grundlage des vom Sächsischen Landtag beschlossenen Haushaltes.
http://www.leibniz-gemeinschaft.de
https://www.bmbf.de/
https://www.smwk.sachsen.de/

Weitere Informationen:
https://www.tropos.de/aktuelles/pressemitteilungen/details/klimawandel-und-waldb…

(nach oben)


Antikörper nach SARS-CoV-2-Infektion – neue Erkenntnisse über die Sensitivität und Nachweisdauer von Antikörpertests

Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Das Paul-Ehrlich-Institut hat in Zusammenarbeit mit der Universität Frankfurt am Main die Langzeit-Antikörperreaktion nach SARS-CoV-2-Infektion bei 828 Personen mit verschiedenen COVID-19-Schweregraden untersucht. Gemessen wurden bindende Antikörper gegen unterschiedliche SARS-CoV-2-Zielantigene, neutralisierende Antikörper und die Stärke der Antikörperbindung (Antikörperavidität). Sensitivität, Kinetik und Dauer des Antikörpernachweises waren abhängig von detektierter Antikörperklasse, Testdesign, Zielantigen des Anti-SARS-CoV-2-Antikörpertests sowie von Antikörperavidität und COVID-19-Schweregrad. Über die Ergebnisse berichtet das Journal of Clinical Virology, Onlineausgabe vom 4.12.2021.

Durch Nachweis virusspezifischer Antikörper mittels Antikörpertests kann eine akute oder frühere SARS-CoV-2-Infektion diagnostiziert werden, wobei akute Infektionen bekanntlich symptomfrei oder mit Krankheitszeichen (COVID-19) verlaufen können. Antikörpertests auf SARS-CoV-2 können Personen identifizieren, die einige Zeit zuvor mit SARS-CoV-2 infiziert waren und so dazu beitragen, das Ausmaß der SARS-CoV-2-Infektionen in der Bevölkerung zu erkennen und die Dunkelziffer nicht erkannter Infektionen abzuschätzen.

Die Interpretation von SARS-CoV-2-Antikörpertestergebnissen ist jedoch schwierig, da zum einen die Testergebnisse von Person zu Person sehr unterschiedlich ausfallen können. Zudem variieren die SARS-CoV-2-Antikörpertestergebnisse auch methodisch stark. Unklar ist bisher außerdem, wie lange nach einer Infektion spezifische Antikörper noch nachweisbar sind. Daher erfordert der Einsatz von Antikörpertests gegen SARS-CoV-2 ein eingehendes Verständnis der Variabilitäten der Testsensitivität sowie der Zeitabhängigkeit und Dauer des Antikörpernachweises. Dies war der Gegenstand der vorliegenden Untersuchung.

Das In-vitro-Diagnostika(IVD)-Prüflabor des Paul-Ehrlich-Instituts unter Leitung von Dr. Heinrich Scheiblauer hat in Kooperation mit dem Universitätsklinikum Frankfurt am Main die Antikörperreaktionen über einen Zeitraum von mehr als 430 Tagen nach SARS-CoV-2-Infektion bestimmt. Dabei wurden 828 Proben von 390 Patientinnen und Patienten mit unterschiedlichen COVID-19-Schweregraden in zwölf verschiedenen Tests untersucht. Erfasst und gemessen wurden verschiedene Antikörperklassen (Gesamtantikörper, IgG, IgA, IgM), unterschiedliche SARS-CoV-2-Zielantigene (Rezeptorbindungs-domäne (RBD), Spike- (S) und Nukleoprotein (N)), neutralisierende Antikörper und die Bindungsstärke von Antikörpern an Antigen (Antikörperavidität). Die Testspezifität wurde an 676 präpandemischen Proben bestimmt.

Die Ergebnisse zeigen, dass die Sensitivität und Nachweisdauer von Anti-SARS-CoV-2-Antikörpertests ein bestimmtes Muster zeigen. Dieses war abhängig vom Testdesign, dem Zielantigen der Tests, der Antikörperbindungsstärke und dem Schweregrad von COVID-19 im betrachteten Zeitraum. Ein charakteristisches Merkmal bei den meisten Patientinnen und Patienten war eine mit der Zeit zunehmende Antikörperbindungsstärke (Antikörperavidität) für die immunogenen SARS-CoV-2-Antigene RBD und Spikeprotein. Die Avidität ist ein Korrelat (Maß) für die Antikörperreifung und die Bildung eines Immungedächtnisses. Gesamtantikörpertests, die aufgrund ihres Testdesigns eine höhere Antikörperbindungsstärke messen können, und die auf RBD oder Spikeprotein basieren, zeigten daher mit zunehmender Antikörperavidität eine hohe Sensitivität und lange Nachweiszeit. Antikörper konnten dabei über mehr als 430 Tage nach der Infektion nachgewiesen werden, ohne dass ein Endpunkt absehbar war. Surrogat-Virusneutralisierungstests zur Bestimmung neutralisierender Antikörper, die die Bindung von RBD (das auch in den bisher zugelassenen Impfstoffen verwendet wird) an die ACE2-Rezeptoren inhibieren, zeigten ebenfalls eine lange Nachweisdauer neutralisierender Antikörpern über 430 Tage.

Im Vergleich dazu zeigten RBD- oder Spike-basierte Antikörpertests, die jeweils nur die Antikörperklassen IgG, IgA und IgM nachweisen, eine geringere Ausgangssensitivität und im Laufe der Zeit abnehmende Antikörpertiter, obwohl IgG- und IgA-Tests bis 430 Tage eine relativ hohe Sensitivität (Testpositivität) beibehielten.

Nukleoprotein-basierte Tests zeigten demgegenüber bereits nach 120 Tagen einen Abfall der Antikörperspiegel, was bei den N-basierten IgG- und IgM-Tests auch zu einem Verlust der Sensitivität führte. Es zeigte sich, dass dies mit einer entsprechenden Abnahme der Avidität für das nicht immunogene Nukleoprotein zusammenhing.

Die Spezifität der Antikörpertests war dabei mit Ausnahme von IgA-Antikörpertests (96 %) für alle Tests mit >99 % hoch und es gab keine Kreuzreaktivität mit endemischen humanen Coronaviren.

Diese Daten können einen Beitrag dazu leisten, die Antikörpertests gezielter einzusetzen und SARS-CoV-2-Antikörperbefunde in der täglichen diagnostischen Arbeit richtig zu interpretieren. Darüber hinaus können sie helfen, die Dauer eines möglichen Immunschutzes gegen SARS-CoV-2 zu bestimmen.

Originalpublikation:
Scheiblauer S, Nübling CM, Wolf T, Khodamoradi Y, Bellinghausen C, Sonntagbauer M, Esser-Nobis K, Filomena A, Mahler V, Maier TJ, Stephan C (2022): Antibody response to SARS-CoV-2 for more than one year − kinetics and persistence of detection are predominantly determined by avidity progression and test design.
J Clin Virol 146: 105052.
DOI: https://doi.org/10.1016/j.jcv.2021.105052

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S138665322100319X?via%3Dihub – Open Access Zugang zu der Publikation
https://www.pei.de/DE/newsroom/pm/jahr/2022/03-antikoerper-sars-cov-2-infektion-… – Diese Pressemitteilung auf den Seiten des Paul-Ehrlich-Instituts

(nach oben)


GBP-Monitor: Fast zwei Drittel der Unternehmen plant Preiserhöhungen – und 3G am Arbeitsplatz ist sehr umstritten

Linda Schädler Abteilung Kommunikation
Universität Mannheim
Mit der sich nähernden Omikron-Welle wachsen die Sorgen der Unternehmen wieder: Ihre Gewinne brechen ein, in den Krisenbranchen befürchtet jedes vierte Unternehmen, aufgeben zu müssen. 65 Prozent der befragten Unternehmen versuchen, ihre Verluste durch höhere Preise auszugleichen, und sorgen damit für noch höhere Inflation. Das belegt der Januar-Bericht des German Business Panel (GBP). Dieser zeigt auch, dass die Meinungen der Unternehmen über die 3G-Regel am Arbeitsplatz deutschlandweit beträchtlich auseinandergehen.

Noch im Oktober 2021 schien der langanhaltende Rückgang der Unternehmensgewinne während der Pandemie zunächst beendet. Nur zwei Monate später schwächte sich die Wachstumdynamik deutlich ab: Angesichts der vierten Coronawelle, anhaltender Lieferengpässe und der politischen Forderungen nach weiteren Lockdowns rutschten die Unternehmensgewinne deutlich ab und erreichten im Dezember 2021 sogar einen niedrigeren Stand als im ersten Jahr der Pandemie (-3,42 Prozent im Vergleich zum Vorjahresmonat).

Die erhobenen Daten belegen, dass für viele Unternehmen die Lage existenzbedrohend ist. Die erwartete Ausfallwahrscheinlichkeit – also das Risiko einer möglichen Geschäftsaufgabe – wuchs zum dritten Mal in Folge. „Besonders kritisch ist die Lage in den schon 2020 stark gebeutelten Krisenbranchen wie Gastronomie, Tourismus oder Unterhaltung. Diese leiden unter dem sanften Lockdown mit Maßnahmen wie 2G-Plus noch mehr als im Vorjahr“, berichtet Prof. Dr. Jannis Bischof, Inhaber des Lehrstuhls für ABWL und Unternehmensrechnung an der Universität Mannheim und wissenschaftlicher Projektleiter des GBP. In diesen Branchen stieg die Ausfallwahrscheinlichkeit auf 22,5 Prozent (plus 2,0 Punkte). Die Entwicklung ist jedoch nicht einheitlich und in anderen Branchen bleibt die Stimmung optimistisch. Das Baugewerbe oder das verarbeitende Gewerbe blieben zum Beispiel von solchen Bedrohungen weitgehend unberührt.

Die Unternehmenslenker gaben an, die rückläufige Entwicklung teilweise durch Preiserhöhungen wettmachen zu wollen: Fast zwei Drittel von ihnen (64,9 Prozent) plant, im neuen Jahr von Kunden und Lieferanten höhere Preise zu verlangen. „Insbesondere im Einzelhandel und in der Industrie wollen Unternehmen ihre Preise heben und damit gestiegene Kosten in der Beschaffung ausgleichen. Energieträger wie Öl, aber auch beispielsweise Holz verteuerten sich in den letzten Monaten massiv. Diese Inflation reichen die Unternehmen nun weiter“, berichtet Dr. Davud Rostam-Afschar, der akademische Leiter des GBP.

Zufriedenheit mit der 3G-Regel am Arbeitsplatz
Thema der aktuellen Umfrage war auch die neue 3G-Regel am Arbeitsplatz und die daraus resultierenden finanziellen Belastungen. Hier sind die Meinungen sehr gespalten: Während mehr als 40 Prozent der befragten Unternehmen die neue Vorschrift für sehr positiv halten, lehnt ein beträchtlicher Anteil (15 Prozent) die 3G-Regel vollständig ab. Dazu gehören vor allem kleine und durch die notwendigen Kontrollen auch finanziell belastete Unternehmen.

Auffällig ist der überdurchschnittlich hohe Anteil an Unternehmen des Baugewerbes und des Handels, welche die 3G-Regel als sehr negativ betrachten. Hotels, Restaurants und Eventfirmen zeigen sich dagegen überdurchschnittlich zufrieden damit. Diese Regel scheint für sie eine akzeptable Lösung zur Vermeidung eines erneuten Lockdowns zu sein.

Bemerkenswert scheint zudem, dass die Vorschrift vor allem in den Bundesländern schlecht ankommt, die im Dezember die höchsten Inzidenzen aufwiesen – also im Osten Deutschlands, wo die Ablehnung bei bis zu 51 Prozent liegt, wie in Thüringen. „Gerade dort, wo die 3G-Regel Mitarbeitende und Betriebe im besonderen Maße schützen soll, kommt sie auffallend schlecht an. Es entsteht die Wahrnehmung, als wälze die Politik die Verantwortung für die Impfung auf die Unternehmen ab. Dadurch kommt es zu einem Akzeptanzproblem“, konstatiert Bischof.

Weitere Informationen zum GBP-Monitor
Das German Business Panel befragt monatlich mehr als 800 Unternehmen zur Unternehmenslage in Deutschland und erhebt dabei Daten zu 1) erwarteten Umsatz-, Gewinn- und Investitionsänderungen, 2) unternehmerischen Entscheidungen, 3) der erwarteten Ausfallwahrscheinlichkeit in der Branche und 4) der Zufriedenheit mit der Wirtschafspolitik. Zudem wird jeden Monat zu besonders aktuellen Fragen berichtet. In diesem Monat haben wir gefragt wie Unternehmen die 3G-Regel bewerten und inwiefern sie durch die Verpflichtung finanziell belastet werden.

Hintergrundinformationen zum German Business Panel
Das German Business Panel ist ein langfristiges Befragungspanel des DFG-geförderten überregionalen Projektes „Accounting for Transparency“ (www.accounting-for-transparency.de).

Der Sonderforschungsbereich (SFB) „TRR 266 Accounting for Transparency“ startete im Juli 2019 und wird von der Deutschen Forschungsgemeinschaft (DFG) für zunächst vier Jahre gefördert. Er ist der erste SFB mit betriebswirtschaftlichem Schwerpunkt. Am SFB sind rund 80 Wissenschaftlerinnen und Wissenschaftler von neun Universitäten beteiligt: Universität Paderborn (Sprecherhochschule), Humboldt-Universität zu Berlin und Universität Mannheim, zudem Forscherinnen und Forscher von der Ludwig-Maximilians-Universität München sowie der ESMT Berlin, Frankfurt School of Finance & Management, Goethe-Universität Frankfurt am Main, WHU – Otto Beisheim School of Management, und Carl von Ossietzky Universität Oldenburg. Die Forscherinnen und Forscher untersuchen, wie Rechnungswesen und Besteuerung die Transparenz von Unternehmen beeinflussen und wie sich Regulierungen und Unternehmenstransparenz auf Wirtschaft und Gesellschaft auswirken. Das Fördervolumen des SFBs beträgt rund 12 Millionen Euro.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jannis Bischof
Lehrstuhl für ABWL und Unternehmensrechnung
Universität Mannheim
Tel: +49 621 181-1630
E-Mail: jbischof@uni-mannheim.de

Yvonne Kaul
Forschungskommunikation
Universität Mannheim
Tel: +49 621 181-1266
E-Mail: kaul@uni-mannheim.de

Weitere Informationen:
http://Den „GBP-Monitor: Unternehmenstrends im Januar 2022“ finden Sie hier: https://www.accounting-for-transparency.de/wp-content/uploads/2022/01/gbp_monito…

(nach oben)


Mit Remote Attestation gegen Hacker: Schutz für sicherheitskritische Systeme

Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Vertrauen ist die Basis jeder guten Zusammenarbeit. Das gilt auch für vernetzte Maschinen wie Airbags oder medizinische Apparate. Professor Lucas Davi und sein Team vom Softwaretechnik-Institut paluno an der Universität Duisburg-Essen (UDE) haben eine Lösung entwickelt, um die Integrität von eingebetteten Geräten zu prüfen, ohne ihr Laufzeitverhalten zu beeinträchtigen.

Eingebettete Systeme sind in einen größeren technischen Kontext integriert und übernehmen dort – meist unbemerkt vom Nutzer – Steuerungs-, Regelungs- und Datenverarbeitungsaufgaben. Sie arbeiten oft in Netzwerken mit zahlreichen anderen Systemen, z.B. in Autos, Flugzeugen, Haushaltsgeräten und medizinischen Geräten.
„Obwohl eingebettete Systeme in vielen kritischen Bereichen eingesetzt werden, sind sie bezüglich ihrer IT-Sicherheit selten auf dem aktuellsten Stand der Technik“, sagt Professor Davi. „Das liegt unter anderem an den Echtzeitanforderungen, die sie erfüllen müssen.“ Echtzeit bedeutet, dass ein System seine Aufgabe innerhalb einer festgelegten Zeit abarbeiten muss. Sie garantiert, dass z.B. eine Airbag-Steuerung bei einem Crash exakt zum richtigen Zeitpunkt auslöst. „Diese strengen Zeitvorgaben machen es schwierig, Sicherheitsmechanismen in die Software zu integrieren, weil sie das Laufzeitverhalten der Systeme beeinflussen könnten.“

Mit dem Framework RealSWATT hat das paluno-Team von Professor Davi eine Lösung entwickelt. Sie basiert auf der Technik der Remote Attestation. Bei dieser Methode kann die Vertrauenswürdigkeit eines Geräts aus der Ferne, d.h. vor einer Vernetzung, geprüft werden: Ein Prüfer sendet dem Gerät eine Anfrage, die eine Messung des Softwarezustands veranlasst. Liefert die Messung einen unerwarteten Wert zurück, kann das ein Hinweis für einen Schadcode sein, und eine Vernetzung wird vermieden. Im Gegensatz zu anderen Remote-Attestation-Ansätzen benötigt die Lösung der UDE-Sicherheitsforscher dafür keine Hardware-Erweiterungen oder spezielle Sicherheitschips. Sie kann deshalb auf handelsüblichen eingebetteten Geräten eingesetzt werden. Die Attestierung läuft kontinuierlich im Hintergrund auf einem sonst ungenutzten Prozessorkern.

Anhand einer Infusionspumpe wurde RealSWATT eingehend evaluiert. Manipulationen durch einen simulierten Hackerangriff wurden zuverlässig erkannt, und der Echtzeitbetrieb wurde in keiner Weise gestört. Das zeigten auch Tests mit kommerziellen Smart-Home-Geräten. „Eingebettete Systeme sind oft viele Jahre im Betrieb, und Hackerangriffe können fatale Konsequenzen haben.“ Professor Davi ist sich sicher: „RealSWATT ist ein praktikabler Ansatz, um mit einfachen Mitteln die Sicherheit zu verbessern.“

Das paluno-Team hat über RealSWATT publiziert. Der Aufsatz „Remote Software-based Attestation for Embedded Devices under Realtime Constraints“ und eine kurze Präsentation stehen hier zur Verfügung: https://dl.acm.org/doi/10.1145/3460120.3484788

Weitere Informationen und Redaktion:
Birgit Kremer, paluno, Tel. 0201/18 3-4655, birgit.kremer@paluno.uni-due.de

Wissenschaftliche Ansprechpartner:
Birgit Kremer, paluno, Tel. 0201/18 3-4655, birgit.kremer@paluno.uni-due.de

Originalpublikation:
https://dl.acm.org/doi/10.1145/3460120.3484788

(nach oben)


Psychische Gesundheit in der Arbeitswelt stärken

SRH Hochschule für Gesundheit Marketing / PR
SRH Hochschule für Gesundheit
Prof. Dr. Sabine Rehmer startet mit Unterstützung der Deutschen Gesetzlichen Unfallversicherung e.V. (DGUV) zum 01.01.2022 ein Forschungsprojekt zur psychosozialen Notfallversorgung in Unternehmen.

„Es gibt viele Faktoren, die die psychische Gesundheit am Arbeitsplatz beeinflussen. Gerade in Folge von plötzlich auftretenden Notfallsituationen wie Unfällen oder anderen unerwarteten Extremsituationen kann die psychische Stabilität der Betroffenen gefährdet sein. In diesem Fall ist es ratsam, seitens der Unternehmen eine psychosoziale Notfallversorgung anzubieten“, erläutert Prof. Dr. Sabine Rehmer, Studiengangsleiterin und Professorin im Master-Studiengang Arbeits- und Organisationspsychologie. Sie leitet das 39-monatige Forschungsprojekt „Psychosoziale Notfallversorgung in Unternehmen – eine Ist-Analyse zur betrieblichen Umsetzung in Deutschland“ an der SRH Hochschule für Gesundheit.

Aktuell ist es auf Grundlage der wissenschaftlichen Literatur und des bisherigen Erkenntnisstands nicht möglich, eine fundierte Aussage über die von den Unternehmen gewählten Modelle und Vorgehensweisen bei der psychosozialen Notfallversorgung (PSNV) ihrer Beschäftigten zu treffen. Genau hier setzt das Forschungsprojekt an. Mit einem Team von 5 wissenschaftlichen Mitarbeiter:innen führt Prof. Dr. Sabine Rehmer eine Bestandsaufnahme zur Psychosozialen Notfallversorgung in Unternehmen als Querschnittsuntersuchung mit verschiedenen qualitativen und quantitativen Befragungen durch. Fokussiert werden unterschiedliche Zielgruppen wie Unternehmen/Betriebe, Unfallversicherungsträger, ehrenamtliche PSNV-Teams sowie externe Dienstleister:innen. Mit den Befragungen sollen zum einen betriebliche Umsetzungen der psychosozialen Betreuung nach plötzlich auftretenden Notfallsituationen erfasst und beschrieben werden, zum anderen auch betriebliche Faktoren und Maßnahmen, die diese positiv oder negativ beeinflussen.

Das Forschungsprojekt wird von der Forschungsförderung der Deutschen Gesetzlichen Unfallversicherung e.V. (DGUV) unterstützt. Assoziierter Partner für das Forschungsprojekt ist das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK), Abteilung I – Krisenmanagement, Referat I.3 – Psychosoziales Krisenmanagement (PsychKM). Wissenschaftlicher Kooperationspartner ist die Ludwig-Maximilians-Universität (LMU) München in Vertretung durch Prof. Dr. Thomas Ehring, Geschäftsführender Direktor, Department Psychologie & Lehrstuhl für Klinische Psychologie und Psychotherapie. Weiterführend wird das Projekt von Vertreter:innen der DGUV, Praxivertreter:innen für den Bereich PSNV und der Fachgruppe Notfallpsychologie des BDP im Forschungsbegleitkreis unterstützt.

Prof. Dr. habil. Claudia Luck-Sikorski, Präsidentin der SRH Hochschule für Gesundheit, freut sich über das neue Projekt: „Was unsere Hochschule auszeichnet, ist eine vielseitige Forschungslandschaft. Praktische Probleme werden in der Lehre auf Grundlage der aktuellen Erkenntnisse analysiert und gelöst. Gleichzeitig treten wir mit unserer Forschung auch unmittelbar für eine gesündere Gesellschaft ein. Im Zuge einer stärkeren Fokussierung auf die psychische Gesundheit in der Arbeitswelt wollen wir mit unserem neuen Projekt einen Beitrag dazu leisten, dass Unternehmen ihre Beschäftigten in Notfallsituationen optimal unterstützen.“

Mehr zur Forschung an der SRH Hochschule für Gesundheit erfahren Interessierte unter www.srh-gesundheitshochschule.de/forschung/

Wissenschaftliche Ansprechpartner:
https://www.srh-gesundheitshochschule.de/unsere-hochschule/hochschulteam/sabine-…

(nach oben)


Bodenversalzung gefährdet unsere Umwelt: Klimawandel verschärft das Problem der Bodendegradation

Franziska Trede Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Etwa 16 Prozent aller landwirtschaftlichen Flächen weltweit werden künstlich bewässert und stark gedüngt. Wenn dieses Wasser verdunstet, reichern sich in den oberen Bodenschichten Salze an. In der Folge droht der Boden zu versalzen und unfruchtbar zu werden. Mit der Zunahme von extremen Wetterereignissen wie Sommerhitze und Starkregen wird dieser Prozess noch verstärkt.

Durch die Kombination einer umfassenden Reihe von Klima-, Boden- und Fernerkundungsdaten sowie Algorithmen des maschinellen Lernens ist es Professor Nima Shokri vom Institut für Geoinformatik der Technischen Universität Hamburg gelungen, erstmals eine Vorhersage über die Zukunft der Bodenversalzung auf globaler Ebene bis zum Jahr 2100 unter verschiedenen Klimaszenarien zu erstellen. Seine Ergebnisse wurden jetzt in der renommierten Fachzeitschrift Nature Communications veröffentlicht.

Analysen der Bodenversalzung auf globaler Ebene
Um Aussagen darüber treffen zu können, wie die Bodenversalzung künftig fortschreitet, verwendete Shokri mehr als 40.000 Messwerte des Bodensalzgehalts auf der ganzen Welt. Darüber hinaus ermittelten der Wissenschaftler und sein Team mehrere klimatische und bodenbezogene Parameter wie Niederschlag, Verdunstung und Bodenart, die den Salzgehalt des Bodens beeinflussen. Auf dieser Grundlage trainierten die TU-Forschenden Modelle mit Algorithmen des maschinellen Lernens, um eine Beziehung zwischen dem Salzgehalt und diesen Parametern herzustellen. Diese trainierten Modelle wurden verwendet, um die Bodenversalzung auf globaler Ebene bis zum Jahr 2100 unter verschiedenen Klimawandelszenarien vorherzusagen. „Mithilfe von Big-Data-Analysen und Algorithmen des maschinellen Lernens konnten wir den Salzgehalt des Bodens weltweit mit einer hohen räumlichen und zeitlichen Auflösung bestimmen“, so der Wissenschaftler. Laut Shokris Forschung könnten die Veränderungen bis zum Jahr 2100 unausweichlich sein, wenn wir nicht die notwendigen Maßnahmen ergreifen: „Ohne nachhaltiges Ressourcenmanagement und mit der Business-as-usual-Haltung gegenüber dem Klimawandel wären eine weitere Versalzung und Verschlechterung der Böden und ein möglicher ‚Kipppunkt‘, an dem das System zusammenbricht, unvermeidlich“.

Auch Apfelplantagen im Alten Land sind gefährdet
Die Versalzung der Böden könnte auch in Deutschland zu einem Problem werden, wenn auch aus ganz anderen Gründen als in den trockenen Gebieten. Der steigende Meeresspiegel wirkt sich auf die Küstenregionen aus. Wenn salzhaltiges Meerwasser eindringt und in Zukunft das Grundwasser erreicht, könnte es dieses verseuchen. Für Hamburg und Umgebung wären vielleicht die Apfelplantagen im Alten Land in Gefahr, wenn Landwirte ihre Bäume dann mit salzhaltigem Wasser bewässern.

Mehr Informationen:
https://www.tuhh.de/spektrum/2110/
https://www.nature.com/articles/s41467-021-26907-3

Originalpublikation:
https://www.nature.com/articles/s41467-021-26907-3

Weitere Informationen:
https://www.tuhh.de/spektrum/2110/

(nach oben)


Weltweit größtes Fischbrutgebiet in der Antarktis entdeckt

Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Forschende weisen etwa 60 Millionen Nester antarktischer Eisfische auf 240 Quadratkilometern im Weddellmeer nach

Nahe dem Filchner-Schelfeis im Süden des antarktischen Weddellmeers hat ein Forschungsteam das weltweit größte bislang bekannte Fischbrutgebiet gefunden. Ein Kamerasystem fotografierte und filmte tausende Nester von Eisfischen der Art Neopagetopsis ionah am Meeresboden. Die Dichte der Nester und die Größe des gesamten Brutgebiets lassen auf eine Gesamtzahl von etwa 60 Millionen Eisfischen schließen, die während der Untersuchungen dort nisteten. Dies unterstützt den Vorschlag, ein Meeresschutzgebiet im atlantischen Sektor des Südlichen Ozeans einzurichten. Ihre Ergebnisse veröffentlichen Autun Purser vom Alfred-Wegener-Institut und sein Team in der aktuellen Ausgabe der Fachzeitschrift Current Biology.

Die Freude war groß, als Forschende im Februar 2021 auf den Monitoren an Bord des Forschungsschiffs Polarstern unzählige Fischnester sahen, die ihr geschlepptes Kamerasystem vom Meeresboden in 535 bis 420 Metern Wassertiefe des antarktischen Weddellmeeres live an Bord übermittelte. Je länger der Einsatz dauerte, desto mehr wuchs die Begeisterung und endete schließlich in Ungläubigkeit: Nest reihte sich an Nest, und die spätere genaue Auswertung zeigte, dass es durchschnittlich eine Brutstätte pro drei Quadratmeter gab, maximal fand das Team sogar ein bis zwei aktive Nester pro Quadratmeter.

Die Kartierung des Gebietes lässt auf eine Gesamtausdehnung von 240 Quadratkilometern schließen, das entspricht ungefähr der Größe der Insel Malta. Hochgerechnet auf diese Gebietsgröße ergibt sich eine geschätzte Gesamtzahl von etwa 60 Millionen Fischnestern. „Die Vorstellung, dass ein solch riesiges Brutgebiet von Eisfischen im Weddellmeer bisher unentdeckt war, ist total faszinierend“, sagt Dr. Autun Purser, Tiefseebiologe am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) und Hauptautor der aktuellen Veröffentlichung. Schließlich erforscht das Alfred-Wegener-Institut mit seinem Eisbrecher Polarstern das Gebiet bereits seit Anfang der 1980er Jahre. Bislang konnten hier nur einzelne Neopagetopsis ionah oder kleinere Ansammlungen von deren Nestern nachgewiesen werden.

Die einzigartigen Beobachtungen gelangen mit einem sogenannten OFOBS. Die Abkürzung steht für Ocean Floor Observation and Bathymetry System, also Ozeanboden Beobachtungs- und Bathymetriesystem. Dieser Kameraschlitten wurde entwickelt, um den Meeresboden in Extremumgebungen wie eisbedeckten Regionen zu untersuchen. Dazu wird das System an einem speziellen Glasfaser- und Stromkabel normalerweise mit einer Geschwindigkeit von einem halben bis einem Knoten (0,9 bis 1,8 Stundenkilometer) etwa eineinhalb Meter über dem Meeresboden geschleppt. „Nach der spektakulären Entdeckung der vielen Fischnester haben wir uns an Bord eine Strategie überlegt, wie wir am besten herausfinden können, wie groß die Ausmaße des Brutgebiets sind – es war ja im wahrsten Wortsinn kein Ende abzusehen. Die Nester hatten einen Durchmesser von einem dreiviertel Meter – sind also viel größer als die teils nur zentimetergroßen Strukturen und Lebewesen, die wir normalerweise mit dem OFOBS aufspüren“, berichtet Autun Purser. „Deshalb konnten wir die Höhe über Grund auf etwa drei Meter und die Schleppgeschwindigkeit auf maximal drei Knoten heraufsetzen und so die untersuchte Fläche vervielfachen. Wir haben eine Fläche von 45.600 Quadratmetern abgefahren und dabei unfassbare 16.160 Fischnester auf dem Foto- und Videomaterial gezählt“, berichtet Autun Purser.

Anhand der Aufnahmen konnte das Team die runden, etwa 15 Zentimeter tiefen und 75 Zentimeter im Durchmesser großen Fischnester eindeutig identifizieren, die sich durch eine runde zentrale Fläche aus kleinen Steinen vom ansonsten schlammigen Meeresboden abhoben. Es wurde zwischen mehreren Arten von Fischnestern unterschieden: aktive Nester, in denen zwischen 1500 und 2500 Eier lagen und die in dreiviertel der Fälle ein erwachsenerer Eisfisch der Art Neopagetopsis ionah bewachte oder die unbewachte Eier enthielten; außerdem gab es ungenutzte Nester, in deren Nähe entweder nur ein Fisch ohne Eier zu sehen war oder ein toter Fisch. Die Verteilung und Dichte der Nester erfassten die Forschenden mithilfe der weiter reichenden aber weniger hochauflösenden Seiten-Sonare des OFOBS, die über 100.000 Nester aufzeichneten.

Kombiniert haben die Wissenschaftlerinnen und Wissenschaftler ihre Ergebnisse mit ozeanographischen und biologischen Daten. Ergebnis: Das Brutgebiet stimmt räumlich mit dem Einstrom von warmem Tiefenwasser aus dem Weddellmeer auf den höher gelegenen Schelf überein. Mithilfe besenderter Robben gelang es dem multidisziplinären Team außerdem nachzuweisen, dass die Region auch ein beliebtes Ziel von Weddellrobben ist. 90 Prozent der Robben-Tauchaktivitäten fanden in der Region aktiver Fischnester statt, wo sie vermutlich auf Nahrungssuche gingen. Kein Wunder, kalkulieren die Forschenden die Biomasse der Eisfischkolonie dort auf 60 Tausend Tonnen.

Dieses riesige Brutgebiet ist mit seiner Biomasse ein äußerst wichtiges Ökosystem für das Weddellmeer und nach aktuellem Stand der Forschung wahrscheinlich die räumlich umfangreichste zusammenhängende Fischbrutkolonie, die bisher weltweit entdeckt wurde, berichten die Experten in der Veröffentlichung in Current Biology.

Hierzu erklärt Bundesforschungsministerin Bettina Stark-Watzinger: „Ich gratuliere den beteiligten Forscherinnen und Forschern zu ihrem faszinierenden Fund. Die deutsche Meeres- und Polarforschung hat damit nach der MOSAIC-Expedition einmal mehr ihre herausragende Bedeutung unter Beweis gestellt. Die deutschen Forschungsschiffe sind schwimmende Labore der Umweltforschung. Sie sind in den Polargebieten und auf den Ozeanen fast pausenlos als Plattformen für die Wissenschaft unterwegs, um wichtige Erkenntnisse für den Umwelt- und Klimaschutz zu gewinnen. Durch die Förderung des Bundesforschungsministeriums verfügt die deutsche Meeres- und Polarforschung über eine der modernsten Forschungsflotten weltweit. Der Fund kann einen wichtigen Beitrag für die Umweltschutzaufgaben in der Antarktis leisten. Hierfür wird sich das BMBF auch im Rahmen der UN-Dekade der Ozeanforschung für nachhaltige Entwicklung, die noch bis 2030 läuft, weiter einsetzen.“

Für AWI-Direktorin und Tiefseebiologin Prof. Antje Boetius ist die aktuelle Studie ein Zeichen dafür, wie dringend die Einrichtung von Meeresschutzgebieten in der Antarktis ist. „Diese erstaunliche Entdeckung wurde durch eine spezielle Untersuchungstechnologie unter dem Eis ermöglicht, die wir im Rahmen meines ERC Forschungsprojektes entwickelt haben. Sie zeigt, wie wichtig es ist, unbekannte Ökosysteme untersuchen zu können, bevor wir sie stören. Wenn man bedenkt, wie wenig wir über das Leben im antarktischen Weddellmeer wissen, unterstreicht dies um so mehr die Notwendigkeit internationaler Bemühungen, ein Meeresschutzgebiet (MPA) einzurichten“, ordnet Antje Boetius die Ergebnisse der Studie ein, an der sie nicht direkt beteiligt war. Ein Vorschlag für ein MPA wurde unter der Leitung des Alfred-Wegener-Instituts erarbeitet und seit 2016 von der Europäischen Union und ihren Mitgliedsstaaten sowie weiteren unterstützenden Ländern in der internationalen Kommission zur Erhaltung der lebenden Meeresschätze der Antarktis (CCAMLR) vertreten.

Antje Boetius ergänzt: „Leider ist das MPA im Weddellmeer immer noch nicht einstimmig von der CCAMLR verabschiedet worden. Aber jetzt, da der Standort dieser außergewöhnlichen Brutkolonie bekannt ist, sollten Deutschland und andere CCAMLR-Mitglieder dafür sorgen, dass dort auch in Zukunft keine Fischerei und ausschließlich nicht-invasive Forschung stattfindet. Bisher haben die Abgeschiedenheit und die schwierigen Meereisbedingungen in diesem südlichsten Bereich des Weddellmeeres das Gebiet geschützt, aber angesichts des zunehmenden Drucks auf die Ozeane und die Polarregionen sollten wir beim Meeresschutz viel ehrgeiziger sein.“

Originalpublikation:
Autun Purser, Laura Hehemann, Lilian Boehringer, Sandra Tippenhauer, Mia Wege, Horst Bornemann, Santiago E. A. Pineda-Metz, Clara M. Flintrop, Florian Koch, Hartmut H. Hellmer, Patricia Burkhardt-Holm, Markus Janout, Ellen Werner, Barbara Glemser, Jenna Balaguer, Andreas Rogge, Moritz Holtappels, Frank Wenzhoefer: Icefish Metropole: Vast breeding colony discovered in the southern Weddell Sea, Current Biology (2022). DOI: 10.1016/j.cub.2021.12.022 (https://www.cell.com/current-biology/fulltext/S0960-9822(21)01698-5)

Weitere Infos:
Expeditionsbericht PS124 (2021): https://epic.awi.de/id/eprint/54545/1/BzPM_0755_2021.pdf
PS124 Wochenbericht: https://www.awi.de/expedition/schiffe/polarstern/wochenberichte-polarstern/woche…

Informationsmaterial zum Meeresschutzgebiet im Weddellmeer: https://www.awi.de/ueber-uns/service/presse/presse-detailansicht/default-11d138e…

Hinweise für Redaktionen:
Videomaterial vom Meeresboden sowie druckbare Bilder finden Sie hier: https://we.tl/t-77acNZ88J3
Ihr wissenschaftlicher Ansprechpartner ist Dr. Autun Purser, E-Mail: autun.purser@awi.de.
Ihre Ansprechpartnerin in der AWI-Pressestelle ist Dr. Folke Mehrtens, Tel. 0471 4831-2007 (E-Mail: medien@awi.de).

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Originalpublikation:
https://www.cell.com/current-biology/fulltext/S0960-9822(21)01698-5

(nach oben)


Coronapandemie dämpft Anstieg – Entwicklung der tariflichen Ausbildungsvergütungen 2021

Andreas Pieper Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Berufsbildung (BIBB)
Die tariflichen Ausbildungsvergütungen in Deutschland sind 2021 im Vergleich zum Vorjahr im bundesweiten Durchschnitt um 2,5 % gestiegen. Der Vergütungsanstieg lag damit in etwa auf dem Vorjahresniveau (2,6 %), fiel aber deutlich schwächer aus als in den Jahren vor Beginn der Coronapandemie.

Die Auszubildenden erhielten 2021 im Durchschnitt über alle Ausbildungsjahre tarifliche Vergütungen in Höhe von 987 € brutto im Monat. Für Auszubildende in Westdeutschland ergab sich mit 989 € ein leicht höherer Durchschnittswert als für ostdeutsche Auszubildende mit 965 €. In Ostdeutschland wurden somit 98 Prozent der westdeutschen Vergütungshöhe erreicht. Dies sind die zentralen Ergebnisse der Auswertung der tariflichen Ausbildungsvergütungen für das Jahr 2021 durch das Bundesinstitut für Berufsbildung (BIBB).

Seit 1976 wertet das BIBB die tariflichen Ausbildungsvergütungen jährlich zum Stichtag 1. Oktober aus. In die Berechnung der Durchschnittswerte für Gesamtdeutschland sowie für Ost- und Westdeutschland fließen alle Ausbildungsberufe ein, für die Daten zu tariflichen Ausbildungsvergütungen vorliegen. In der BIBB-Datenbank „Tarifliche Ausbildungsvergütungen“ (http://www.bibb.de/ausbildungsverguetung) werden Durchschnittswerte für 173 Berufe in West- und 115 Berufe in Ostdeutschland ausgewiesen.

Zwischen 2012 und 2019 waren mit Ausnahme des Jahres 2017 stets Anstiege von deutlich über drei Prozent zu verzeichnen. Während der Coronapandemie wurden Tarifverhandlungen teilweise verschoben. Häufig standen auch die Beschäftigungssicherung und die Abmilderung der Folgen der wirtschaftlichen Einschränkungen stärker im Blickpunkt als Lohnsteigerungen. Dies hatte eine dämpfende Wirkung auf die Höhe der Tarifabschlüsse. Zugleich kam es durch den Rückgang bei der Zahl der Neuabschlüsse von Ausbildungsverträgen 2020 zu Verschiebungen in der Zahl der Auszubildenden in den einzelnen Ausbildungsjahren sowie zwischen weniger und stärker von der Pandemie betroffenen Branchen. Bei der Durchschnittsberechnung über alle Ausbildungsjahre haben daher zum Beispiel Auszubildende im zweiten bis vierten Ausbildungsjahr ein höheres Gewicht als in den Vorjahren.

Je nach Ausbildungsberuf zeigen sich erhebliche Unterschiede in der Vergütungshöhe. Die im gesamtdeutschen Durchschnitt höchsten tariflichen Ausbildungsvergütungen wurden im Beruf Zimmerer/Zimmerin mit monatlich 1.251 € gezahlt. In insgesamt 17 Berufen lagen die tariflichen Vergütungen im Durchschnitt über alle Ausbildungsjahre über 1.100 €. Hier finden sich vor allem Berufe aus dem Baugewerbe wie Maurer/-in (1.196 €) oder Straßenbauer/ in (1.177 €), aber auch kaufmännische Berufe wie Bankkaufmann/-frau (1.138 €) oder Kaufmann/ frau für Versicherungen und Finanzen (1.135 €). Insgesamt erhielt rund die Hälfte der Auszubildenden, die in einem tarifgebundenen Betrieb lernten, 2021 eine Ausbildungsvergütung von mehr als 1.000 Euro, sieben Prozent sogar mehr als 1.200 €.

Bei 16 Prozent der Auszubildenden lagen die tariflichen Ausbildungsvergütungen 2021 unterhalb von 800 €. Für 22 Berufe wurde ein bundesweiter Durchschnittswert von weniger als 800 € ermittelt. Die meisten dieser Berufe gehörten zum Handwerk wie Tischler/-in (786 €), Glaser/-in (777 €), Bäcker/-in (744 €) und Friseur/-in (650 €). Die insgesamt niedrigsten tariflichen Ausbildungsvergütungen gab es mit 637 € im Beruf Orthopädieschuhmacher/-in.

Zwischen den Ausbildungsbereichen unterschieden sich die Ausbildungsvergütungen ebenfalls deutlich. Über dem gesamtdeutschen Durchschnitt von 987 € lagen die tariflichen Ausbildungsvergütungen im öffentlichen Dienst (1.095 €) sowie in Industrie und Handel (1.039 €), darunter in der Landwirtschaft (936 €), im Bereich der freien Berufe (911 €) und im Handwerk (882 €). Im Vergleich zum Jahr 2020 stiegen im Handwerk (+3,8 %) und in der Landwirtschaft (+4,2 %) die Ausbildungsvergütungen stärker an als im Gesamtdurchschnitt (+2,5 %).

Eine ausführliche Darstellung der Ergebnisse sowie die Möglichkeit zum Download von elf Abbildungen finden Sie im Beitrag „Tarifliche Ausbildungsvergütungen 2021 – Anstieg von 2,5 %“ im Internetangebot des BIBB unter http://www.bibb.de/ausbildungsverguetung-2021.
Eine tabellarische Gesamtübersicht über die für 2021 ermittelten Vergütungsdurchschnitte in den erfassten Berufen ist abrufbar unter http://www.bibb.de/ausbildungsverguetung.

(nach oben)


Ökologische Wasserreinigung in Aquakulturen – mit weniger Aufwand!

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Forschende des Instituts für Wasser- und Energiemanagement (iwe) der Hochschule Hof wollen den Arbeits- und Materialeinsatz unter anderem bei der Bewirtschaftung von Teichanlagen senken. Gelingen soll dies mit Hilfe biologisch abbaubarer, sogenannter „Aufwuchskörper“ zur Wasserreinigung. Diese könnten konventionelle Reinigungselemente aus Plastik schon bald ersetzen und somit auch Mikroplastik in Wasser und Fischen reduzieren. Das Forschungsprojekt dazu läuft seit April 2021.

Die Aquakultur gehört zu dem am schnellst wachsendem Lebensmittelsektor mit einer jährlichen Produktion im Wert von 250 Milliarden US-Dollar. Aufwuchskörper sind dabei nicht wegzudenken: Durch ihre große Oberfläche auf welcher Bakterien siedeln, helfen sie giftiges Ammonium und Nitrit in weniger schädliches Nitrat umzuwandeln. Gleichzeitig wird so Wasser gespart und die Umwelt geschützt. Doch bestehen Aufwuchskörper in der Regel aus Plastik oder anderen erdölbasierten Kunststoffen. „Ihr Recycling ist aufwändig und Plastik in den Weltmeeren und Gewässern stellt die Menschheit vor eine große Herausforderung – aus Plastik kann schließlich Mikroplastik entstehen, das wir über unser Essen selbst wieder zu uns nehmen und das in jedem Fall schädlich auf die Umwelt und ihre Organismen einwirkt“, erklärt Dr. Harvey Harbach, Verantwortlicher für den Forschungsbereich Aquaponik an der Hochschule Hof.

Biokunststoff statt Plastik
Generell gilt es deshalb Stoffe zu finden, welche konventionelles Plastik ersetzen können. Im Fall der Aufwuchskörper bietet sich als Werkstoff der Einsatz von Biokunststoff an. Ein Forscherteam des Instituts für Wasser- und Energiemanagement (iwe) der Hochschule Hof um Projektleiter und Ideengeber Dr. Harvey Harbach beschäftigt sich genau damit: In Zusammenarbeit mit dem ebenfalls an der Hochschule Hof ansässigen Institut für Biopolymerforschung (ibp) und einem Wirtschaftsunternehmen aus Franken werden seit Anfang April 2021 unter dem Projektnamen „BioBioCarrier“ vollständig biologisch abbaubare Aufwuchskörper für die biologische Wasseraufbereitung entwickelt. Gefördert wird das bis 2023 laufende Projekt durch das Bundesministerium für Wirtschaft und Energie im Rahmen des zentralen Innovationsprogrammes Mittelstand (ZIM).

Test verschiedener Materialien
„Die Schwierigkeiten im Projekt liegen bei der richtigen Auswahl der Biopolymere und der damit verbundenen Abbaubarkeit im Wasser. Der neue Aufwuchskörper darf sich nicht zu schnell im Süßwasser abbauen“, erklärt Projektmitarbeiterin Frau Christin Baumgart. Durch die Kombination von verschiedenen Polymeren miteinander sollen neue Eigenschaften generiert werden: „Das bedeutet, dass die biologische Abbaubarkeit in Wasser angepasst werden kann.“ Die bisherigen Ergebnisse sehen jedoch vielversprechend aus. Entsprechend konnten bereits Fortschritte erzielt und Lösungswege identifiziert werden. Bis zur Marktreife müssen jedoch noch einige Hürden genommen werden: “Bei der Auswahl der Stoffe wird darauf geachtet, dass diese nicht gesundheitsschädlich sind. Da die Anwendung in der Aquaponik stattfindet, müssen die Stoffe auch für die Fische und Pflanzen geeignet sein. Das bedeutet, dass hier ein großes Augenmerk auf die Unbedenklichkeit der Stoffe gelegt wird, alle biologisch abbaubar und sogar biobasiert sein sollten“. Ferner müsste „aber auch die biologische Abbaubarkeit noch ausführlich betrachtet werden, damit diese sich in dem vorgegebenen Zeitrahmen zersetzen.“

Neuentwicklung winkt
Eine entscheidende Herausforderung im Projekt, die aber einen Durchbruch innerhalb der betroffenen Industrie bedeuten könnte, könnte letztlich eine Neuentwicklung liefern, an der man derzeit in Hof arbeitet: „In aquaponischen Systemen müssen in regelmäßigen Abständen Nährstoffe zugegeben werden, ohne die Pflanzen nicht oder nur schlecht wachsen können. Unsere Idee ist es, den biologischen Abbau von des Produktes mit dem Freisetzen der für die Pflanzen benötigten Stoffe zu kombinieren. Dies würde folglich die Arbeitszeit reduzieren und die Wirtschaftlichkeit verbessern“, so Dr. Harbach. Und weiter: „Zurzeit sind keine vergleichbaren Produkte auf dem Markt. Hier würde es sich um eine echte Innovation handeln. Wir arbeiten auf Hochtouren und rechnen schon bald weiteren Ergebnissen“.

Wissenschaftliche Ansprechpartner:
Dr. Harvey Harbach
Institut für Wasser- und Energiemanagement (iwe)
Wissenschaftlicher Mitarbeiter
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
Fon: +49 (0) 9281 / 409 4591
E-Mail: harvey.harbach@hof-university.de

Anhang
Ökologische Wasserreinigung in Aquakulturen – mit weniger Aufwand!

(nach oben)


Mehr Regentage schaden der Wirtschaft

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Das Wirtschaftswachstum geht zurück, wenn die Zahl der Regentage und der Tage mit extremen Regenfällen zunimmt. Das hat jetzt ein Team Potsdamer Wissenschaftler herausgefunden. Am stärksten betroffen sind reiche Länder und hier die Sektoren Industrie und Dienstleistung, so die als Titelthema der renommierten wissenschaftlichen Zeitschrift ‚Nature‘ veröffentlichte Studie. Die Analyse von Daten aus den letzten 40 Jahren und von mehr 1.500 Regionen zeigt einen klaren Zusammenhang und legt nahe, dass infolge des Klimawandels verstärkte tägliche Regenfälle der Weltwirtschaft schaden werden.

„Hier geht es um unseren Wohlstand, und letztlich um Arbeitsplätze. Die Wirtschaft wird weltweit durch mehr Regentage und extreme tägliche Niederschläge gebremst – eine wichtige Erkenntnis, die zu unserem wachsenden Verständnis der wahren Kosten des Klimawandels beiträgt“, sagt Leonie Wenz vom Potsdam-Institut für Klimafolgenforschung (PIK) und dem Mercator Research Institute on Global Commons and Climate Change (MCC), die die Studie geleitet hat.

„Makroökonomische Abschätzungen der Klimafolgen haben sich bisher hauptsächlich auf die Temperatur konzentriert und – wenn überhaupt – Veränderungen der Niederschlagsmenge nur über längere Zeiträume wie Jahre oder Monate betrachtet, was leider ein unvollständiges Bild bot“, so Wenz. „Während mehr Jahresniederschlag im Allgemeinen gut für eine Volkswirtschaft sind, insbesondere wenn diese stark von der Landwirtschaft abhängt, ist eine entscheidende Frage auch, wie sich der Regen über die Tage des Jahres verteilt. Verstärkte extreme Regenfälle erweisen sich als schlecht, besonders für reiche Industrieländer wie die USA, Japan oder Deutschland.“

In ihrer Art erstmalige globale Analyse
„Wir haben eine Reihe verschiedener Effekte auf die wirtschaftliche Produktion ermittelt, aber der wichtigste ist der von extremen täglichen Regenfällen“, sagt Maximilian Kotz, Erstautor der Studie und ebenfalls Forscher am Potsdam-Institut. „Bei den Niederschlagsextremen können wir den Einfluss des Klimawandels schon jetzt am deutlichsten sehen. Sie nehmen fast überall auf der Welt zu.“

Die Forschenden haben ihre Ergebnisse gewonnen durch eine statistische Auswertung von Daten zur subnationalen Wirtschaftsleistung für 1.554 Regionen weltweit im Zeitraum 1979-2019, die von MCC und PIK gesammelt und öffentlich zugänglich gemacht wurden. Das Team hat diese dann verknüpft mit detaillierten Daten zu Niederschlägen. Die Kombination von immer genaueren Klima- und Wirtschaftsdaten ist mit Blick auf den Faktor Regen, der meist ein sehr lokales Phänomen ist, von besonderer Bedeutung.

„Es ist der tägliche Niederschlag, der die Bedrohung ausmacht“
Die Menschheit heizt das Erdsystem auf, indem sie immer mehr Treibhausgase etwa aus fossilen Kraftwerken und Autos in der Atmosphäre ablagert. Wärmere Luft kann mehr Wasserdampf aufnehmen, der irgendwann zu Regen wird. Interessanterweise ist die Veränderung des mittleren Niederschlags von Region zu Region unterschiedlich, die täglichen Regenextreme hingegen nehmen aufgrund des Wasserdampfeffekts auf der ganzen Welt zu.
„Unsere Studie zeigt, dass der Fingerabdruck der globalen Erwärmung in den täglichen Niederschlägen erhebliche wirtschaftliche Auswirkungen hat. Diese sind bisher nicht berücksichtigt worden, aber extrem wichtig“, sagt Ko-Autor Anders Levermann, Leiter des Bereichs Komplexitätsforschung des Potsdam-Instituts, Professor an der Universität Potsdam und Forscher am Lamont Doherty Earth Observatory der Columbia University, New York. „Ein genauerer Blick auf kurze Zeitskalen anstelle von Jahresdurchschnitten zeigt: Es ist der tägliche Regen, der die Bedrohung darstellt. Es sind die Klimaschocks durch Wetterextreme, die unsere Lebensweise bedrohen, nicht die allmählichen Veränderungen. Indem wir unser Klima destabilisieren, schaden wir unserer Wirtschaft. Wir müssen dringend dafür sorgen, dass das Verfeuern fossiler Brennstoffe nicht auch unsere Gesellschaft destabilisiert.“

Originalpublikation:
Maximilian Kotz, Anders Levermann, Leonie Wenz (2022): The effect of rainfall changes on economic production. Nature [DOI:10.1038/s41586-021-04283-8]

(nach oben)


Corona in wastewater at record high

Press contact: Margareta G. Kubista, press@sahlgrenska.gu.se Kommunikationsavdelningen / Communications Department
Schwedischer Forschungsrat – The Swedish Research Council
In a week, the levels of the coronavirus in Gothenburg’s wastewater have skyrocketed and increased by about 250% compared to the concentration from the previous weekly survey and the highest measured value so far during the pandemic. University of Gothenburg researchers also say the delta variant has been almost eliminated by omicron.

Two weeks ago, a sharp rise in SARS-CoV-2 was reported in the wastewater of Gothenburg. It was the biggest increase a single week since the second wave of the pandemic about a year ago.

By last week the rise, though still under way, had slowed slightly. The level was then approaching the second wave’s peak in December 2020.

The level now measured means that a far larger number of people than ever before during the pandemic have now, simultaneously, become infected. SARS-CoV-2 concentrations in the Gothenburg wastewater are now between three and four times higher than the previous week’s level and the earlier peak in December 2020.

Impact on health care in a week’s time
Heléne Norder is an adjunct professor of microbiology at the Sahlgrenska Academy Department of Infectious Diseases, University of Gothenburg, and microbiologist at Sahlgrenska University Hospital. The results she and her colleagues have now announced are based on samples taken in the week from January 3rd to 9th.

“There must be a large number of infected now. Hopefully most of them are vaccinated and their illness is mild. But still, a certain percentage of them will be causing a burden on health care. Based on what we’ve seen before, that’s going to happen in about a week,” she says.

The share of the omicron virus variant has successively risen during December and January, while the relative level of the delta variant has decreased. The current results show a massive predominance of omicron, as expected.

Five delta to 10,000 omicron
Measured in virus levels in the samples — rather than the number of infected people — the ratio of delta to omicron is 5:10,000.
“Delta isn’t completely gone. It’s still there, but it’s a tiny proportion,” Norder says.

The SARS-CoV-2 surveys in the local wastewater have been underway since February 2020. They are carried out in collaboration with the municipally owned company Gryaab, which treats wastewater in Gothenburg and the surrounding municipalities. Gryaab sends one sample a week, composed of samples collected daily, to Norder’s research group.

The researchers regularly report their findings to care providers and the Infection Control Unit in Region Västra Götaland. The same applies to the levels of influenza viruses, norovirus (the “winter vomiting bug”), and respiratory syncytial (RS) viruses. Figures for these other viruses ​​are reported later in the week.

Wissenschaftliche Ansprechpartner:
Contact: Heléne Norder, tel. 46 702 791 999, email helene.norder@gu.se

Weitere Informationen:
https://www.expertsvar.se/wp-content/uploads/2021/08/Helene-Norder-Portrait.png
http://Images: Heléne Norder (photo: Elin Lindström)

(nach oben)


Neue Abteilungen der Gewässerforschung am IGB

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Der Jahresbeginn 2022 markiert für das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) eine besondere Zäsur, denn es ist einiges in Bewegung geraten: Die Abteilungen wurden neu strukturiert und zwei exzellente Köpfe für die Leitung hinzugewonnen. Die Professorin Sonja Jähnig leitet von nun an die neue Abteilung Ökologie der Lebensgemeinschaften und Ökosysteme. Professor Jonathan Jeschke leitet die neue Abteilung Evolutionäre und Integrative Ökologie.

Zum Neuen Jahr präsentieren sich die Forschungsabteilungen des IGB in einer veränderten Zusammensetzung und mit neuen Namen. „Mit vielen neuen Köpfen sind in den letzten Jahren erfreulicherweise auch neue Ideen, Expertisen und thematische Schwerpunkte ans IGB gekommen. Denen wollen wir nun einen angemessenen Platz einräumen, wobei die fünf Abteilungen die wichtigsten übergreifenden Disziplinen repräsentieren, für die das IGB steht“, begründet Luc De Meester, der das IGB seit zwei Jahren leitet. Zwei Abteilungen sind neu entstanden, die Abteilung für Ökologie der Lebensgemeinschaften und Ökosysteme unter Führung von Sonja Jähnig sowie die Abteilung für Evolutionäre und Integrative Ökologie, die Jonathan Jeschke leitet.

Darüber hinaus wurden die ehemaligen Abteilungen für Ökohydrologie und Chemische Analytik und Biogeochemie unter dem Namen Ökohydrologie und Biogeochemie und unter Leitung von Dörthe Tetzlaff zusammengeführt. Aus den beiden bisherigen Abteilungen für Biologie und Ökologie der Fische sowie Ökophysiologie und Aquakultur ist die neue Abteilung Biologie der Fische, Fischerei und Aquakultur entstanden, geleitet von Jens Krause und Werner Kloas. Das integriert die IGB-Forschung zur Binnenfischerei und Aquakultur mit der Grundlagenforschung zur Biologie der Fische. Die Abteilung Experimentelle Limnologie, die in Neuglobsow angesiedelt ist und von Mark Gessner geleitet wird, heißt jetzt Plankton- und mikrobielle Ökologie, um ihren einzigartigen Beitrag zum Forschungsportfolio des IGB besser widerzuspiegeln.

„Die Umstrukturierung ist ein wichtiger interner Prozess, der gleichzeitig die Empfehlungen unseres Wissenschaftlichen Beirats aufgreift sowie unsere neue inhaltliche Aufstellung zum Ausdruck bringt“, erläutert De Meester. „Wir bringen verschiedene Disziplinen zusammen, um ein tieferes Verständnis von Binnengewässern und ihrer Biota in all ihren Aspekten zu erlangen – von ihren abiotischen Merkmalen bis zu ihrem einzigartigen Leben, von der Physiologie und dem Verhalten von Individuen bis zu ganzen Ökosystemen und ihrer Bedeutung für die Gesellschaft. Denn Teiche, Seen, Bäche, Flüsse, ihre Auen und Feuchtgebiete sind nicht nur lebenswichtige Ressourcen und einzigartige Lebensräume. Sie sind auch stark von menschlichen Aktivitäten, von Klima- und Umweltwandel betroffen. Um globalen Herausforderungen wie der Erderwärmung, Fragen der Wasserverfügbarkeit, der fortschreitenden Urbanisierung oder dem Verlust von Lebensräumen, Arten und Genen zu begegnen, möchten wir Politik und Gesellschaft auf Basis exzellenter wissenschaftlicher Erkenntnisse beraten und eine praxisnahe Anwendung unterstützen“, fasst er die Zielstellung des IGB zusammen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von sieben natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de
 
Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sonja Jähnig
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
sonja.jaehnig@igb-berlin.de

Prof. Dr. Jonathan Jeschke
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
jonathan.jeschke@igb-berlin.de

Weitere Informationen:
https://www.igb-berlin.de/news/wir-haben-das-grosse-bild-der-biologischen-vielfa…
https://www.igb-berlin.de/news/gute-wissenschaft-ist-meist-teamarbeit-bei-der-si…

(nach oben)


Arktische Küsten im Wandel

Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Permafrost-Forschende analysieren die Triebkräfte für die schnellen Veränderungen arktischer Küsten und die Auswirkungen für Mensch und Umwelt

Arktische Küsten zeichnen sich durch Meereis, Permafrost und Bodeneis aus. Das macht sie besonders empfindlich für die Auswirkungen des Klimawandels, der die ohnehin schon sehr schnelle Küstenerosion noch weiter beschleunigt. Die steigende Erwärmung beeinflusst Uferstabilität, Sedimente, Kohlenstoffspeicher und Nährstoffmobilisierung. Um Prognosen und Anpassungsstrategien für die arktischen Küsten zu verbessern, ist es unabdingbar, die Wechselwirkungen zwischen diesen Veränderungen zu verstehen. In einer Sonderausgabe des Fachmagazins Nature Reviews Earth & Environment beschreiben Forschende des Alfred-Wegener-Instituts die Empfindlichkeit der arktischen Küsten gegenüber dem Klimawandel und vor welchen Herausforderungen Mensch und Natur stehen.

„Das Tempo der Veränderungen in der Arktis nimmt zu und führt zu einem beschleunigten Rückzug der Küsten“, sagt Dr. Anna Irrgang vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). „Das wirkt sich sowohl auf die natürliche als auch auf die menschliche Umwelt aus, zum Beispiel indem Kohlenstoff aus dem Boden in das Meer und in die Atmosphäre gelangt oder das Land abbricht, das Gemeinden und Infrastrukturen trägt.“ Wie genau und wie stark sich die Veränderungen zeigen, hängt vom Zusammenspiel der lokalen Beschaffenheit der Küste ab, wie dem Vorhandensein von Permafrost und Umweltfaktoren wie Luft- und Wassertemperatur. „Prognosen hierüber sind häufig mit großen Unsicherheiten behaftet, denn zuverlässige ozeanographische und Umweltdaten für die entlegenen Küstenzonen sind nur begrenzt verfügbar“, so Irrgang. Um das Verständnis zu verbessern und damit auch die Vorhersagen über künftige Entwicklungen, hat die AWI-Permafrostforscherin in einem Übersichtsartikel die wichtigsten Faktoren zusammengetragen, die auf die arktischen Küsten einwirken und die für die Entwicklung von Anpassungsstrategien an den Klimawandel entlang arktischer Küsten wichtig sind.

Umweltfaktoren und lokale Bedingungen treiben den Küstenwandel an
Je nach Region besitzen arktische Küsten unterschiedliche Strukturen. In Alaska, Kanada oder Sibirien sind sie beispielsweise besonders reich an Bodeneis mit bis zu 40 Meter hohen Permafrost-Steilküsten. In Grönland, auf Spitzbergen und dem kanadischen Archipel enthalten die Küsten dagegen in der Regel nur sporadisch Bodeneis, bestehen ansonsten größtenteils aus grobem Sediment, das aus dem Schmelzwasser von Gletschern stammt, oder sogar aus Festgestein. Diese regionalen geomorphologischen Unterschiede beeinflussen, wie sich andere Umweltvariablen auf die Küsten auswirken. Verändern sich zum Beispiel die Luft- und Wassertemperatur, beeinflusst das das gesamte Küstensystem. Eisreiche Permafrost-Steilküsten, die teils bis zu 80 Prozent aus Eis bestehen, sind beispielsweise recht widerstandsfähig gegenüber mechanischen Wellenaktivitäten. Wenn sie jedoch wegen erhöhter Luft- und Wassertemperaturen auftauen, werden sie besonders anfällig für die Zerstörung durch Wellen, was sich durch schnellen Küstenabtrag äußert.

Arktische Küsten sind somit besonders klimaempfindlich: Die globale Erwärmung führt dazu, dass Permafrostböden immer großflächiger auftauen, Bodeneis schmilzt und dadurch Landoberflächen einbrechen. Das beeinflusst wiederum die Verfügbarkeit und Qualität von Wasser, das Wachstum von Pflanzen und verstärkt das Abtragen von Böden (Erosion) und Überschwemmungen an der Küste. Zusätzlich steigt in weiten Teilen der Arktis die Temperatur der Meeresoberfläche an, was die meereisfreie Zeit verlängern kann. Küsten sind dann vor allem in der stürmischen Herbstzeit deutlich länger starken Wellen ausgesetzt.

Veränderungen an der arktischen Küste
Vergleicht man die Veränderungsraten arktischer Küstenlinien miteinander, zeigt sich, dass die überwältigende Mehrheit der Permafrostküsten durch Erosion zurückgehen. Die nordkanadische Herschel-Insel etwa verliert pro Jahr bis zu 22 Meter seiner Steilküste. Taut Permafrost ab, können dadurch organischer Kohlenstoff, Nährstoffe und Schadstoffe in die küstennahe Umwelt und in die Atmosphäre entweichen. Die Fachleute schätzen, dass durch Küstenerosion jährlich etwa 14 Megatonnen organischen Kohlenstoff in den Arktischen Ozean gelangen, und damit mehr als von den riesigen arktischen Flüssen eingespült wird. Das Auftauen bisher fester Böden wirkt sich auch auf die Menschen vor Ort aus. Rund 4,3 Millionen von ihnen werden mit den Folgen konfrontiert sein: Sie verlieren Gebäude und Straßen, traditionelle Jagdgebiete und auch Kulturstätten. In Alaska müssen ganze Siedlungen bereits jetzt aufgegeben werden und Menschen umziehen. Denn die Erosion gefrorener Flächen erhöht die Risiken für Permafrosttauen und gegenwärtig unkalkulierbare Umweltverschmutzungen durch industrielle Infrastrukturen. Erst langfristig könnten sich neue Chancen durch die Veränderungen auftun, weil der Zugang zu Ressourcen in bisher nicht erreichbare Regionen, neue landwirtschaftliche Flächen und auch Schifffahrtsrouten für Handel und Tourismus erschlossen werden könnten.

Genaue Daten für gute Lebensbedingungen an arktischen Küsten
„Unser derzeitiges Verständnis der arktischen Küstendynamik ist fragmentiert, da es zu wenige Daten über Umweltfaktoren und die Veränderung der Küstenlinien mit hoher räumlicher und zeitlicher Auflösung gibt“, sagt Anna Irrgang. „Zwar gibt es solche Datensätze bereits für einige Regionen wie Nordalaska, der größte Teil der arktischen Küste ist aber nur unzureichend erfasst.“ Dabei werden arktisweite Beobachtungen von Umweltfaktoren und Küstenveränderungen dringend benötigt, um Unsicherheiten bei Prognosen zu verringern. Diese würden lokale Gemeinden dabei unterstützen, sich mit neuen sozio-ökologischen Entwicklungen zu arrangieren. „Hierfür müssen wir Anpassungsmethoden entwickeln, die gute und nachhaltige Lebensbedingungen in arktischen Küstensiedlungen ermöglichen. Eine enge Zusammenarbeit mit den Menschen vor Ort ist dabei zentral“, sagt Anna Irrgang.

Die Analyse des arktischen Küstenwandels ist Teil der Sonderausgabe „Permafrost“ des Fachmagazins Nature Reviews Earth & Environment.

Die Sektion Permafrost des AWI ist zusätzlich noch mit zwei weiteren Beiträgen beteiligt: In einer Übersicht zeigen Forschende, wie in arktischen und borealen Tiefland-Gebieten Millionen von Tau-Seen und drainierten Seebecken durch das Schmelzen von eisreichem Permafrost entstanden und gewachsen sind. Diese Vorgänge beeinflussen Landschafts- und Ökosystemprozesse sowie die Lebensgrundlagen der Menschen in den riesigen arktischen Tiefland-Regionen. Ein dritter Beitrag stellt das Projekt „Permafrost-Comics“ vor, das Cartoons nutzt, um Wissen zum Thema Permafrost leichter für ein breites und vor allem auch junges Publikum zugänglich zu machen.

Originalpublikation:
Anna M. Irrgang, Mette Bendixen, Louise M. Farquharson, Alisa V. Baranskaya, Li H. Erikson, Ann E. Gibbs, Stanislav A. Ogorodov, Pier Paul Overduin, Hugues Lantuit, Mikhail N. Grigoriev, Benjamin M. Jones (2022): Drivers, dynamics and impacts of changing Arctic coasts. Nature Reviews Earth & Environment, DOI: 10.1038/s43017-021-00232-1

Druckbare Bilder finden Sie nach Ablauf der Sperrfrist in der Online-Version dieser Pressemitteilung: https://www.awi.de/ueber-uns/service/presse.html

Ihre wissenschaftliche Ansprechpartnerin ist Dr. Anna Irrgang, Tel. +49 331 288-2142
(E-Mail: anna.irrgang@awi.de).

Ihre Ansprechpartnerin in der Pressestelle ist Sarah Werner, Tel. +49 471 4831-2008
(E-Mail: sarah.werner@awi.de).

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Originalpublikation:
https://doi.org/10.1038/s43017-021-00232-1

(nach oben)


Wie das Amazonasbecken die Atacama-Wüste bewässert

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Wasser aus dem Amazonasbecken ist die wichtigste Niederschlagsquelle in der Atacama-Wüste / Forschungsergebnisse helfen, die geologische Vergangenheit der Wüste zu rekonstruieren und Wetterbedingungen für astronomische Beobachtungen vorherzusagen

Neue Forschung hat gezeigt, dass das Amazonasbecken die wichtigste Ursprungsregion für Niederschlag in der Atacama-Wüste im Norden Chiles ist. Vom Regenwald aus wandert aufsteigender Wasserdampf mehr als 2.000 km nach Westen, überquert die Anden und wendet sich über dem Pazifik nach Südosten, um über der Atacama-Wüste Niederschlag zu bilden. Dr. Christoph Böhm vom Institut für Geophysik und Meteorologie der Universität zu Köln hat sogenannte Feuchtigkeitsförderbänder (moisture conveyor belts – MCBs) als Hauptmechanismus für Niederschläge identifiziert. Sie sind für 40 bis 80 Prozent des Gesamtniederschlags in der Atacama verantwortlich. Die Ergebnisse zeigen einen neuen Weg der Wasserversorgung für eine der trockensten Regionen der Erde, neben Sommerregen durch feuchte Ostwinde (Bolivianisches Hoch) und Winterregen im Zusammenhang mit westlichen Sturmzügen. Die Studie wurde in der Fachzeitschrift „Geophysical Research Letters“ veröffentlicht.

Abgesehen von den Polen ist die Atacama-Wüste mit einer jährlichen Niederschlagsmenge von weniger als 2 l/m² die trockenste Region der Erde. Zum Vergleich: in Köln fallen in einem durchschnittlichen Jahr etwa 800 l/m². Bisher wurden zwei unterschiedliche Niederschlagsmechanismen für die Atacama-Wüste beschrieben: Im Sommer verlagern episodische feuchte Ostwinde Sturmsysteme über die Andenkette, die in der Regel einen Transfer feuchter Luft aus dem Inneren des Kontinents behindert. Die damit verbundenen Niederschläge fallen vor allem im nordöstlichen Teil der Atacama-Wüste und nehmen zum tiefer gelegenen trockenen Kern der Wüste hin ab. Im Winter können Tiefdruckgebiete, die wir aus den gemäßigteren Regionen der mittleren Breiten gewohnt sind, auch subtropische Regionen erreichen und dort Wolken und Regen verursachen. Diese Systeme betreffen vor allem die südwestliche Atacama und haben ihren Ursprung über dem Pazifischen Ozean.

Böhm hat nun einen dritten Mechanismus entdeckt, der zu extremen Niederschlagsereignissen führt: „Mit einem Anteil von mehr als der Hälfte am Gesamtniederschlag in der Atacama-Wüste hat unsere Forschung Feuchtigkeitsförderbänder als Hauptniederschlagsquelle nachgewiesen. Das sind besondere Wetterphänomene, die sich durch einen starken Wasserdampftransport auszeichnen.“ Entlang der fadenförmigen Strukturen, die sich meist in Höhen zwischen 3.000 und 6.000 m über dem Meeresspiegel befinden, wird Wasser über weite Strecken transportiert, ohne dass es dabei zu einem großen Austausch mit der darunterliegenden feuchtereichen Pazifikluft kommt. Wenn das Band aus Wasserdampf aus dem Amazonasbecken von Nordwesten her die Atacama-Wüste erreicht, muss die Luftströmung das bis zu 2.500 m hohe Küstengebirge überqueren. Die Luft wird gezwungen, aufzusteigen, was zu einer Abkühlung und damit zur Niederschlagsbildung führt.

„Je heftiger das Niederschlagsereignis, desto eher ist es mit einem solchen Feuchteförderband verbunden“, sagt Böhm. „In einem konkreten Fall fielen in einer Region im trockensten Teil der Wüste mehr als 50 l/m² Regen, was das Zehnfache des Jahresdurchschnitts übersteigt. Für hoch angepasste Arten kann die plötzliche Wasserverfügbarkeit den Tod bedeuten.“ Gleichzeitig lösen solche Ereignisse biologische Explosionen wie die spektakuläre blühende Wüste aus. Darüber hinaus kann der durch starke Regenfälle verursachte Abfluss Schutt bewegen und die Landschaft umgestalten. Spuren solcher Aktivitäten, wie die Ablagerung von Pollen und organischem Kohlenstoff oder bewegtes Material unterschiedlicher Korngrößen, werden im Wüstenboden sichtbar und durch die anhaltende Trockenheit konserviert.

„Die Forschung nutzt geologische Archive wie solche Bodenproben, um die Klimageschichte zu rekonstruieren. Jetzt wissen wir, dass wir Hinweise auf Phasen häufigerer Starkregenereignisse in Anbetracht der Feuchtigkeitsförderbänder interpretierten müssen, die das Niederschlagssignal in diesen Archiven dominieren dürften“, erklärt Böhm. Zusätzlich können Wissenschaftler:innen aus verschiedenen Isotopen von Wasseratomen im Wüstenboden Informationen über die Feuchtigkeit in vergangenen geologischen Epochen gewinnen. Das Verhältnis von schwereren, neutronenhaltigen zu leichteren Wasserisotopen spiegelt die atmosphärische Wasserversorgung wider. Insbesondere in der Atacama-Wüste bewahrt der Gipsboden die Wasserisotopenzusammensetzung aus der Zeit, als er vor Millionen von Jahren gebildet wurde. „Um ein konsistentes Bild zu zeichnen, müssen die Quelle und der Weg des Wassers berücksichtigt werden, da sie die Fraktionierungsprozesse der Wasserisotope bestimmen. Die neuen Ergebnisse tragen dazu bei, die für eine solche Untersuchung erforderlichen Annahmen einzuschränken, und werden aussagekräftigere Ergebnisse ermöglichen.“

Situationen mit erhöhtem Wasserdampf oder sogar Niederschlägen wirken sich auch auf astronomische Forschungen aus, da die Atacama viele weltweit führende Observatorien beherbergt. Atmosphärischer Wasserdampf stört die klare Sicht in den Weltraum. „Das verbesserte Verständnis der Mechanismen des Wasserdampftransports wird es ermöglichen, bessere Vorhersagen über die geeigneten Bedingungen für diese anspruchsvollen Beobachtungen im Kontext eines sich wandelnden Klimas zu treffen“, resümiert Böhm.

Inhaltlicher Kontakt:
Dr. Christoph Böhm
Institut für Geophysik und Meteorologie
Universität zu Köln
+49 221 470 6112
c.boehm@uni-koeln.de

Presse und Kommunikation:
Robert Hahn
+49 221 470 2396
r.hahn@verw.uni-koeln.de

Link:
https://doi.org/10.1029/2021GL094372

(nach oben)


Bundesgesundheitsministerium fand niemanden für Studie zu Corona-Ausbrüchen in Pflegeeinrichtungen

Regina Rosenberg Geschäftsstelle
Deutsche Gesellschaft für Pflegewissenschaft e.V.
Warum konnte das BMG keine Pflegewissenschaftler:innen zur Beantwortung wichtiger Fragen zur SARS-CoV-2 Pandemie finden?

Stellungnahme der Deutschen Gesellschaft für Pflegewissenschaft.

Kurz vor Weihnachten berichtete die Tagesschau (https://www.tagesschau.de/investigativ/wdr/corona-studie-pflegeheime-101.html), dass wichtige Fragen zur pflegerischen Versorgung im Zusammenhang mit der SARS-CoV-2 Pandemie nicht beantwortet werden könnten, da sich keine geeigneten Wissenschaftler:innen finden ließen, die bereit wären im Auftrag des Bundesministerium für Gesundheit (BMG) zu forschen.

Für eine Ausschreibung zur „Analyse der Gründe für SARS-CoV-2-Ausbrüche in stationären Pflege-einrichtungen“ wurde, so der Pressetext, „dem Bundesministerium für Gesundheit kein geeignetes Angebot vorgelegt“ und somit „konnte diese Studie nicht vergeben werden“. Immerhin habe man den Auftrag für eine Literaturanalyse „direkt an einen externen Forschungsnehmer vergeben“ können.

Angesichts einer wachsenden Zahl pflegewissenschaftlicher Professuren und Institute in Deutschland sowie – mit der Deutschen Gesellschaft für Pflegewissenschaft – einer pflegewissenschaftlichen Fachgesellschaft, stellt sich natürlich die Frage, warum niemand für einen solchen Auftrag gefunden wurde.

Die Gründe hierfür liegen jedoch nicht am mangelndem Interesse von Pflegewissenschaftler:innen, sondern sind offensichtlich systemimmanent. Eine Nachfrage bei dem Journalisten ergab, dass es sich offenbar um eine begrenzte Ausschreibung im Sinne einer Auftragsvergabe handelte, die über https://verwaltung.bund.de zugänglich war. Auch wenn es sich um eine prinzipiell offene Ausschreibung handelt, wurde offenbar auf eine breite Streuung verzichtet und auch die DGP nicht einbezogen. Auch universitäre Standorte wurden unseres Wissens nach nicht angefragt. Auch hätte das Beratungsgremium des Pflegebeauftragten des BMG einbezogen werden können, um geeignete Forscher:innen zu benennen. Die Autor:innen der von der DGP initiierten Leitlinie „Soziale Teilhabe und Lebensqualität in der stationären Altenhilfe unter den Bedingungen der Covid-19 Pandemie“ hätten ohne Frage Hinweise geben können.

Diese erfolglose Ausschreibung zeigt daher nicht die Untätigkeit oder gar Unwilligkeit von Pflegewissenschaftler:innen in Deutschland, sondern wirft ein Schlaglicht auf die offensichtlich mangelnde Kenntnisnahme pflegewissenschaftlicher Kompetenzen, Strukturen und Kapazitäten in Deutschland (auch) in Zeiten der COVID-19-Krise.
Exemplarisch genannt seien hier nur im Vergleich die Förderung des Netzwerks Universitätsmedizin (https://www.netzwerk-universitaetsmedizin.de/finanzierung) im Umfang von 390 Millionen € bis 2024, die v.a. für medizinische Grundlagenforschung und nur in sehr geringem Umfang zur Erforschung der pflegerischen Versorgung verausgabt wurden sowie die Nichtbeachtung pflegewissenschaftlicher Expertise in entscheidenden Beratungsgremien wie der interdisziplinären Kommission für Pandemieforschung der DFG oder dem Expertenbeirat des BMG. Der hierzu von der Deutschen Gesellschaft für Pflegewissenschaft an Bundeskanzler Scholz gesendete Brief (https://dg-pflegewissenschaft.de/aktuelles/pressemitteilung-wissenschaftliches-e…) blieb bislang unbeantwortet.

Angesichts der überragenden Bedeutung einer angemessenen pflegerischen Versorgung und der besonderen Rolle professionell Pflegender im Rahmen von Infektionsschutz und -kontrolle muss dringend pflegewissenschaftliche Expertise einbezogen werden. Dies gelingt sicher nicht über begrenzte Ausschreibungen im Rahmen von Auftragsforschung, deren zeitlicher und finanzieller Um-fang darüber hinaus keine nennenswerte Forschung zulässt.

Wenn es zukünftig gelingen soll im Rahmen von Krisen, wie z.B. einer Pandemie, kurzfristig nötige Daten zur Verbesserung der Versorgung zu erhalten, braucht es etablierte Forschungsstrukturen. Krisenbezogene Ad-hoc-Programme reichen hier sicher nicht aus, wie an der sehr begrenzten Förderung pflegewissenschaftlicher Forschung seit Beginn der Pandemie deutlich zu erkennen ist. Die vorhandenen Ergebnisse stammen fast ausnahmslos aus Eigeninitiativen von Pflegeforscher:innen ohne spezifische Förderung.

Wir fordern daher das BMG und andere Fördergremien des Bundes auf, ein angemessen ausgestattetes Programm unter entsprechend qualifizierter pflegewissenschaftlicher Begutachtung zur Erforschung der pflegerischen Versorgung während der Pandemie aufzusetzen. Außerdem braucht es die Einbindung pflegewissenschaftlicher Expertise in Beratungsgremien zum Umgang mit der Pandemie.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Inge Eberl, Vorstandsvorsitzende
Prof. Dr. Sascha Köpke, stellv. Vorstandsvorsitzender
Prof. Dr. Christa Büker, Vorstandsmitglied
Prof. Dr. Annegret Horbach, Vorstandsmitglied
Dr. Bernhard Holle, Vorstandsmitglied

Weitere Informationen:
https://dg-pflegewissenschaft.de/wp-content/uploads/2022/01/2022_01_07-Stellungn…

(nach oben)


Ungleicher Fahrradboom: Fahrrad wird immer mehr zum Statussymbol

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Radverkehr hat in Deutschland zwischen 1996 und 2018 um mehr als 40 Prozent zugenommen / Trend gilt in erster Linie für Menschen mit höherem Bildungsabschluss

Stadtbewohner:innen in Deutschland mit Abitur fuhren 2018 mit 70 Minuten pro Woche durchschnittlich doppelt so viel Fahrrad wie noch 1996. Bei Bewohner:innen weniger urbaner Gegenden ohne Abitur hat sich in diesem Zeitraum aber kaum etwas verändert. Stadtbewohner:innen mit Abitur fahren heute dreimal so lange Fahrrad wie Bewohner:innen ländlicher Gegenden ohne Abitur.
Der Soziologe Dr. Ansgar Hudde vom Institut für Soziologie und Sozialpsychologie (ISS) der Universität zu Köln hat zwei Studien zum Zusammenhang von Fahrradmobilität und Bildungsniveau erstellt, und dafür mehr als 800.000 Wege ausgewertet, die mehr als 55.000 Befragte zurückgelegt haben. Die Daten stammen aus dem deutschen Mobilitätspanel (MOP) und dem Sozioökonomischen Panel (SOEP) für die Jahre 1996 bis 2018 sowie der BMVI-Studie „Mobilität in Deutschland 2017“. Seine Ergebnisse sind in zwei Artikeln zusammengefasst, die in den Fachzeitschriften Journal of Transport Geography sowie Sociology veröffentlicht wurden.
Einen großen Teil des Fahrradbooms führt der Soziologe auf die Bildungsexpansion zurück. „Die Daten zeigen einen starken Zusammenhang zwischen Radmobilität und Bildungsniveau“, sagt Hudde. „Es gibt immer mehr Menschen mit höherer Bildung, und die fahren immer mehr Fahrrad. Beide Trends setzen sich aktuell ungebremst fort.“

Dr. Ansgar Hudde hat für Bewohner:innen von Städten auch untersucht, warum Menschen mit höherer Bildung das Fahrrad häufiger nutzen als Menschen mit niedrigerer Bildung. Eine Teilerklärung dafür ist, dass Personen mit Hochschulabschluss etwas häufiger in fahrradfreundlichen Städten und Stadtvierteln wohnen. Die Auswertung der statistischen Daten macht aber deutlich, dass sich die Bildungsunterschiede auch innerhalb von Städten und Stadtvierteln zeigen. „Personen mit Hochschulabschluss nutzen in der Stadt das Fahrrad fast 50 Prozent häufiger als Personen ohne Hochschulabschluss, wobei Faktoren wie Alter, Geschlecht und Wohnort bei der Untersuchung konstant gehalten wurden. Die Ergebnisse deuten insgesamt klar darauf hin, dass es der Bildungsstand selbst ist, der zu mehr Radfahren führt“, so Ansgar Hudde.

Daher ist Hudde der Frage nachgegangen, warum der Bildungsstand beeinflusst, ob und wie viel Menschen Fahrrad fahren. Die bisherige Forschung hat gezeigt, dass Menschen ihr Verkehrsmittel nicht nur nach den Kosten oder der Reisezeit auswählen. Vielmehr wählen sie das Verkehrsmittel auch danach, was es symbolisiert und welche Botschaft man damit an Dritte sendet. Tendenziell kann ein teures Auto viel Reichtum und beruflichen Erfolg, aber wenig Gesundheits- oder Umweltbewusstsein ausdrücken. „Beim Fahrrad ist es genau umgekehrt. Personen mit höheren Bildungsabschlüssen laufen meist nicht Gefahr, dass sie als arm oder beruflich erfolglos wahrgenommen werden – selbst dann, wenn sie mit einem günstigen Rad unterwegs sind. Sie können mit dem Fahrrad vielmehr an Status gewinnen, wenn sie sich als modern, gesundheits- und umweltbewusst zeigen“, erläutert Hudde. „Dagegen könnten Personen mit weniger hohen Bildungsabschlüssen ein teures Auto eher als Statussymbol nutzen, um zu zeigen, dass sie es zu Wohlstand gebracht haben.“

Die Befunde haben weitreichende gesellschaftliche Bedeutung. Menschen mit niedrigeren Bildungsabschlüssen verfügen häufiger über geringe finanzielle Ressourcen und haben im Durchschnitt einen schlechteren Gesundheitszustand. Das Fahrrad als kostengünstiges und gesundes Fortbewegungsmittel könnte solche Ungleichheiten mildern – aber das Gegenteil ist der Fall. Viele Städte fördern den Radverkehr und verteilen Straßenraum vom Auto- zum Radverkehr hin um. Im Moment kommen diese Maßnahmen aber in erster Linie den Höhergebildeten zugute. Dr. Ansgar Hudde resümiert: „Wenn es der Politik gelingt, das Radfahren für alle attraktiv zu machen, bedeutet das: lebenswertere Orte, bessere Gesundheit, mehr Umweltschutz und weniger soziale Ungleichheit.“

Inhaltlicher Kontakt:
Dr. Ansgar Hudde
Institut für Soziologie und Sozialpsychologie (ISS)
hudde@wiso.uni-koeln.de
Presse und Kommunikation:
Mathias Martin
+49 221 470-1705
m.martin@verw.uni-koeln.de

Publikationen:
„The unequal cycling boom in Germany“, Journal of Transport Geography, https://www.sciencedirect.com/science/article/pii/S0966692321002970
„Educational Differences in Cycling: Evidence from German Cities“, Sociology,
https://journals.sagepub.com/doi/10.1177/00380385211063366

Verantwortlich: Jürgen Rees – j.rees@verw.uni-koeln.de

(nach oben)


Leuphana informiert live über berufsbegleitende Studiengänge

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Online-Infotage der Professional School am 14. und 15. Januar 2022

Wer im Berufsleben steht und sich weiterbilden möchte, muss heute selbst für ein Studium nicht mehr aus dem Job ausscheiden. Immer mehr Studiengänge sind gezielt auf Berufstätige zugeschnitten und lassen sich neben dem Job absolvieren. Die Professional School der Leuphana Universität Lüneburg bietet bereits seit 2009 eine breit gefächerte Auswahl solcher Bachelor-, Master- und Zertifikatsprogramme. Interessierten stellt die Professional School diese Studienangebote am 14. und 15. Januar 2022 mit einem digitalen Infotag vor.

Die Veranstaltung startet am Freitagabend um 18.30 Uhr mit einer Warm-up-Session, die auf die Möglichkeiten des berufsbegleitenden Studiums einstimmen soll. Neben einem Vortrag zum Thema Stressbewältigung und Abschalten vom Arbeits- und Studienalltag gibt es auch einen interaktiven Workshop rund um das berufsbegleitende Studium. Das Warm-up endet mit einer Quizrunde für alle Teilnehmenden. Am Samstag stehen ab 10 Uhr weitere Vorträge und Online-Sprechstunden zu den Studienangeboten aus den Clustern Management & Entrepreneurship, Governance & Recht, Nachhaltigkeit sowie Bildung, Gesundheit & Soziales auf dem Programm.

Beratungsangebote gibt es auch zu Themen wie Studienorganisation und -finanzierung oder zu aktuellen und geplanten Studien- und Weiterbildungsformaten. Ergänzend finden die Interessierten auf der Infotagswebseite Video- und Informationsmaterial.

Die Nachfrage nach den Weiterbildungsangeboten der Leuphana ist in den vergangenen Jahren kontinuierlich gestiegen. Aktuell verzeichnet die Professional School bereits über 1.500 Studierende. Sie hat sich inzwischen zu einem der wichtigsten akademischen Weiterbildungsanbieter im norddeutschen Raum und einer der größten Weiterbildungseinrichtungen an deutschen Universitäten entwickelt.

Unter http://www.leuphana.de/ps-infotag stehen das Veranstaltungsprogramm, weitere Informationen sowie ein Online-Anmeldeformular zum Infotag zur Verfügung.

(nach oben)


Digitaler Vortrag: Wie gelingt die Energiewende? Soziale Innovationen als Motor der Transformation.

Stefanie Reiffert Corporate Communications Center
Technische Universität München
Die digitale Vortragsreihe „KlimaDiskurse“ startet am 11. Januar ins neue Jahr. Zu Gast ist dieses Mal die Politik-Analystin Dr. Arwen Colell. Sie spricht über die Gestaltungsmacht von Bürgern und Bürgerinnen bei der Umsetzung der Energiewende.

Colells Forschung zu europäischen Bürgerenergieprojekten zeigt: Gemeinsame Werte und gesellschaftliche Trägerschaft sind entscheidend für die erfolgreiche Umsetzung der Projekte vor Ort. Soziale Innovationen sind dabei mindestens genauso wichtig wie die technologischen und können bestehende Machtstrukturen in der Energiewirtschaft verändern. Dr. Claudia Hemmerle, bayklif-Juniorforschungsgruppenleiterin an der Technischen Universität München (TUM) diskutiert mit ihr und weiteren Experten und Expertinnen, wie die Politik Hemmnisse der Energiewende „von unten“ beseitigen und auch im großen Maßstab die Energiewende „von oben“ gestalten kann und muss.

Diskussionsrunde mit:
Dr. Arwen Colell, Prof. Dr. Miranda Schreurs (Lehrstuhl für Umwelt- und Klimapolitik, Hochschule für Politik München an der Technischen Universität München), Dr. Peter Moser (Zentrum für Umweltkommunikation, Deutsche Bundesstiftung Umwelt Osnabrück), Viola Theesfeld (Referentin Energiepolitik und -wirtschaft, BBEn Bündnis Bürgerenergie e.V. Berlin), Dr.-Ing. Claudia Hemmerle (bayklif CLEANVELOPE, Lehrstuhl für Gebäudetechnologie und klimagerechtes Bauen, Technische Universität München)

Über die Vortragsreihe „KlimaDiskurse“:
Der Klimawandel stellt die Menschheit vor komplexe Herausforderungen und erfordert Anstrengungen und Lösungen aus allen Lebensbereichen. Hierbei helfen neben wissenschaftlichen Erkenntnissen auch Menschen mit Kreativität, Mut und einer Prise Humor, die aufrütteln und inspirieren. In der Vortragsreihe „KlimaDiskurse“ wollen die fünf Juniorforschungsgruppen des Bayerischen Klimaforschungsnetzwerks bayklif mit solchen Menschen reden und ganz verschiedene Facetten des Klimawandels diskutieren.

Hinweise zur Teilnahme:
Die Vorträge finden jeweils ab 18 Uhr als ZOOM Veranstaltung statt. Den Link zur Anmeldung und weitere Informationen finden Interessierte unter www.bayklif.de/klimadiskurse. Eingeladen sind alle interessierten Bürgerinnen und Bürger.

(nach oben)


Niedrige Monatsentgelte: Je nach Region zwischen 6 und 43 Prozent betroffen

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Analyse beleuchtet auch Entwicklung im Zeitverlauf

Niedrige Monatsentgelte: Je nach Region zwischen 6 und 43 Prozent betroffen – neue Studie liefert Daten für alle Städte und Landkreise

Der Anteil der Arbeitnehmerinnen und Arbeitnehmer, die trotz Vollzeitarbeit ein niedriges Monatsentgelt von weniger als zwei Dritteln des mittleren monatlichen Bruttoarbeitsentgeltes aller sozialversicherungspflichtig Vollzeitbeschäftigten bekommen, ist in den vergangenen Jahren zurückgegangen, vor allem in Ostdeutschland.

Trotzdem haben auch 2020 bundesweit noch knapp 19 Prozent der sozialversicherungspflichtig in Vollzeit Beschäftigten in diesem nach Definition der Bundesagentur für Arbeit (BA) „unteren Entgeltbereich“ gearbeitet. Dessen Obergrenze lag 2020 bei maximal 2284 Euro brutto monatlich. Das ergibt eine neue Studie des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung, die auch die neusten verfügbaren Daten für alle deutschen Landkreise und kreisfreien Städte liefert.* Die Auswertung zeigt große Unterschiede nach Regionen, Geschlechtern, Branchen und Qualifikation: Während 2020 in Wolfsburg oder Erlangen 6,4 bzw. 8,3 Prozent der Vollzeitbeschäftigten im unteren Entgeltbereich arbeiteten, galt das etwa in Görlitz oder dem Saale-Orla Kreis jeweils für spürbar mehr als 40 Prozent. Die höchste Quote weist der Erzgebirgskreis mit 43,2 Prozent auf (siehe auch die Tabelle in der pdf-Version dieser PM; Link unten). Unter den Frauen müssen bundesweit 25,4 Prozent mit einem niedrigen Monatseinkommen trotz Vollzeitarbeit auskommen, unter den Männern 15,4 Prozent. Überdurchschnittlich häufig betroffen sind auch junge Vollzeitbeschäftigte, solche mit ausländischer Staatsangehörigkeit und Personen ohne Berufsabschluss. Besonders ausgeprägt ist der untere Entgeltbereich in Branchen wie dem Gastgewerbe, der Leiharbeit oder der Land- und Forstwirtschaft.

Für die Studie werteten die WSI-Forscher Dr. Eric Seils und Dr. Helge Emmler die aktuellsten verfügbaren Entgelt-Daten der BA zur „Kerngruppe“ der Vollzeitbeschäftigten aus, in der die große Mehrheit der sozialversicherungspflichtig Beschäftigen erfasst ist, aber beispielsweise keine Auszubildenden. Die Daten stammen aus Meldungen von Arbeitgebern zur Sozialversicherung und kommen häufig direkt aus der betrieblichen Lohnbuchhaltungssoftware, daher dürften sie nach Einschätzung der Wissenschaftler auch für die Ebene von Stadt- und Landkreisen verlässlich sein. Seils und Emmler konzentrieren sich in ihrer Untersuchung auf Personen, die laut BA-Statistik Vollzeit arbeiten und trotzdem 2020 höchstens 2284 Euro monatliches Bruttoeinkommen erzielten. Bei diesem Wert setzt die Bundesagentur aktuell die bundesweite Obergrenze des unteren Entgeltbereichs an. Genaue Arbeitszeiten enthält die BA-Statistik nicht, so dass es nicht möglich ist, Stundenlöhne zu berechnen.

Deutschlandweit zählten 2020 nach der Abgrenzung der BA 18,7 Prozent der Vollzeitbeschäftigten zu den Geringverdienenden. Seit 2011 ist dieser Anteil in kleinen jährlichen Schritten von damals 21,1 Prozent kontinuierlich gesunken, gleichzeitig stieg die statistische Zwei-Drittel-Verdienstgrenze um rund 10 Prozent. Der Rückgang fiel in Ostdeutschland deutlich stärker aus als im Westen, allerdings auf einem viel höheren Ausgangs- und Endniveau (Rückgang von 39,3 auf 29,1 Prozent im Osten gegenüber 16,9 auf 16,4 Prozent im Westen; siehe auch Tabelle 2 in der Studie; Link unten). Da gleichzeitig bundesweit die sozialversicherungspflichtige Beschäftigung deutlich wuchs, haben sich die absoluten Zahlen der Betroffenen unterschiedlich entwickelt: Während im Osten die Zahl der Vollzeitbeschäftigten im unteren Entgeltbereich um gut 320.000 sank, stieg sie im Westen um mehr als 200.000 Personen an.

Obwohl sich der Abstand zwischen West und Ost somit verringerte, bleiben die regionalen Differenzen nach der WSI-Analyse weiterhin groß: Unter den ostdeutschen Stadt- und vor allem den Landkreisen sind Quoten von mehr als 30 Prozent weiterhin relativ häufig. Dagegen bleiben im Westen auch jene vorwiegend ländlich geprägten Regionen mit vergleichsweise hohen Anteilen unter dieser Marke, wenn auch in einigen Kreisen von Niedersachsen, Schleswig-Holstein, Rheinland-Pfalz und vereinzelt in Bayern nur relativ knapp. Generell ist Vollzeitarbeit im unteren Entgeltbereich in ländlichen Regionen, in denen es vor allem Kleinbetriebe und eher wenig Industrie gibt, stärker verbreitet.

Im bundesweiten Vergleich niedrige Quoten sind dementsprechend meist in Städten bzw. Ballungsräumen zu finden, in denen große Arbeitgeber im industriellen, im Finanz-, im Wissensbereich und der Verwaltung eine wichtige Rolle spielen. Das gilt neben Wolfsburg und Erlangen beispielsweise auch für Stuttgart, Ingolstadt, Darmstadt, Stadt und Landkreis München, den Kreis Böblingen und Städte wie Salzgitter, Ludwigshafen, Frankfurt am Main, Karlsruhe oder Bonn, wo zwischen rund neun und rund 11 Prozent der Vollzeitbeschäftigten im unteren Entgeltbereich arbeiten (siehe auch die detaillierten Daten im verlinkten Anhang der Studie). Ländlichere Regionen mit relativ niedrigen Quoten finden sich am ehesten in Baden-Württemberg. Unter den größten deutschen Städten weisen auch Köln, Düsseldorf und Hamburg Geringverdiener-Anteile deutlich unter dem bundesweiten Durchschnitt von 18,7 Prozent auf, während Berlin mit 19,2 Prozent knapp darüber liegt.

Diese regionale Verteilung korrespondiert mit weiteren Mustern, die Seils und Emmler bei der Datenanalyse beobachten: Der Anteil der Geringverdienste liegt bei Vollzeitbeschäftigten ohne Berufsabschluss bei 40,8 Prozent, bei Beschäftigten mit beruflichem Abschluss bei 17,8 und bei Personen mit Hochschulzertifikat bei lediglich 4,9 Prozent.

Auch die Branchenverteilung spielt eine wichtige Rolle: Im Gastgewerbe (68,9 Prozent), in Leiharbeit (67,9 %) und Land- und Forstwirtschaft (52,7 %) arbeiten mehr als die Hälfte der Vollzeitkräfte im unteren Entgeltbereich. Deutlich überdurchschnittliche Anteile weisen unter anderem auch der Bereich „Kunst und Unterhaltung“ sowie private Haushalte (33,2 %), die Logistik (28,3 %) oder der Handel (24,9 %) auf. Das Sozial- (19,5 %) und das Gesundheitswesen (17,8 %) liegen knapp über bzw. knapp unter dem allgemeinen Mittel. Im Verarbeitenden Gewerbe insgesamt sind 11,5 Prozent der Vollzeitkräfte im unteren Entgeltbereich beschäftigt, in der Metall- und Elektroindustrie 7,6 Prozent. In der Finanz- und Versicherungsbranche liegt der Anteil bei 4,2 Prozent und im öffentlichen Dienst bei 2,5 Prozent (siehe auch Tabelle 1 in der Studie).

Ein anderer statistischer Zusammenhang mag auf den ersten Blick irritieren: Stadt- und Landkreise mit hohen Wohnkosten weisen niedrigere Anteile von Vollzeitbeschäftigten im unteren Entgeltbereich auf. „In Regionen mit hohen Mieten sind zumeist auch die Löhne höher. Das bedeutet aber nicht unbedingt mehr Kaufkraft für die Beschäftigten, weil die Mieten und Preise den höheren Lohn gleichsam auffressen“, sagt WSI-Forscher Eric Seils.

„Unsere Analyse zeigt einerseits einige positive Tendenzen: In den letzten Jahren ist es gelungen, den unteren Entgeltbereich zurückzudrängen“, fasst sein Forscherkollege Helge Emmler die Befunde zusammen. Dies gelte insbesondere für Ostdeutschland. Allerdings sei vor allem dort der untere Entgeltbereich weiterhin stark verbreitet und zugleich die Tarifbindung weit niedriger als im Westen. „Die geplante Anhebung des Mindestlohnes auf 12 Euro ist sicherlich ein Schritt in die richtige Richtung. Um hier weiter zu kommen, ist darüber hinaus eine Stärkung der Tarifbindung erforderlich“, so Emmler.

Wissenschaftliche Ansprechpartner:
Dr. Eric Seils WSI-Sozialexperte
Tel.: 0211-7778-591
E-Mail: Eric-Seils@boeckler.de

Dr. Helge Emmler WSI-Datenexperte
Tel.: 0211-7778-603
E-Mail: Helge-Emmler@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
*Eric Seils, Helge Emmler: Der untere Entgeltbereich. WSI Policy Brief Nr. 65, Januar 2022. Download: https://www.wsi.de/de/faust-detail.htm?sync_id=HBS-008216

Die PM mit Tabelle (pdf): https://www.boeckler.de/pdf/pm_wsi_2022_01_06.pdf

(nach oben)


Frauen in der Digitalbranche: Der lange Weg der Drishti Maharjan

Melisa Berktas Corporate Communications & Public Relations
Jacobs University Bremen gGmbH
Natürlich war das ein sehr emotionaler Moment für sie. Schließich war es für Drishti Maharjan nicht nur geographisch ein langer Weg von Nepal auf diese Bühne in Dresden. In ihrer Schule war sie oft das einzige Mädchen gewesen, das Neigungskurse in Naturwissenschaften besuchte. Und jetzt nahm sie den Preis für den 3. Platz beim Zeiss Women Award 2021 entgegen. Einem Wettbewerb, der herausragende weibliche Studierende in Fächern wie Informatik oder Computerwissenschaften auszeichnet.

Sogar eine Dankesrede hielt sie. „Es war mir wichtig, von meinem Hintergrund zu erzählen. Ich wollte deutlich machen, dass an meiner Stelle auch andere junge Frauen stehen könnten, wenn sie dieselben Chancen und Möglichkeiten bekommen hätten, wie ich sie bekommen habe“, erzählt die 22-Jährige.

Drishti wuchs in Lalitpur auf, einer 225.000 Einwohner-Stadt in der Nähe von Kathmandu, der Hauptstadt von Nepal. Ihr Vater starb als sie 13 Jahre alt war, ihre Mutter hat einen einfachen Schulabschluss. Die Familie gehört nicht zu den Reichen des Landes. Stipendien ermöglichten ihr den Besuch einer Privatschule in Nepal und das Studium an der Jacobs University. „Ohne die finanzielle Hilfe der Universität hätte ich nicht in Bremen studieren können.“

Unterstützung erhielt sie auch während ihrer Zeit an der Hochschule, etwa von Peter Zaspel, Professor für Computer Science, bei dem sie ihre mit dem Zeiss Women Award gewürdigte Bachelorarbeit schrieb. Zuvor war sie auf Vorschlag von Zaspel bereits mit dem Deans-Preis ausgezeichnet worden, mit dem die Jacobs University hervorragende Abschlussarbeiten ihrer Studierenden würdigt.

„Drishtis Arbeit hat ein Niveau, das oft nicht einmal in Masterarbeiten erreicht wird“, sagt Zaspel. „Sie öffnet die Tür in ein neues Feld für kommende Arbeiten zu datengetriebenen Methoden in der wissenschaftlichen Visualisierung.“ Dabei geht es um eine Software mit Namen „ParaView“, die Flüssigkeiten wie Blut oder Wasser visualisiert. Drishti führte neue Funktionen in ParaView ein, indem sie maschinelles Lernen in die Software integrierte.
Dass sie einmal eine ausgezeichnete Softwareentwicklerin werden würde, war in ihrer Schulzeit nicht absehbar. „Mathematische und naturwissenschaftliche Fächer haben mir immer Spaß gemacht, aber nicht ausschließlich.“ Sie hat vielseitige Interessen. Eine Besonderheit der Fächerwahl an der Jacobs University kam ihr deshalb entgegen. Um sich auszuprobieren können Studierende in ihrem ersten Jahr drei Fächer belegen. Erst im zweiten Jahr müssen sie sich auf ihr Abschlussfach festlegen. Drishti wählte Business Administration, Global Economics und Computer Science. „Mir war schnell klar: Computer Science ist das, was ich machen will.“

Was an dem Fach so spannend ist? „Nur mithilfe eines Laptops und ein paar Codes etwas Innovatives kreieren zu können, das ist wirklich faszinierend“, findet sie. An der Jacobs University entdeckte sie auch ihre Begeisterung für Hackathons. Das sind Wettbewerbe, in denen die Teilnehmenden innerhalb begrenzter Zeit eine kreative, technische Lösung für ein bestimmtes Problem finden müssen. „Da kommen oft erstaunliche Innovationen zustande“, sagt Drishti. Sie war so angetan, dass sie 2019 mit einigen Kommiliton:innen aus Nepal den ersten internationalen Hackathon ihres Landes auf die Beine stellte, den Everest-Hack. Das Event wurde ein großer Erfolg. Die Hackathon-Kultur wächst mittlerweile auch in Nepal.

Die meisten Teilnehmenden sind Männer, natürlich. „Als Kind wurde mir oft gesagt, bestimmte Fächer sind nur etwas für Jungs“, erinnert sich Drishti. Für Mädchen habe es an Unterstützung gefehlt, es gab auch keine Lehrerinnen in den entsprechenden Fächern, keine weiblichen Vorbilder. „In der Schule war ich in einigen Kursen das einzige Mädchen unter 40 Jungs. Das fühlte sich komisch an.“

Das änderte sich an der Jacobs University, zumindest ein wenig. „Ich war super glücklich als ich in meinen Kursen plötzlich Kommilitoninnen entdeckte.“ Ihre Freundinnen wiesen sie schnell darauf hin, dass auch in Deutschland Männer die mathematisch-naturwissenschaftlichen und technischen Fächer dominieren. „Es braucht einfach mehr Unterstützung für Frauen, nicht nur in Nepal, auch hier.“

Vor gut dreieinhalb Jahren, im Sommer 2018, kam Drishti nach Bremen. Sie war 18 Jahre alt, es war ihre erste Reise außerhalb ihres Landes. „Ich war wirklich sehr nervös und wusste nicht, was mich erwartet.“ Die Sprache, die Kultur, das Essen, das Wetter – alles war neu. „Ich wusste nicht einmal wie die Post funktioniert, ich hatte zuvor nie einen Brief bekommen.“

Eines der ersten Dinge, über die sie stolperte, war das deutsche Konzept der Pünktlichkeit. „Auf der Anzeigetafel für den Zug stand: Ankunft, 16:04 Uhr. Komische Zeit, dachte ich. Warum schreiben die nicht 16:00 Uhr? Zu meinem Erstaunen kam der Zug auf die Minute genau“, erinnert sie sich lachend. Sie lebte sich dann doch schnell ein, auch dank der Unterstützung der Jacobs University für Studierende. So gibt es in jeder studentischen Unterkunft auf dem Campus „Resident Mentors“ als Bezugspersonen für die Studierenden. „Dieses System ist ausgesprochen hilfreich.“

Im Mai 2021 beendete sie ihr Studium und arbeitet seitdem als Softwareentwicklerin für Polypoly, ein Start-up, das den Nutzer:innen die Hoheit über ihre Daten zurückgeben will. Derzeit ist Drishti in Nepal, zum ersten Mal seit Beginn ihres Studiums. Sie wird zurückkommen nach Deutschland, soviel ist sicher. Erst einmal möchte sie weitere Berufserfahrung sammeln und dann ihren Master machen. Ihr Weg von Nepal nach Bremen war zwar lang, aber er hat sich gelohnt.

Dieser Text ist Teil der Serie „Faces of Jacobs“, in der die Jacobs University Studierende, Alumni, Professor:innen und Mitarbeiter:innen vorstellt. Weitere Folgen sind unter www.jacobs-university.de/faces/de zu finden.

Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1500 Studierenden stammen aus mehr als 120 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.
Für weitere Informationen: www.jacobs-university.de

(nach oben)


Bundesregierung sollte Atompläne der EU nicht rundheraus ablehnen

Guido Warlimont Kommunikation
Kiel Institut für Weltwirtschaft
Dr. Wilfried Rickels (https://www.ifw-kiel.de/de/experten/ifw/wilfried-rickels/), Direktor des Forschungszentrums Global Commons und Klimapolitik am Kiel Institut für Weltwirtschaft, kommentiert die Reaktion der Bundesregierung auf die strittigen Pläne der EU-Kommission, Kernkraft in die EU-Taxonomie für nachhaltige Energien aufzunehmen:

„Es könnte klimapolitisch ein Fehler sein, dass die Bundesregierung den EU-Vorschlag zur Kernenergie rundheraus ablehnt. Vielmehr sollte sie darauf dringen, dass im Gegenzug die Fitfor55-Klimaschutzpläne der EU weitreichend anerkannt werden. Insbesondere wäre es ein Gewinn für den Klimaschutz, wenn die im Rahmen des europäischen Emissionshandels erlaubte Maximalmenge wie von der EU vorgesehen über die nächsten Jahre stärker als bisher geplant linear sinkt. Dann kann die kontroverse Einstufung der Kernkraft unterm Strich einen wichtigen Beitrag für geringere CO2-Emissionen liefern, ohne dass es am Ende zu einer Renaissance der Kernenergie kommen wird.

Dass Gaskraftwerke, die dann auf Wasserstoff umgerüstet werden können beziehungsweise Kohlenstoffabscheidung und -lagerung (CCS) einsetzen, Teil der EU-Taxonomie sein sollen, ist richtig. Denn ein beschleunigter Ausbau wetterabhängiger erneuerbarer Energien braucht flankierend die regelbare Stromerzeugung. Diese kann zwar auch die Kernenergie CO2-arm liefern, aber unter wirtschaftlichen Gesichtspunkten ist es nicht effizient, dass sie einen großen Beitrag zur CO2-neutralen Stromerzeugung beiträgt. Gleichwohl besteht ein starkes Interesse von einer Gruppe europäischer Staaten, diese Technologie aufzunehmen. Dass die Bundesregierung dies anerkennt und im Gegenzug andere Zugeständnisse erreicht, wäre für den Klimaschutz am Ende wahrscheinlich nützlicher.“

Medienansprechpartner:
Guido Warlimont
Leiter Kommunikation
T +49 431 8814-629
guido.warlimont@ifw-kiel.de

Kiel Institut für Weltwirtschaft
Kiellinie 66 | 24105 Kiel
T +49 431 8814-774
F +49 431 8814-500
www.ifw-kiel.de

Wissenschaftliche Ansprechpartner:
Dr. Wilfried Rickels
Direktor Global Commons und Klimapolitik
T +49 431 8814-408
wilfried.rickels@ifw-kiel.de

(nach oben)


Untersuchung zur Wiederverwendbarkeit von FFP2-Masken: Hält die Schutzwirkung?

Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München
Die Mehrfachverwendung von FFP2-Masken ist gang und gäbe. Aber schützen die als Einmalprodukte ausgelegten Masken bei mehrmaligem Gebrauch ebenso gut wie beim ersten Tragen? 15 handelsübliche FFP2-Masken testete ein HM-Forschungsteam auf Filterwirkung und Atemkomfort in einer 22-Stunden-Gebrauchssimulation.

FFP2-Masken sind eigentlich für den Einmalgebrauch vorgesehen, so steht es auch im Beipackzettel. Im Alltagsgebrauch sieht es aber meist ganz anders aus: ein Einkauf im Supermarkt, danach noch schnell zur Post, die Kinder von der Kita abholen: alles mit der gleichen Maske. Anschließend bleibt die Maske im Auto liegen, damit man sie am nächsten Tag gleich wiederverwenden kann. Das ist bequem und spart Kosten.

Aber funktioniert das eigentlich? Schützt eine mehrmals verwendete Maske ebenso gut vor einer Ansteckung mit dem Coronavirus SARS-CoV-2 wie beim ersten Tragen? Ein Forscherteam der Hochschule München (HM) ging dieser Frage auf den Grund: „Wir haben die Filterwirkung und den Atemwiderstand von 15 in Deutschland erhältlichen FFP2- Maskenmodellen vor und nach einer 22-stündigen Gebrauchssimulation untersucht,“ sagt der wissenschaftliche Projektleiter und Professor für Medizintechnik Christian Schwarzbauer.

Wirksamkeit bei mehrfachem Tragen gängiger FFP2-Masken simulieren
Für die Gebrauchssimulation hat der Ingenieur und Mechatroniker Hamid Azizi im Rahmen seiner Bachelorarbeit an der Fakultät für angewandte Naturwissenschaften und Mechatronik einen speziellen Beatmungssimulator entwickelt. Damit wurden Luftfeuchtigkeit, Temperatur, Druck und Atemzeitvolumen der menschlichen Atmung bei leichter körperlicher Belastung exakt nachgebildet.

Verfahren für Wirksamkeitstest mehrfach verwendeter FFP2-Masken
Für die Gebrauchssimulation wurde jede Maske zunächst für 12 Stunden mit dem Beatmungssimulator „beatmet“ und anschließend für 60 Minuten in einen Trockenofen bei 80°C gelegt. Die Wärmebehandlung im Backofen bei 80°C wurde als Hygienemaßnahme bei Wiederverwendung von FFP2-Masken von der FH Münster untersucht und empfohlen. Danach wurde die Maske noch einmal für zehn Stunden an den Beatmungssimulator angeschlossen und dann einer zweiten Wärmebehandlung im Trockenofen unterzogen. Die Prüfung der Masken auf Filterleistung und Atemwiderstand erfolgte in Zusammenarbeit mit der ift Rosenheim GmbH, einem international akkreditiertem und notifiziertem Prüflabor für FFP2-Masken.

Vielfach Abnahme der Filterleistung nach Gebrauchstest
Die Gebrauchssimulation führte bei 8 der 15 untersuchten FFP2-Masken-Modellen zu einer signifikanten Abnahme der Filterleistung (vgl. Abbildung 1). Die gemessen Werte lagen aber noch im vorgeschriebenen Normbereich gemäß DIN EN 149:2009-08. Ein Masken-Modell konnte weder im fabrikneuen Zustand, noch nach der Gebrauchssimulation die Norm bezüglich der Filterleistung erfüllen. „Solche Masken dürften eigentlich gar nicht erst in den Handel kommen“ kritisiert Schwarzbauer.

Atemwiderstand der FFP2-Masken verringert sich mit Mehrfachnutzung
Der Atemwiderstand der Maskenmodelle hat sich durch die Gebrauchssimulation bei den meisten Maskenmodellen tendenziell verringert. „Die Masken bieten dadurch etwas mehr Atemkomfort, ansonsten ist das aber unproblematisch, da die Schutzwirkung trotzdem gegeben ist,“ sagt Schwarzbauer. Ein Masken-Modell lag sowohl im fabrikneuen Zustand als auch nach der Gebrauchssimulation über dem maximal zulässigen Grenzwert für den Atemwiderstand. „Dieses Modell bietet zwar ausreichenden Infektionsschutz, der erhöhte Atemwiderstand beim Einatmen kann aber bei starker körperlicher Belastung oder für ältere Personen problematisch sein,“ erklärt Schwarzbauer. Bei einem weiteren Modell wurde der Grenzwert für den Atemwiderstand nach der Gebrauchssimulation überschritten.

Fast alle FFP-2 Masken bieten wirksamem Schutz auch bei mehrfachem Tragen
12 der 15 untersuchten FFP2-Masken-Modelle haben den Labortest bestanden – zwei erfüllten nicht einmal im fabrikneuen Zustand die Anforderungen der Norm (vgl. Abbildung 2). Durch die Gebrauchssimulation waren die Masken für insgesamt 22 Stunden einer Belastung ausgesetzt, die sich durch das Atmen bei leichter körperlicher Aktivität ergeben würde. „Wird eine FFP2- Maske nur für wenige Stunden am Tag bei moderater körperlicher Aktivität getragen, dann sehe ich hinsichtlich der Schutzwirkung und des Atemkomforts kein Problem, wenn diese Maske an mehreren Tagen wiederverwendet wird,“ sagt Schwarzbauer. „Aus hygienischen Gründen sollte man die Maske nach dem Tragen aber nicht einfach in die Tasche stecken, sondern zum Trocknen aufhängen.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Schwarzbauer
E-Mail: christian.schwarzbauer@hm.edu

Weitere Informationen:
https://zenodo.org/record/5789009#.YcCu198xldh Preprint der Studie

(nach oben)


Herz-Kreislauf-Forschung lieferte Blaupause für universitäre COVID-19-Forschung

Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.
Das Deutsche Zentrum für Herz-Kreislauf-Forschung hat Pionierarbeit für die klinische COVID-19-Forschung geleistet, indem es 2020 seine klinische Forschungsplattform dem bundesweiten Netzwerk Universitätsmedizin (NUM) zur Verfügung stellte. Ab Anfang 2022 betreibt das NUM eine eigene Forschungsplattform, die dem DZHK-Modell nachempfunden ist. Das DZHK beendet dann wie geplant die operative Mitarbeit. Die DZHK-Forschungsplattform dient somit als Blaupause für die zukünftige Forschungsinfrastruktur im NUM.

„Ohne das DZHK hätte die universitäre Corona-Forschung nicht innerhalb weniger Monate mit bundesweit angelegten Studien an den Start gehen können. Das DZHK war im April 2020 im Angesicht der Corona-Krise umstandslos bereit, seine Strukturen und sein Knowhow dem NUM zur Verfügung zu stellen“, sagt Prof. Heyo Kroemer, Vorstandsvorsitzender der Charité – Universitätsmedizin Berlin, der das NUM ins Leben gerufen hatte. Der Leiter der NUM-Koordinierungsstelle, Ralf Heyder, ergänzt: „Von der langjährigen Erfahrung der DZHK-Partner mit der Logistik für große multizentrische Studien haben wir enorm profitiert. Wir bedanken uns für die extrem erfolgreiche Zusammenarbeit der letzten eineinhalb Jahre.“

Eine schnelle Lösung musste her
Als im März 2020 das neuartige Corona-Virus bekannt wurde, war schnell klar: Die universitäre Forschung musste sich im Kampf gegen Sars-Cov2 zusammentun. Um Daten und Bioproben von Erkrankten und Infizierten deutschlandweit zu erfassen, benötigte das vom Bundesministerium für Bildung und Forschung ins Leben gerufene NUM schnell eine leistungsfähige Daten- und Bioproben-Infrastruktur.

Die Forschungsplattform des DZHK wurde damals ausgewählt, weil sie für die Erforschung von COVID-19 alle Voraussetzungen erfüllte. Mit ihr lassen sich klinische Daten, Patientenproben und diagnostische Bilder pseudonymisiert und komplett digital erfassen. „Wir mussten unsere Plattform, mit der wir normalerweise multizentrische klinische Studie aus dem Herz-Kreislauf-Bereich betreiben, nur an die Besonderheit der COVID-19-Forschung anpassen und Datenerfassungssysteme und Prozesse adaptieren“, sagt Dr. Julia Hoffmann, Projektleiterin an der DZHK-Geschäftsstelle.

Daten mit weltweit einzigartiger Detailtiefe
Seit November 2020 hat die Plattform Daten und Proben von 4500 Personen aus drei Kohorten des Nationalen Pandemienetzwerkes (NAPKON) erfasst, einem der Projekte des NUM. Die Daten zeichnen sich durch eine besondere Detailtiefe aus. „Die in der Forschungsplattform gesammelten Daten und geplanten molekularen Untersuchungen werden uns ein einmalig detailliertes Bild der COVID-Erkrankung und ihrer Langzeitfolgen ermöglichen“, sagt Prof. Janne Vehreschild, der mit seinem Team an den Uniklinika Frankfurt und Köln NAPKON koordiniert. „Das wird uns erlauben, die Ursachen für schwere Verläufe und Folgeschäden noch genauer aufzuschlüsseln und uns Hinweise geben, wie wir unsere Patientinnen und Patienten besser schützen und behandeln können”. Über 60 Forschungsprojekte sind bereits beantragt bzw. angelaufen.

NUM betreibt Plattform nach DZHK-Vorbild weiter
In Zukunft werden die Infrastrukturpartner des DZHK die Corona-Daten nach dem Vorbild des DZHK unter Regie des NUM erfassen. „Dass wir die Blaupause für eine NUM-Forschungsplattform geliefert haben, sehen wir als Zeichen für Qualität und höchsten Standard. Mit unserer Plattform konnte die Datenerfassung schnell anlaufen. Jetzt freuen wir uns, unseren Fokus wieder ganz auf die Herz-Kreislauf-Forschung richten zu können.“, sagt DZHK-Vorstandssprecherin Prof. Stefanie Dimmeler.

Hintergrund
Die klinische Forschungsplattform des DZHK ermöglicht den deutschlandweiten Betrieb multizentrischer klinischer Studien und die nachhaltige Verwertung der Forschungsdaten und -proben. An der Plattform sind mehrere Infrastrukturpartner an unterschiedlichen DZHK-Standorten beteiligt: Die Datenhaltung- und Herausgabe erfolgt in Göttingen, das Bilddatenmanagement wird an der Charité – Universitätsmedizin Berlin und der LMU Klinikum München koordiniert, das Bioprobendokumentationssystem wird von der Universitätsmedizin Greifswald verantwortet, die Ethik-Koordination erfolgt am Helmholtz Zentrum München. Eine unabhängige Treuhandstelle in Greifswald sorgt für die Pseudonymisierung der Daten und verwaltet die Patienten-Einwilligungen.

Wissenschaftliche Ansprechpartner:
Dr. Julia Hoffmann, Leiterin Bereich Forschungsplattform, DZHK-Geschäftsstelle, julia.hoffmann@dzhk.de

Weitere Informationen:
https://NAPKON powered by DZHK
https://dzhk.de/forschung/forschungskooperationen/napkon-powered-by-dzhk/

(nach oben)


Nano-Pralinen speichern Wasserstoff

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
Ein innovativer Ansatz kann Nanoteilchen zu einfachen Speichern für Wasserstoff machen. Das leicht flüchtige Gas gilt als vielversprechender Energieträger der Zukunft und soll unter anderem Flugzeuge, Schiffe und Lastwagen klimaneutral antreiben sowie eine emissionsfreie Produktion von Stahl und Zement erlauben. Die Speicherung von Wasserstoff ist bislang allerdings aufwendig: Entweder wird das Gas in Drucktanks bei bis zu 700 bar aufbewahrt oder aber in flüssiger Form, wobei es bis auf minus 253 Grad Celsius abgekühlt werden muss – beide Verfahren kosten zusätzlich Energie.

Ein von DESY-Forscher Andreas Stierle geleitetes Team hat die Grundlage für eine neue Methode erarbeitet – die Speicherung mit winzigen, nur 1,2 Nanometer großen Nanoteilchen aus dem Edelmetall Palladium. Zwar ist schon länger bekannt, dass Palladium Wasserstoff aufsaugen kann wie ein Schwamm. „Allerdings ist es bislang ein Problem, den Wasserstoff wieder aus dem Material herauszubekommen“, erläutert Stierle. „Deshalb versuchen wir es mit Palladium-Teilchen, die lediglich rund einen Nanometer messen.“ Ein Nanometer ist ein millionstel Millimeter.

Damit die Winzlinge hinreichend stabil sind, werden sie durch einen Kern aus dem seltenen Edelmetall Iridium stabilisiert. Zusätzlich sind sie auf Graphen fixiert, einer extrem dünnen Lage aus Kohlenstoff. „Auf Graphen können wir die Palladiumteilchen in Abständen von nur zweieinhalb Nanometern verankern“, berichtet Stierle, der das DESY-NanoLab leitet. „Das Ergebnis ist eine regelmäßige, periodische Struktur.“ Das Team, zu dem auch Forscherinnen und Forscher der Universitäten Köln und Hamburg gehören, hat seine Arbeit im Fachblatt „ACS Nano“ der Amerikanischen Chemischen Gesellschaft (ACS) veröffentlicht.

An DESYs Röntgenlichtquelle PETRA III ließ sich verfolgen, was beim Kontakt der Palladium-Teilchen mit Wasserstoff passiert: Der Wasserstoff bleibt im Wesentlichen an ihren Oberflächen haften – in das Innere der Klümpchen dringt kaum etwas ein. Bildlich gesprochen ähneln diese Nanoteilchen einer Praline: In der Mitte befindet sich eine Iridium-Nuss, umhüllt von einer Marzipanschicht aus Palladium, ganz außen folgt als Schoko-Überzug der Wasserstoff. Zur Entladung des Speichers reicht eine leichte Erwärmung: Da die Gasmoleküle sich nicht den Weg aus dem Inneren bahnen müssen, löst sich der Wasserstoff rasch von der Teilchen-Oberfläche ab.

„Als nächstes wollen wir herausfinden, welche Speicherdichten wir mit der neuen Methode erreichen könnten“, sagt Stierle. Bevor jedoch an einen praktischen Einsatz zu denken ist, gibt es noch manche Herausforderung zu meistern. So dürften andere Formen von Kohlenstoffstrukturen besser als Graphen als Trägermaterial geeignet sein – hier denken die Fachleute über Kohlenstoffschwämme mit winzigen Poren nach. In ihnen sollten sich die Palladium-Nanoteilchen in nennenswerten Mengen unterbringen lassen.

Mit diesem und anderen innovativen Konzepten für die Wasserstoffwirtschaft und eine nachhaltige Energieversorgung befasst sich auch die neue Ausgabe von DESYs Forschungsmagazin „femto“. Das Heft zeigt, wie Grundlagenforschung zu Innovationen für die Energiewende beitragen kann. Dabei geht es nicht nur um den Energieträger Wasserstoff, sondern auch um nachhaltige Solarzellen und neuartige Formen der Energiegewinnung sowie um mehr Energieeffizienz in der Forschung selbst, beim Betrieb großer Teilchenbeschleuniger: www.desy.de/femto