Samstag, April 17, 2021
Start Aktuelles Tägliche Meldungen

Tägliche Meldungen

Meldungen 2010 Meldungen 2011 Meldungen 2012 Meldungen 2013
Meldungen 2014 Meldungen 2015 Meldungen 2016 Meldungen 2017
Meldungen 2018 Meldungen 2019 Meldungen 2020  
   
Umwelt
Gesundheit
Gesellschaft
Umwelt
17.04.2021 Kampf gegen Mikroplastik: Neues Verfahren zur Herstellung von Dämmstoff aus Kunststoffabfällen
15.04.2021 Zuverlässig messen, ob Flüssen und Seen die Luft ausgeht
14.04.2021 Entwicklung von Wasserstofftanks für Kraftfahrzeuge
11.04.2021 Trotz verbessertem Umweltmonitoring: Der ökologische Zustand von europäischen Gewässern verschlechtert sich
10.04.2021 Wirkung des Lockdowns auf Luftqualität an den Straßen und damit im Alltag zu spüren
09.04.2021 Die Pandemie für den Umweltschutz nutzen
07.04.2021 Welche Rolle spielt das Grundwasser für die Küstenmeere?
06.04.2021 Grüner Wasserstoff: Transport im Erdgasnetz
05.04.2021 Ein neuer Zustand des Lichts
01.04.2021 Neuer Schwung für die Elektromobilität: Entwicklung von effizienteren Lithium-Ionen-Batterien
Gesundheit
13.04.2021 Mehr als die Summe der Mutationen – 165 neue Krebsgene mit Hilfe maschinellen Lernens identifiziert
03.04.2021 Röntgenlichtquelle PETRA III identifiziert vielversprechende Kandidaten für Coronamedikamente
Gesellschaft
16.04.2021 Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik
12.04.2021 Mehr Brot und Süßigkeiten im Lockdown
08.04.2021 Aktuelle Auswertung von Lohnspiegel.de – Diese fünf Faktoren bestimmen Ihr Gehalt
04.04.2021 Apokalyptische und Postapokalyptische Studien
02.04.2021 Covid-19 und der öffentliche Raum in der Krise
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.03.2021 Neue Methode für die Speicherung erneuerbarer Energien
28.03.2021 Die beständige Gefahr nach Landschaftsbränden: Verkohlte Pflanzen enthalten schädliche freie Radikale
27.03.2021 Neuartige, haltbare biologisch abbaubare Flaschen aus Biokunststoffen
26.03.2021 DBFZ präsentiert umfangreich erweiterte Onlinedatenbank zu biogenen Rohstoffen
25.03.2021 Emissionsrückgang aufgrund der Corona-Lockdowns hat das globale Klima nicht wesentlich beeinflusst
22.03.2021 Mit „innovatION“ nationale und internationale Wasserressourcen sichern
21.03.2021 Risiken von Wasserknappheit begrenzen: Bewässerungsmanagement entscheidend für Bioenergie-Anbau zum Klimaschutz
20.03.2021 Auf der Suche nach Lösungen für Klimawandelfolgen in Nord- und Ostsee: Küstenforschungsverbund KüNO geht in dritte Runde
19.08.2021 Lachsdetektor zur Erfolgskontrolle am Rhein
18.03.2021 Mikroplastik in der Elbe
14.03.2021 Erste Lausitzer Wasserkonferenz in Cottbus startet durch
13.03.2021 Europäisches Forschungsnetzwerk untersucht die Mikroplastikbelastung von Ackerböden
12.03.2021 Klimawandel verändert Abflussmenge von Flüssen
11.03.2021 Erholung an europäischen Gewässern bringt Volkswirtschaft 800 Milliarden Euro
10.03.2021 Neue Studie zeigt: Mehr Müll durch COVID-19 Pandemie
09.03.2021 Eine “Modell-Botschaft” für die Ostsee: die weitere Umsetzung von Nährstoff-Reduktionen wird am Ende erfolgreich sein
08.03.2021 Die Weltmeere sickern tiefer in die Erde als erwartet
06.03.2021 Energiewende der Schweiz
04.03.2021 BLUE PLANET Berlin Water Dialogues – Virtuelle Vernetzungsmöglichkeiten mit der internationalen Wasserbranche
02.03.2021 Die Mikroplastik-Belastung der Ostsee: Neue Ansätze für Monitoring und Reduktionsmaßnahmen
Gesundheit
23.03.2021 Wenn Salz, dann Jodsalz
15.03.2021 TU Berlin: Weniger Behandlungsfälle trotz Pandemie
07.03.2021 Virus-Varianten in der Pandemie schneller aufspüren
03.03.3021 70 Prozent weniger Darmkrebs-Todesfälle nach Vorsorge-Darmspiegelung
Gesellschaft
30.03.2021 Arbeitszeit von Männern und Frauen: Wunsch und Wirklichkeit klaffen auseinander
29.03.2021 IAB-Arbeitsmarktbarometer legt weiter zu, dennoch bleiben Risiken
24.03.2021 Grundsteuer belastet vor allem ärmere Haushalte in Mietwohnungen
17.03.2021 Arbeitsbedingungen in sozialen Berufen verschlechtern sich weiter
16.03.2021 Internetnutzung von Menschen in der zweiten Lebenshälfte während der Pandemie: Soziale Ungleichheiten bleiben bestehen
05.03.2021 2019 gingen weniger Beschäftigte vorzeitig in Rente
01.03.2021
kompetenzz-Studie zeigt: Partnerschaftliche Teilung der Arbeit im Haushalt – Frauen wollen sie, Männer auch
Umwelt
Gesundheit
Gesellschaft
Umwelt
28.02.2021 Golfstrom-System schwächer als je zuvor im vergangenen Jahrtausend
26.02.2021 Report: Energiewende-Projekt Ariadne diskutiert mit Menschen aus ganz Deutschland zur Strom- und Verkehrswende
25.02.2021 Cyanobakterien könnten die Plastikindustrie revolutionieren
23.02.2021 Erhöhter Wasserverbrauch in Zeiten des Lockdowns. Was bedeuten veränderte Routinen für die Versorgungssicherheit?
22.02.2021 Der Meeresspiegel an Nord- und Ostseeküste steigt
21.02.2021 Ein neuer Master-Studiengang Biotechnologie
19.02.2021 Perspektiven-Papier zeigt Forschungsbedarf zur unterirdischen Wasserstoffspeicherung
17.02.2021 Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem
16.02.2021 Wärmere Winter führen zu weniger Heringsnachwuchs in der westlichen Ostsee
15.02.2021 Ganzheitliches Aktivkohleverfahren beseitigt Spurenstoffe in Kläranlagen
14.02.2021 Verborgenes Wissen heben, um Ökovielfalt der Meere zu retten
11.02.2021 ACHEMA Pulse – das neue digitale Flagschiff für die Prozessindustrie setzt Segel
10.02.2021 Wie beeinträchtigt der Biokraftstoff E10 Filtersysteme im Auto?
07.02.2021 MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich
06.02.2021 CO2 ist nicht alles: Klimapolitik braucht stärkeren Fokus auf kurzlebige Schadstoffe
05.02.2021 Plastik in der Umwelt finden und vermeiden
02.02.2021 Folgen des Klimawandels an der Küste
01.02.2021 Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem
Gesundheit
24.02.2021 Klimawandel spielte womöglich wichtige Rolle bei der Entstehung vom SARS-CoV-2
20.02.2021 Schnellere und richtigere Diagnosen
13.02.2021 Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit
12.02.2021 Studie in Tansania: Traditionelle Ernährung verursacht weniger Entzündungen
03.02.2021 Höhere Tierwohlstandards lassen Milchpreise steigen
Gesellschaft
27.02.2021 Lerntechnologien und Mathematikdidaktik gemeinsam entwickeln
10.02.2021 BAuA-Arbeitszeitbefragung: Arbeitszeitgeschehen zeigt positive Trends bei hoher Stabilität
09.02.2021 Mit KI den Parkdruck auf der Straße messen
07.02.2021 Wie beeinflusst die Pandemie unser Denken und Fühlen?
02.02.2021 Fußball und Inklusion: Auf das richtige Trainingsklima kommt es an
Januar 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.01.2021 Neue Untersuchungen bestätigen Munitionsbelastung in der Ostsee erneut
29.01.2021 CO2-Bepreisung allein bringt technologischen Wandel kaum voran
28.01.2021 Stress an den deutschen Flüssen: Der Klimawandel setzt Umwelt und Wirtschaft unter Druck
27.01.2021 Regionaler Wasserstoff aus Biomasse – sauber und effizient!
26.01.2021 Permanenter Hitzezustand / Klimawandel fördert das Aufheizen von Seen
25.01.2021 Benzinpreise steigen nach CO2-Bepreisung und Mehrwertsteuererhöhung weniger als erwartet
24.01.2021 Klimawandel und Wasserstraßen
22.01.2021 KIT: Thermomagnetische Generatoren wandeln Abwärme auch bei kleinen Temperaturunterschieden in Strom
21.01.2021 Kommt Trinkwasser bald aus dem Meeresboden?
20.01.2021 Grundwasser beeinflusst die Chemie des Ozeans
18.01.2021 Corona-Trend Angeln: Die Artenvielfalt könnte profitieren
16.01.2021 Das neue Gesicht der Antarktis
14.01.2021 Seilbahnen als umweltfreundliche Alternative zum Autoverkehr
12.01.2021 Stadtlogistik: Wie lässt sich die „Letzte Meile“ möglichst nachhaltig gestalten?
10.01.2021 Verzicht auf Silvesterfeuerwerk erspart der Umwelt Tausende Tonnen Kunststoffe
07.01.2021 TU Berlin: Klärschlämme und Plastikfolien kontaminieren die Felder
05.01.2021 Neuer Forschungsverbund als „Turbo für Atmosphären- und Klimaforschung sowie Meteorologie“
02.01.2021 Speicherung erneuerbarer Energien und CO2-Verwertung
Gesundheit
30.01.2021 An der Uhr gedreht: Wie Zeit das Arbeitsgedächtnis beeinflusst
19.01.2021 Corona-Warn-App auf dem Prüfstand
17.01.2021 Schlaf für Erholung des Gehirns unersetzlich
13.01.2021 Erste Daten des Corona-Impfstoffes zeigen gute Verträglichkeit, aber schwache Immunreaktion
09.01.2021 Stellungnahme des KKNMS zur Methode der mRNA Vakzinierung
08.01.2021 Ein unbehandelter Bluthochdruck erhöht das Risiko für schwere COVID-19-Verläufe
04.01.2021 Generation 80+: Impfbereitschaft gut, Erreichbarkeit der Impfzentren schlecht
03.01.2021 Immunüberreaktion erklärt schweren COVID-19 Verlauf bei Patient*innen mit Bluthochdruck – Können ACE-Hemmer helfen?
Gesellschaft
23.01.2021 Erfolgsfaktoren für die Gestaltung einer teamorientierten Arbeitswelt
15.01.2021 Wenn ältere Beschäftigte ihr Wissen nicht mit Jüngeren teilen
11.01.2021 Menschen hören das, was sie zu hören erwarten
06.01.2021 Studie: Wie (un)beliebt ist die „Corona-Warn-App“?
01.01.2021 IAB-Arbeitsmarktbarometer: Arbeitsmarktentwicklung bleibt stabil

 


Kampf gegen Mikroplastik: Neues Verfahren zur Herstellung von Dämmstoff aus Kunststoffabfällen

Magister Susanne Pitro Presse und Veranstaltungsmanagement
Freie Universität Bozen
Ein Schaumstoff zur akustischen und thermischen Dämmung von Gebäuden, der aus Mikroplastik im Meer gewonnen werden kann: Mit dieser Innovation will der Forscher Marco Caniato von der Fakultät für Naturwissenschaften und Technik einen konkreten Beitrag zur Reduzierung des Plastikmülls in unseren Ozeanen leisten. Das Verfahren beruht auf einem Biopolymer, das aus der Verarbeitung von Rotalgen gewonnen wird.

Sekundäres Mikroplastik, also Plastikpartikel, die kleiner als 5 Millimeter sind, und aus weggeworfenen Plastikflaschen und diversen Kunststoffverpackungen entstehen, macht etwa 68 bis 81% des Mikroplastiks in unseren Ozeanen aus (Quelle: Europäisches Parlament). Laut den Vereinten Nationen befanden sich im Jahr 2017 bis zu 51 Billionen solcher Plastikpartikel in den Weltmeeren, das seien 500 Mal mehr Partikel als Sterne in unserer Galaxie. Angesichts dieser weltweiten Problematik sind die Aufbereitung und der Lebenszyklus von Kunststoffen zu einer riesigen Herausforderung geworden, von der die biologische Vielfalt der Meere und das Überleben vieler Fischarten abhängt. Darüber hinaus weiß man noch nicht genau, wie sehr diese Mikropartikel über die Nahrungskette auch dem Menschen schaden.

Eine vielversprechende Innovation in diesem Bereich kommt nun von Marco Caniato, einem Forscher und Dozenten der Fakultät für Naturwissenschaften und Technik aus der Forschungsgruppe rund um Prof. Andrea Gasparella: Seine patentierte Erfindung beruht auf der Nutzung eines Biopolymers, das sich als extrem effizientes thermisches und akustisches Isoliermaterial erwiesen hat. In Zusammenarbeit mit der Universität Triest entwickelte Caniato dieses Polymer aus einem Extrakt der Meeresalge Agar Agar, ein Polysaccharid, das häufig als rein pflanzliches Geliermittel mit der Konsistenz eines Gels verwendet wird, und in diesem Fall nach Zugabe von Kalziumkarbonat mit pulverisiertem Kunststoff vermischt wird.

Um dem in den Ozeanen am weitesten verbreiteten Mikroplastik möglichst nahe zu kommen, verwendeten die Forscher Kunststoffabfälle aus dem Industrie- und Haushaltsbereich (Polyethylen, PET-Flaschen, expandiertes und geschäumtes Polystyrol). Nach dem Gelieren werden die Proben 12 Stunden lang bei -20 °C eingefroren und anschließend gefriergetrocknet, um das Wasser zu entfernen. Das Endprodukt ist ein poröses Material, das zum Beispiel als Alternative zu Steinwolle verwendet werden kann. Doch nicht nur das Produkt selbst, auch sein Herstellungsprozess, ist umweltfreundlich. So wird selbst das Wasser wiederverwendet, das am Ende der Gefriertrocknung nach dem Auftauen abgegeben wird.

Die Entwicklung solch innovativer Technologien zur Abfallverwertung sind in der Wissenschaft keine Neuigkeit. So wurde beispielsweise ermöglicht, Glaspulver als Füllstoff für Beton oder Kunststoffabfälle als Füllstoff für Asphaltmischungen zu verwenden. Neu ist dagegen die Idee, die Plastikpartikel aus unseren Meeren zu verwerten. Dies scheiterte bisher auch an der Vermischung dieser Partikel mit anderen Abfällen sowie Meersalz, die eine Wiederverwertung schwierig machen. „Unsere Charakterisierungstests haben bestätigt, dass unser Produkt hervorragende Dämmeigenschaften hat und problemlos mit herkömmlichen Dämmstoffen wie Steinwolle oder Polyurethanschaumstoffen mithalten kann”, unterstreich Caniato. „Wir haben bewiesen, dass es mit einem nachhaltigen, sauberen und ökologischem Ansatz möglich ist, Meeresabfälle zu recyceln und daraus ein sowohl ökologisch wie auch wirtschaftlich überzeugendes Produkt herzustellen.“

Wissenschaftliche Ansprechpartner:
Marco Caniato
Free University of Bolzano
marco.caniato@unibz.it
+39 0471 017145

Originalpublikation:
https://www.sciencedirect.com/science/article/pii/S2214993721000294?via%3Dihub

Anhang
So sieht das recycelte Material aus

(nach oben)


Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik

Beate Rogler MATH+, Presse- und Öffentlichkeitsarbeit, Sekretariat MA 2-2
MATH+ Das Forschungszentrum der Berliner Mathematik
Wie Modellierungen und Simulationen von zwei Berliner Forschungsgruppen helfen, Zukunftsprognosen vorauszusagen und Entscheidungsträger zu unterstützen. Der Ansatz ist der gleiche, der Unterschied liegt in den Dimensionen. Die Arbeitsgruppe um Edda Klipp von der Humboldt-Universität konzentriert sich mit komplexen Modellen auf eine Kleinstadt; die Teams um Kai Nagel von der TU Berlin sowie Christof Schütte und Tim Conrad vom Zuse-Institut und der FU Berlin beziehen sich auf die Großstadt Berlin und Mobilfunkauswertungen. Der Standort Berlin ist weltweit bekannt für Angewandte Mathematik. Dafür steht u.a. auch der Exzellenzcluster MATH+, an dem die gesamte Berliner Mathematik beteiligt ist.

Was passiert, wenn wir alle zu Hause bleiben, wenn wir nur zur Arbeit gehen, die Schulen und Kindergärten wieder öffnen? Alles Fragen, die uns seit einem Jahr umtreiben und deren Auswirkungen wir auch täglich in den Medien verfolgen können. Diese Fragen fließen in die mathematischen Berechnungen von zwei großen Berliner Forschungsgruppen ein. Die dabei verwendeten Berechnungsmodelle beruhen auf der gleichen Methode: der agentenbasierten Modellierung. Unter Agenten versteht man hierbei virtuelle Avatare die sich in einer Computersimulation auf Basis von gegebenen Regeln bewegen und Aktivitäten ausüben. So betont Björn Goldenbogen von der Klipp-Gruppe: „Realistische Aussagen kann nur ein agentenbasiertes Modell treffen, da es die Infektionsdynamik über die Mensch-zu-Mensch-Interaktion darstellen kann.“

Die Arbeitsgruppe um Edda Klipp von der Humboldt-Universität konzentriert sich auf die Kleinstadt Gangelt, die mit 11.000 Einwohnern in der Nähe von Heinsberg liegt. Grundlagen ihres Modells sind die Agenten in ihrer typischen Wohnsituation und mit ihren typischen Tagesabläufen, wie sie in Deutschland üblich sind. Daraus entstand ein sehr komplexes Modell mit detaillierten Interaktionsmustern. Die dafür verwendeten Daten sind im Internet frei zugänglich, wie über Open Street Map oder von Daten des Robert Koch-Instituts (RKI). Wer sich hinter den Agenten verbirgt, bleibt allerdings anonym und eigene Daten wurden nicht erhoben.

Agentenbasierte Modelle können dabei über verschiedene Szenarien die Auswirkungen der Kontrollmaßnahmen und der Impfstrategie abbilden. Wichtige Ausgangsfragen sind: Was verhindert eine Infektionswelle am besten? Welche Faktoren tragen in welchem Maße zur Infektionsdynamik bei, wie etwa das Öffnen der Gastronomie? Wie wirken sich nicht-pharmazeutische Gegenmaßnahmen, wie zum Beispiel Schließungen von Schulen und Maskentragen, auf die Infektionsdynamik aus? Die unterschiedlichen Szenarien für den Lockdown werden unter diesen Fragestellungen simuliert und aus den so im Modell entstandenen Bewegungsmustern und Interaktionen können Rückschlüsse auf die Realität gezogen werden. Interessant war für die Klipp-Gruppe beispielsweise zu sehen, wie die Infektionswelle in die Altersgruppen wandert. Am Anfang stecken sich laut ihrem Modell die Kinder und jungen Menschen an. Die Älteren werden zuletzt infiziert und tragen kaum zum Treiben der Pandemie bei, da ihre Bewegungsmuster nicht sehr aktiv sind und sie weniger mit jungen Menschen zusammenkommen. Was die Frage nach einem Lockdown angeht, war laut Edda Klipp das wichtigste Ergebnis die sogenannte Bi-Modalität: „Beschließt man einen Lockdown, sollte man ihn erstens möglich früh beginnen und lange genug durchhalten.“

Als die Thematik Impfstoff aufkam, versuchte die Klipp-Gruppe, auch die Impfstrategien und ihre Auswirkungen am Beispiel von Gangelt vorherzusagen. Was passiert, wenn man nach der natürlichen Infektionswelle impft, also zuerst die am schnellsten und stärksten infizierte Gruppe? Macht es einen Unterschied, ob die Schulen geöffnet oder geschlossen sind, wenn man nach Alter impft? Ein interessantes Ergebnis dabei war, dass die Todeszahlen auch sinken, wenn die Schulen offenbleiben. Ein anderes besagt, dass eine Impfstrategie, die am Anfang die Menschen mit den höchsten Interaktionen impft, die sogenannte Herdenimmunität am frühesten erreichen lässt.

Das Modell der Klipp-Arbeitsgruppe ist öffentlich und frei zugänglich und für jeden kleineren Ort in Deutschland als generelles Konzept anwendbar, auch für zukünftige Pandemien. Die Grundidee am Anfang war, lokale Hilfestellungen zu geben, ohne dass damit kommerzielle Zwecke verfolgt werden. So können Bürgermeister kleinerer Gemeinden das Modell herunterladen und ihre lokalen Daten eingeben, um die Prognosen zu sehen und die beste Strategie für ihren Ort zu erhalten.

Die Forschungsgruppen um Kai Nagel (TU Berlin), Christof Schütte und Tim Conrad (ZIB/FU Berlin) arbeiten in ihren agentenbasierten Berechnungsmodellen mit einer sehr großen Anzahl an Agenten. Hier werden die Bewegungsmuster von ca. ein Million Agenten, hier die Menschen in Berlin, durchgerechnet. Das sind 25% der Berliner Bevölkerung, wofür ein Hochleistungsrechner im Zuse-Institut nur etwas weniger als eine Stunde braucht. Agentenbasierte Modelle erlauben es auch, viele Regeln einsetzen und individuelle Entscheidungen mit einzubeziehen, womit ein umfangreicheres Spektrum von Effekten dargestellt werden kann.

Die Grundlage für das Modell liefert eine Software, die in Kai Nagels Gruppe entwickelt wurde, und die für die Verkehrsplanung und Mobilitätsforschung gedacht war und ist. Das Alleinstellungsmerkmal des Projektes im Gegensatz zu anderen Modellen ist die Verwendung realer tagesaktueller Daten über das Aktivitätsniveau der Bevölkerung. Dies wird aus Mobilfunkdaten abgeleitet. Auf Basis dieser realen Daten kann das agentenbasierte Modell immer wieder an die jeweils wirkliche Situation angepasst werden. Damit können mit diesem Modell Vorhersagen getroffen werden, wie sich die Infektionszahlen entwickeln, wenn entsprechende Restriktionen gelten und die Bürger*innen diese befolgen. Diese Agenten sind dann tatsächlich das Abbild bzw. das Modell, der digitale Zwilling, dieser Stadt.

Eine Erweiterung des Modells macht es möglich, dass alles, was eine Übertragung bzw. Weitergabe beinhaltet, z.B. Viren, Informationen, Fake News oder Gegenstände, damit berechnet werden kann. Das Modell kann ebenfalls frei verfügbar heruntergeladen werden und steht gemäß dem Open Source Prinzip auch anderen Wissenschaftler*innen zur Verfügung.

Natürlich gibt es laut Tim Conrad auch „die Grenzen der Modellierung, was die Zukunftsprognosen angeht, denn Modelle sagen in den meisten Fällen das vorher, was im Rahmen der vorgegebenen Regeln möglich ist. Wenn die Regeln vorschreiben, dass nach einer Infektion drei Tage zu Hause geblieben wird, dann macht der Agent in der Simulation das auch. Wenn das aber in der Realität nicht passiert, dann sind die vorhergesagten Zahlen offensichtlich anders.“ Das bedeutet, dass man die Prognosen von einem Modell natürlich nicht generell als „wahr“ annehmen darf, sondern immer prüfen und bewerten muss.

Das ganze Projekt ist dabei, laut Conrad, ein umfassender Teamerfolg, denn: „Dahinter steht ein großes Team, das viel Zeit investiert hat.“ Zeit, die nicht unbedingt in die wissenschaftliche Karriere einfließt, sondern dem Bedürfnis geschuldet ist, das mathematische Wissen für die Gesellschaft einzusetzen. In dem vom Bundesministerium für Bildung und Forschung (BMBF) finanzierten Projekt arbeiten bis zu 15 Berliner Wissenschaftler*innen.

Der grundlegende Ansatz ist bei beiden Forschungsgruppen somit gleich und basiert auf der gleichen Methodik, der agentenbasierten Modellierung. Der Unterschied liegt in der jeweiligen Größe des Untersuchungsortes und der Ausprägung bzw. in den zugrundeliegenden Daten. Für alle Wissenschaftler*innen gelten aber die gleichen Ziele: Mit Hilfe der Mathematik die Pandemie besser zu verstehen und somit Vorhersagen treffen zu können, um Handlungsanweisungen und Lösungsvorschläge anzubieten.

Wissenschaftliche Ansprechpartner:
nagel@vsp.tu-berlin.de
schuette@mi.fu-berlin.de
conrad@zib.de

Weitere Informationen:
https://mathplus.de/ – Webseite des Exzellenzclusters und Forschungszentrums der Berliner Mathematik MATH+
https://mathplus.de/news/covid-19-related-research/ – Covid-19 bezogene Forschungsprojekte bei MATH+
https://senozon.com/modus-covid/ – Forschungsgruppe MODUS-COVID: Modellgestützte Untersuchung von Massnahmen zur Eindämmung von COVID-19 (Nagel/Schütte)
https://www.zib.de/members/schuette – C. Schütte (Zuse-Institut)
https://www.zib.de/members/conrad – T. Conrad (Zuse-Institu)

Anhang
Medieninformation: Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik

(nach oben)


Zuverlässig messen, ob Flüssen und Seen die Luft ausgeht

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Abwässer tragen große Mengen organischer Substanzen in Flüsse und Seen, die zu starkem Bakterienwachstum und Sauerstoffmangel führen. Bisherige Messverfahren können diese organische Belastung nicht genau bestimmen. Ein neues Verfahren, das von Experten des Helmholtz-Zentrums Hereon mitentwickelt wurde, soll künftig ein eindeutiges Bild vom Zustand der Gewässer liefern. Die Arbeit wurde jetzt im Fachmagazin Science Advances veröffentlicht.

Wenn Abwässer aus Dörfern und Städten in Flüsse und Seen fließen, dann gelangen mit den Fäkalien große Mengen an Fetten, Eiweißen, Zuckern und anderen kohlenstoffhaltigen – organischen – Substanzen in die Natur. Diese organischen Substanzen werden von Bakterien abgebaut, die Sauerstoff verbrauchen. Je größer die Abwassermenge ist, desto besser gedeihen die Bakterien. Doch damit nimmt der Sauerstoffgehalt des Wassers immer weiter ab, bis schließlich den Fischen, Muscheln oder Würmern buchstäblich die Luft ausgeht. Weltweit sind dadurch in vielen Flüssen und Seen sauerstoffarme Todeszonen entstanden.

Bislang kein Goldstandard für Messungen
Um zu messen, wie stark die Gewässer mit organischen Stoffen aus Fäkalien belastet sind, nehmen Behörden und Umweltforscher regelmäßig Wasserproben. Weit verbreitet ist eine Messmethode, die mithilfe einer chemischen Reaktion den Gehalt an organischen Substanzen bestimmt. Wie ein internationales Team von Wissenschaftlerinnen und Wissenschaftlern jetzt zeigt, liefert diese etablierte Methode jedoch Werte, aus denen sich der tatsächliche Verschmutzungsgrad des Wassers kaum ableiten lässt. An der Studie, die jetzt im Fachjournal Science Advances erschienen ist, ist auch Prof. Helmuth Thomas, Leiter des Hereon-Instituts für Kohlenstoffkreisläufe, beteiligt. „Wir stellen in dem Artikel deshalb auch eine neue Methode vor, die Messungen künftig sehr viel zuverlässiger macht“, sagt er.

Bei der herkömmlichen Messmethode werden Wasserproben mit den Chemikalien Permanganat oder Dichromat versetzt. Diese sind besonders reaktionsfreudig und bauen in kurzer Zeit alle organischen Substanzen ab. An der Menge des verbrauchten Permanganats oder Dichromats lässt sich dann bestimmen, wie viel organische Substanz in der Wasserprobe enthalten war. Experten sprechen bei dieser Messung vom „Chemischen Sauerstoffbedarf“ (Chemical Oxygen Demand, COD). Das Problem der COD-Messung: Sie unterscheidet nicht zwischen den organischen Stoffen, die mit den Abwässern ins Wasser gelangen, und jenen, die auf natürlichem Wege entstanden sind – etwa Lignin und Huminsäuren, die beim Zerfall von Holz frei werden. Damit lässt sich die Verschmutzung des Wassers kaum vom natürlichen Gehalt an organischen Stoffen unterscheiden. „Für den Han-Fluss in Südkorea etwa haben wir mit unserer neuen Methode herausgefunden, dass die Belastung mit organischen Stoffen aus Abwässern in den vergangenen 25 Jahren abgenommen hat. Die COD-Messungen aber zeigen nach wie vor hohe Werte an“, sagt Helmuth Thomas, „weil hier die natürlichen Substanzen einen Großteil der Organik im Wasser ausmachen.“

Komplizierte biologische Analyse
Wie aber lässt sich die tatsächliche Verschmutzung besser messen? Etabliert ist hier seit Jahrzehnten eine biologische Messmethode, die jedoch sehr viel aufwendiger als die COD-Messung ist und deshalb von Behörden und Forschungseinrichtungen seltener genutzt wird. In diesem Fall wird eine Wasserprobe aus dem Fluss oder See entnommen und der Sauerstoffgehalt des Wassers als Anfangswert gemessen. Eine weitere sogenannte Parallelprobe wird sofort luftdicht verschlossen. Anschließend ruht diese Wasserprobe fünf Tage lang. In dieser Zeit bauen die Bakterien die organische Substanz ab, wobei sie den Sauerstoff im Wasser nach und nach verbrauchen. Nach fünf Tagen wird das Gefäß geöffnet und der Sauerstoff gemessen. Enthält das Wasser viel Organik, waren die Bakterien besonders aktiv. Entsprechend groß war dann der Sauerstoffverbrauch. Experten sprechen bei dieser Messung vom „Biologischen Sauerstoffbedarf“ (Biological Oxygen Demand, BOD). „Die Messung des BOD ist sehr viel genauer als die des COD, weil die Bakterien vorzugsweise die kleinen organischen Moleküle aus dem Abwasser abbauen, aber die natürlichen wie etwa Lignin unangetastet lassen“, sagt Helmuth Thomas. Allerdings habe auch die Messung des BOD ihre Nachteile. Zum einen dauere die BOD-Messung fünf Tage, während der COD-Wert nach wenigen Minuten vorliege. Zum anderen müsse man beim Abfüllen, Lagern und Vermessen der Wasserproben peinlich genau darauf achten, dass kein Sauerstoff aus der Umgebungsluft in die Probe gelange und den Messwert verfälsche. „Das ganze Handling der BOD-Messung beherrschen nur einige wenige Leute mit großer Laborerfahrung“, sagt Helmuth Thomas. „Daher bevorzugen Behörden und Forscher auch heute noch den COD – trotz großer Unsicherheiten.“

Schneller und sicherer messen
Das Team um Helmuth Thomas stellt deshalb eine alternative Methode vor, die die klassische BOD-Messung verbessert. Vorteil der Methode ist, dass nur eine Wasserprobe genommen werden muss, diese sofort verschlossen wird und der Sauerstoffverbrauch ohne Eingriff in die Probe gemessen wird. Es ist dabei nicht notwendig, die Probe nach fünf Tagen erneut zu öffnen, um den Sauerstoffgehalt zu messen. So wird vermieden, dass die Probe erneut mit Luftsauerstoff in Berührung kommt. Beim neuen Ansatz wird gleich beim Abfüllen der Wasserprobe eine optische Faser in das Probengefäß eingeführt. Über diese Faser kann der Sauerstoffgehalt anhand optischer Effekte kontinuierlich direkt in der Probe gemessen werden. Thomas: „Wir können den Sauerstoffgehalt damit nonstop messen und erhalten ein sehr viel genaueres Bild vom Sauerstoffverbrauch durch die Bakterien.“ Erste Versuche haben gezeigt, dass ein aussagekräftiges Ergebnis bereits nach rund 48 Stunden vorliegt, was die BOD-Messung erheblich beschleunigt. Alles in allem macht das optische Verfahren die BOD-Messung also nicht nur zuverlässiger, sondern auch schneller. Helmuth Thomas geht deshalb davon aus, dass sich das neue Verfahren in den kommenden Jahren als neuer Standard etabliert, der sowohl die COD- als auch die klassische BOD-Messung ablösen wird. So kann künftig beispielsweise zuverlässiger als bisher ermittelt werden, ob Maßnahmen zur Gewässerreinhaltung tatsächlich erfolgreich sind.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Helmuth Thomas
Institut für Kohlenstoff-Kreisläufe
Institutsleitung
Tel: +49 (0)4152 87-2805
Mail: helmuth.thomas@hereon.de

Originalpublikation:
doi.org/10.1126/sciadv.abc7318

(nach oben)


Entwicklung von Wasserstofftanks für Kraftfahrzeuge

Christina Kaufmann Hochschulkommunikation
Hochschule München
Kann der Wasserstoffantrieb einen wichtigen Beitrag zur klimaneutralen Mobilität leisten? Prof. Dr. Horoschenkoff von der Fakultät für Maschinenbau, Fahrzeugtechnik, Flugzeugtechnik der Hochschule München und sein Team sind davon überzeugt. Sie forschen mit Hochdruck an neuartigen Tankkonzepten um Fahrzeuge mit Brennstoffzelle wirtschaftlicher zu machen.

In Zukunft werden zwei elektrische Antriebskonzepte den Fahrzeugbau dominieren: das E-Fahrzeug mit Batterie und das E-Fahrzeug mit Brennstoffzelle betrieben mit Wasserstoff. Wasserstoff gilt als aussichtsreicher Energieträger für eine klimaneutrale Mobilität in der Zukunft. Als Treibstoff für Brennstoffzellenfahrzeuge liefert er die elektrische Energie für den Antrieb und wird CO2-neutral zu Wasser umgewandelt. Damit die Brennstoffzellenfahrzeuge gegenüber den heutigen batteriebetriebenen Elektrofahrzeugen wettbewerbsfähig werden, müssen unter anderem die Herstellkosten sinken. Die Forscher der Hochschule München wollen den Wasserstofftank gemeinsam mit BMW im Sinne von Baureihensynergien dort unterbringen, wo im E-Mobil die Batterie vorgesehen ist: Im Unterboden des Fahrzeugs. Hierfür gut geeignet ist eine Quaderform. Die Konstruktion muss dabei einem Betriebsdruck von 700 bar standhalten.

Herausforderung Wasserstofftank
Die Speicherung des Wasserstoffs für die Brennstoffzelle in Drucktanks ist technisch sehr anspruchsvoll. Derzeit verursacht die Integration von Drucktanks aufgrund ihrer zylindrischen, sperrigen Form hohe Einbußen des Kundennutzens und der Fahrdynamik. Hier setzt das Forschungsprojekt BRYSON an, das vom Bundeswirtschaftsministerium gefördert wird, und als Zielsetzung die Entwicklung von neuartigen Drucktanks für Wasserstoff im Automobilbau verfolgt. Die Hochschule München ist über ihr Competence Centre Smart Composites der Fakultät Maschinenbau, Fahrzeugtechnik und Flugzeugbau eingebunden. Die Bauweise sieht eine näherungsweise quaderförmige Tankgeometrie vor, bei der eine unerwünschte Aufweitung des Tanks durch eingearbeitete Zugstreben, die das Tankinnere durchziehen, verhindert wird. Wesentliche Herausforderungen des neuen Konzepts sind die Auslegung des Tanks, die Sicherstellung der Dichtigkeit und die Entwicklung eines geeigneten Fertigungsprozesses. Das Themengebiet Wasserstoffspeicherung in kohlenstofffaserverstärkten Tanks ist für das Team um Prof. Dr. Alexander Horoschenkoff nicht neu. Bereits in der Vergangenheit wurden Forschungsarbeiten zur Erhöhung der Betriebssicherheit von Drucktanks mit speziellen Kohlenstofffaser-Sensoren erfolgreich durchgeführt.

Unterstützung durch Nachwuchswissenschaftler
Unter Leitung von Prof. Dr. Alexander Horoschenkoff arbeiten derzeit 4 Studierende des Studiengangs Master of Applied Research in Engineering Sciences (Forschungsmaster) mit an dem Projekt. Der vor einigen Jahren eingeführte Forschungsmaster ermöglicht es Hochschulen auch an größeren Forschungsprojekten mit längeren Laufzeiten teilzunehmen. Mit Baumustern konnten bereits erste Druckversuche durchgeführt werden.

Das Projekt Bryson läuft seit Dezember 2019 und ist für eine Dauer von 3,5 Jahren ausgelegt. Das Bundeswirtschaftsministerium fördert das Projekt. Die Leitung des Projekts mit insgesamt 5 Partnern und einer Gesamtfördersumme von über 1,7 Mio. Euro liegt bei der BMW AG.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Horoschenkoff
alexander.horoschenkoff@hm.edu

Weitere Informationen:
https://www.hm.edu/allgemein/forschung_entwicklung/forschungsprojekte/projektdet…

(nach oben)


Mehr als die Summe der Mutationen – 165 neue Krebsgene mit Hilfe maschinellen Lernens identifiziert

Dr. Martin Ballaschk Pressestelle
Max-Planck-Institut für molekulare Genetik
Ein neuer Algorithmus sagt Gene vorher, die an der Entstehung von Krebs beteiligt sein können, deren DNA-Sequenz jedoch nicht zwangsläufig verändert ist. Ein Berliner Forschungsteam kombinierte unterschiedlichste Daten, analysierte sie mit „künstlicher Intelligenz“ und identifizierte so zahlreiche Krebsgene. Für die gezielte Krebstherapie in der personalisierten Medizin sowie für die Entwicklung von Biomarkern ergeben sich so neue Perspektiven.

Bei Krebs geraten Zellen außer Kontrolle. Sie vermehren sich uneingeschränkt, verdrängen dadurch andere Gewebe, zerstören Organe und beeinträchtigen so wichtige Lebensfunktionen. Die Ursache für dieses Wachstum sind in aller Regel angehäufte DNA-Veränderungen in Krebsgenen – also Mutationen in jenen Genen, die die Entwicklung der Zelle steuern. Doch einige Krebsarten entstehen bereits bei nur sehr wenigen mutierten Genen. In diesen Fällen führen andere, wenig verstandene Ursachen zu der Erkrankung.

Ein Forschungsteam vom Max-Planck-Institut für molekulare Genetik (MPIMG) in Berlin und dem Institut für Computational Biology des Helmholtz Zentrums München hat nun einen neuen Algorithmus entwickelt, der mit Hilfe von maschinellem Lernen 165 zuvor unbekannte Krebsgene identifizierte. Von diesen Genen sind längst nicht alle mutiert – offenbar kann bereits ihre Fehlregulation zu Krebs führen. Die neu entdeckten Gene stehen jedoch alle in engem Austausch mit bereits bekannten Krebsgenen. Überdies sind sie überlebenswichtig für Tumorzellen, wie sich im Zellkulturexperiment herausstellte.

Das auf den Namen „EMOGI“ (für Explainable Multi-Omics Graph Integration) getaufte Programm kann auch erklären, welche zellulären Zusammenhänge jedes der identifizierten Gene zu einem Krebsgen machen. Wie die Forschenden um Annalisa Marsico im Fachblatt Nature Machine Intelligence schildern, kombiniert das Programm dafür zehntausende Datensätze aus Patientenproben. Diese enthalten neben Sequenzdaten mit Mutationen auch Informationen über DNA-Methylierungen, die Aktivität einzelner Gene und Interaktionen von Proteinen, die an zellulären Signalwegen beteiligt sind. Ein Deep-Learning-Algorithmus erkennt in diesen Daten die Muster und molekularen Gesetzmäßigkeiten, die zu Krebs führen.

„Idealerweise haben wir irgendwann eine komplette Übersicht über alle Krebsgene, die bei verschiedenen Betroffenen einen unterschiedlichen Einfluss auf das Fortschreiten der Krebserkrankung haben können“, sagt Marsico, bis vor kurzem Leiterin einer Forschungsgruppe am MPIMG und nun am Helmholtz Zentrum München. „Das ist die Grundlage für die personalisierte Krebstherapie.“

Bei diesen neuartigen Heilverfahren werden anders als bei konventionellen Krebsbehandlungen wie der Chemotherapie die Medikamente genau auf die Krebsart zugeschnitten. „In der Klinik kann für die Erkrankten dann die jeweils beste Therapie gefunden werden – also die wirksamste Behandlung mit den wenigsten Nebenwirkungen“, erklärt die Forscherin. „Wir könnten zudem anhand der molekularen Eigenschaften den Krebs schon frühzeitig erkennen.“

„Nur wenn wir die Ursachen kennen, können wir sie auch effektiv bekämpfen oder korrigieren. Daher ist es so wichtig, möglichst viele Mechanismen zu identifizieren, die Krebs auslösen können“, sagt Marsico.

„Bisher fokussierte sich die Forschung vor allem auf krankmachende Veränderungen in der Erbgutsequenz, also im Bauplan der Zelle“, sagt Roman Schulte-Sasse, Doktorand im Team von Marsico und Erstautor der Publikation. „Dabei hat sich in den letzten Jahren gezeigt, dass auch epigenetische Störungen oder fehlgesteuerte Genaktivität zu Krebs führen können.“

Aus diesem Grund führte das Forschungsteam Daten zusammen, die auch das Geschehen in der Zelle abbilden und nicht nur auf Fehler im Bauplan abzielen. Zunächst bestätigten die Wissenschaftlerinnen und Wissenschaftler: Veränderungen der DNA-Sequenz, also Mutationen bis hin zu Vervielfachung von Erbgutabschnitten, sind tatsächlich die Haupttreiber von Krebserkrankungen sind. In einem zweiten Schritt machten sie dann die Gen-Kandidaten ausfindig, die in einem größeren Kontext zum eigentlich krebsauslösenden Gen stehen.

„Wir haben zum Beispiel Gene gefunden, deren Sequenz bei Krebs meist unverändert bleibt, die jedoch trotzdem für den Tumor unverzichtbar sind, weil sie beispielsweise die Energiezufuhr regulieren“, sagt Schulte-Sasse. Diese Gene sind auf andere Weise außer Kontrolle geraten, etwa aufgrund von chemischen Erbgut-Modifikationen wie Methylierungen. Diese verändern die DNA-Informationen selbst nicht, bestimmen jedoch über deren Genaktivität. „Solche Gene sind vielversprechende Angriffspunkte für Medikamente – weil sie aber quasi im Schatten agieren, können wir sie nur mit komplexen Algorithmen finden“, sagt Schulte-Sasse.

Das neue Programm erweitert die Kandidatenliste der Krebsgene, die in den letzten Jahren auf 700 bis 1000 Einträge angewachsen ist, um ein beachtliches Stück. Den versteckten Genen sind die Forschenden erst durch die Kombination von bioinformatischen Analysemethoden und neuesten Algorithmen der künstlichen Intelligenz auf die Spur gekommen.

„Die Wechselwirkungen von Proteinen und Genen lassen sich als mathematisch als Netzwerk, als sogenannter Graph abbilden“, sagt Schulte-Sasse. „Es ist, als wollte man das Schienennetz der Eisenbahn erraten. Jeder Bahnhof entspricht einem Protein oder Gen und jede Wechselwirkung stellt eine Zugverbindung dar.“

Mit der Hilfe von Deep Learning – also jenen Algorithmen, die der künstlichen Intelligenz in den letzten Jahren zum Durchbruch verholfen haben – entdeckten die Forschenden auch jene Zugverbindungen, die bisher unentdeckt blieben. Schulte-Sasse ließ den Computer zehntausende verschiedener Netzkarten aus 16 unterschiedlichen Krebsarten analysieren, jede enthielt zwischen 12.000 und 19.000 Datenpunkte.

In den Daten sind zahlreiche weitere interessante Details versteckt. „Wir sehen Muster, die abhängig vom jeweiligen Krebs und Gewebe sind,“ sagt Marsico. „Wir sehen das als Hinweis, dass Tumoren je nach Organ durch unterschiedliche molekulare Mechanismen ausgelöst werden.“

Das EMOGI-Programm ist nicht auf Krebserkrankungen festgelegt, betonen die Forschenden. Theoretisch kann es vielfältige biologische Daten miteinander integrieren und dort Muster finden, erklärt die Forscherin. „Nützlich könnte das vor allem für komplexe Krankheiten sein, für die vielseitige Daten erhoben werden und bei denen die Gene eine wichtige Rolle spielen. Neben Krebs sind dies auch komplexe Stoffwechselerkrankungen wie zum Beispiel Diabetes.“

Wissenschaftliche Ansprechpartner:
Prof. Annalisa Marsico
Gruppenleiterin
Helmholtz Zentrum München
+49(0)89 3187-43073
annalisa.marsico@helmholtz-muenchen.de

Roman Schulte-Sasse
Wissenschaftler
Max-Planck-Institut für molekulare Genetik
+49 (30) 8413-1172
sasse@molgen.mpg.de

Originalpublikation:
Roman Schulte-Sasse, Stefan Budach, Denes Hnisz, and Annalisa Marsico (2021): „Integration of Multi-Omics Data with Graph Convolutional Networks to Identify New Cancer Genes and their Associated Molecular Mechanisms.“ Nature Machine Intelligence. DOI: 10.1038/s42256-021-00325-y

Weitere Informationen:
https://dx.doi.org/10.1038/s42256-021-00325-y – Link zur Publikation
https://www.molgen.mpg.de/4385741/ – Link zur Pressemitteilung

(nach oben)


Mehr Brot und Süßigkeiten im Lockdown

Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Während des Lockdowns im Frühjahr 2020 nahm die Bewegung unter jüngeren Menschen in Deutschland ab, zeigt eine Umfrage unter Studierenden, die während der Jahrestagung der Deutschen Gesellschaft für Kardiologie (DGK) präsentiert wurde. Gegessen wurde hingegen mehr, vor allem Brot und Süßigkeiten.

Düsseldorf, 8. April 2021 – Um die Effekte des Lockdowns auf die Sport- und Ernährungsgewohnheiten wichtigen Teil der kardiovaskulären Primärprävention zu untersuchen, hat eine Münchner Arbeitsgruppe um Dr. Julius Steffen und Prof. Dr. Stefan Brunner eine Online-Umfrage unter Studenten mehrerer großer bayerischer Universitäten durchgeführt. Abgefragt wurden unter anderem Angaben zu Art und Dauer von sportlicher Betätigung vor, während und nach dem Lockdown sowie Veränderungen bei der Ernährung. Außerdem wurden die per Smartwatch und Smartphone gesammelten Schrittzählerdaten der 1.940 Teilnehmenden ausgewertet.

In der subjektiven Wahrnehmung hatte die körperliche Aktivität bei 44,5 Prozent der Teilnehmenden seit Lockdown-Einführung abgenommen, 32,8 Prozent gaben an, ihre Aktivitäten gesteigert zu haben. Der Sport beschränkte sich zumeist auf Laufen, Radfahren und Muskeltraining sowie Yoga. Es ließ sich beobachten, dass sportlich aktivere Teilnehmer oftmals ihr Level hielten.
Die Schrittzählerdaten ließen dann einen objektiven Blickt auf die veränderten Bewegungsgewohnheiten zu. Vor dem Lockdown gingen die Teilnehmenden pro Tag durchschnittlich 6.777 Schritte durchschnittlich, während dem Lockdown hingegen im Schnitt nur noch 4.829.

Auch die Ernährungsgewohnheiten änderten sich: 31,2 Prozent der Studienteilnehmerinnen und -teilnehmer gaben an, mehr zu essen und 16,8 Prozent, weniger als vor dem Lockdown. Die größere Nahrungsmenge war vornehmlich durch den Konsum von Brot und Süßigkeiten getrieben.

Die Lockdown-Maßnahmen scheinen also – zumindest bei Studierenden – starken Einfluss auf die Sport- und Essgewohnheiten zu haben. „Direkte Effekte auf die kardiovaskuläre Gesundheit lassen sich nicht ableiten. Sie sollten aber in Zukunft bei der Verhängung von Restriktionen zur Pandemiebekämpfung bedacht werden“, so die Studienautoren.

Zum Weiterlesen:
Alteration of Physical Activity and Nutrition Behaviour during COVID-19 Pandemic Lockdown in Young Adults (COLA-Trial)

Quelle:
Clin Res Cardol., DOI https://doi.org/10.1007/s00392-021-01843-w

Medienkontakt:
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Pressesprecher: Prof. Dr. Michael Böhm
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13
presse@dgk.org

Die Deutsche Gesellschaft für Kardiologie –Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit fast 11.000 Mit-gliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter http://www.dgk.org

Weitere Informationen:
http://www.dgk.org/presse
https://dgk.org/pressemitteilungen/2021-jahrestagung-pressemitteilungen/2021-jt-…

Anhang
Mehr Brot und Süßigkeiten im Lockdown

(nach oben)


Trotz verbessertem Umweltmonitoring: Der ökologische Zustand von europäischen Gewässern verschlechtert sich

Kerstin Theilmann Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau
Auch nach mehr als 20 Jahren europäischer Wasserrahmenrichtlinie: Viele Oberflächengewässer in Europa werden nach wie vor regelmäßig durch organische Schadstoffe wie Pflanzenschutzmittel oder Industriechemikalien in Konzentrationen belastet, die für die Ökosysteme in Flüssen, Bächen und Seen schädlich sind. Das zeigt eine aktuelle Studie des Instituts für Umweltwissenschaften iES der Universität Koblenz-Landau, für die mehrere Millionen Datensätze ausgewertet und analysiert wurden. Verbesserte Schutzmaßnahmen für Oberflächengewässer sind dringend notwendig, wie die Landauer Umweltwissenschaftlerinnen und -wissenschaftler in dem Fachjournal „Environmental International“ aufzeigen.

„Wir haben mehrere Millionen Messungen der vergangenen 15 Jahre zum Vorkommen von organischen Schadstoffen in europäischen Gewässern ausgewertet und die damit verbundenen Umweltrisiken für diese Süßwassersysteme beurteilt“, erklärt Jakob Wolfram, Erstautor der Studie. „In unserer Auswertung konnten wir zeigen, dass immer mehr und bessere Umweltproben genommen werden, gleichzeitig mussten wir aber feststellen, dass Oberflächengewässer häufig durch organische Schadstoffe beeinträchtigt werden und sich für manche Organismengruppen diese Zustände sogar zunehmend verschlechtern.“

Die Wasserrahmenrichtlinie trat im Jahr 2000 in Kraft mit dem Ziel aquatische Ökosysteme in Europa zu schützen oder in einen „guten ökologischen Zustand“ zurückzuführen. Im Zuge dieser groß angelegten Wasserstrategie wurden über Jahre europaweit umfangreiche Wasserproben genommen, welche das Vorkommen von organischen Schadstoffen in mehreren tausend Oberflächengewässern dokumentieren. Zum ersten Mal wurde nun dieser umfangreiche, zentral von der europäischen Umweltbehörde (EEA) verwaltete Datensatz mit mehr als 8 Millionen Messungen zu 352 organischen Schadstoffen in 31 Ländern für die vergangenen 15 Jahre umfassend ausgewertet und analysiert. Die Forscher beurteilten sowohl den Status als auch die Entwicklung der Wasserqualität in Europa.

Das Ergebnis der umfassenden Analyse: Viele Typen von organischen Schadstoffen, beispielsweise Industriechemikalien wie Löse- oder Reinigungsmittel, Pestizide und Pharmazeutika, werden vermehrt in den Oberflächengewässern gefunden. In lediglich einem Drittel der Gewässer konnten keine Schadstoffe pro Jahr gefunden werden. Weitere Analysen zeigten, dass in diesen Fällen die Qualität der Probennahme signifikant schlechter war. „Dies kann dazu führen, dass Belastungen nicht gefunden werden, daher haben wir auch die Qualität der Probennahme umfassend beurteilt“, so Wolfram. Dabei haben die Forscher einen klaren Zusammenhang zwischen der Qualität der Probennahme und dem Auffinden von Schadstoffen herausgestellt. „In vielen Ländern Europas wird das wahre Risiko in Oberflächengewässer weiterhin unterschätzt“, fasst Wolfram das Ergebnis zusammen.

Hauptursächlich für die Beeinträchtigung der europäischen Gewässer sind laut der Landauer Forscher Pestizide. Sie waren für rund 85 Prozent der Grenzwertüberschreitungen verantwortlich. Gewässer in landwirtschaftlich geprägten Gebieten sind daher dem höchsten Risiko ausgesetzt. Die Funktionalität und Zusammensetzung ihrer Ökosysteme sind in besonderem Maße gefährdet. An 35 Prozent der Probestellen wurde ein ökologischer Grenzwert überschritten, rund 38 Prozent der Gewässer in Europa sind beeinträchtigt. Auch Pharmazeutika treten häufig in Oberflächengewässern auf. Für diese Substanzen haben die Forscher kein akutes Risiko festgestellt, allerdings sind durch sie ausgelöste Langzeiteffekte auf aquatische Ökosysteme noch unbekannt. Der Grund: Toxizitätsdaten zu Langzeitauswirkungen von Pharmazeutika existieren nur selten. „Pharmazeutika durchlaufen einen Zulassungsprozess mit geringeren Anforderungen an die Umweltrisikobewertung als Pestizide oder Industriechemikalien“, erklärt Wolfram. Die Ungewissheit, wie diese Substanzen auf die Umwelt oder Organismen wirken könnten, sei daher insbesondere bei den Langzeiteffekten größer als beispielsweise bei Pflanzenschutzmitteln.

Die Autorinnen und Autoren der Studie sehen Süßwasserökosysteme in Europa weiterhin einem ernsthaften Risiko ausgesetzt, welches sich besonders für Fische, aquatische Insekten und Krebstiere zeigt. „Unsere Ergebnisse zeigen, dass über die Wasserrahmenrichtlinie hinaus europaweit verstärkt Bemühungen notwendig sind, um die Belastung von Gewässern durch organische Schadstoffe weiter zu reduzieren.“ Aufgrund der Vielzahl an Substanzen und der zahlreichen Eintragspfade in die Umwelt sei die Frage nach den Ursachen der Schadstoffbelastung und den notwendigen Maßnahmen nicht einfach zu beantworten, so Wolfram. Dazu müssten zunächst die noch vorherrschenden Datenlücken geschlossen werden. Ein möglicher Schritt wären sicherlich Einschränkungen in der Anwendung, strengere Umweltauflagen besonders gefährlicher Umweltschadstoffe oder deren Verbot. „Bevor wir verlässliche und passgenaue Empfehlungen aussprechen können, muss die Datenlage verbessert werden“, unterstreicht Wolfram. Zusätzlich müsste auch die Datenqualität zwischen den europäischen Ländern verbessert werden, um wirkungsvolle und zielführende Managementstrategien zu entwickeln.

Wissenschaftliche Ansprechpartner:
Universität Koblenz-Landau
Institut für Umweltwissenschaften iES
Prof. Dr. Ralf Schulz
Fortstraße 7
D-76829 Landau
Tel.: +49 6341 280-31327
E-Mail: schulz@uni-landau.de

Originalpublikation:
“Water Quality and Ecological Risks in European Surface Waters – Monitoring Improves While Water Quality Decreases” by Jakob Wolfram, Sebastian Stehle, Sascha Bub, Lara L. Petschick, Ralf Schulz. Die Studie wurde online am 5. März 2021 in der Fachzeitschrift Environment International veröffentlicht und kann via folgenden Link abgerufen werden: https://doi.org/10.1016/j.envint.2021.106479

(nach oben)


Wirkung des Lockdowns auf Luftqualität an den Straßen und damit im Alltag zu spüren

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.
Leipzig. Im Zusammenhang mit den Auswirkungen der Coronavirus-Pandemie wurde viel darüber diskutiert, wie stark sich der Lockdown auf Luftqualität und Klima auswirkt. Eine Auswertung des Leibniz-Instituts für Troposphärenforschung (TROPOS) zeigt jetzt: Der erste Lockdown im Frühjahr 2020 hat deutlich zur Verbesserung der Luft beigetragen. So war an den Verkehrsstationen im Westen und Osten von Leipzig ein Rückgang von Stickoxid (NOx) sowie Ruß (BC) zu verzeichnen. An den großen Straßen und damit für viele Menschen wurde die Luft entsprechend der Verkehrsreduktion besser.

Die Auswertung beruht auf Messdaten verschiedener Stationen in Leipzig von TROPOS und Sächsischem Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG), bei denen der Einfluss des Wetters anschließend aufwendig korrigiert wurde. Die Analyse ist vorläufig, noch nicht wissenschaftlich begutachtet und soll 2021 bei einem Fachjournal eingereicht werden.

Zur Bekämpfung der Pandemie im Frühjahr 2020 hatten sich in Deutschland am 22. März Bund und Länder auf strenge Ausgangs- und Kontaktbeschränkungen geeinigt, die bis 5. Juni auch in Sachsen für eine reduzierte Mobilität sorgten. Diese Beschränkungen gingen als Lockdown in die Umgangssprache ein und wird seitdem kontrovers diskutiert. Aus wissenschaftlicher Sicht sind diese Maßnahmen ein Feldexperiment in bisher beispiellosen Dimensionen: Die Atmosphärenforschung interessiert zum Beispiel, welche Wirkung eine Reduktion des Verkehrs auf Luftverschmutzung und Klimaerwärmung haben kann. Weltweit haben daher Forschende Daten analysiert. Darunter auch eine europaweite Studie der EU-Forschungsinfrastruktur für kurzlebige atmosphärische Bestandteile wie Aerosol, Wolken und Spurengase (ACTRIS), deren deutscher Beitrag vom TROPOS koordiniert wird.

Um die Wirkung des Lockdowns auf die lokale Luftqualität zu untersuchen, hat TROPOS am Beispiel von Leipzig diverse Messungen ausgewertet. Dazu wurden zwei stationäre Messstationen vom TROPOS verwendet: Die Station in der Permoser Straße im Nordosten Leipzigs ist etwa 150 Meter von der B6 entfernt. Die Station in der Eisenbahnstraße nahe dem Stadtzentrum befindet sich in einer stark befahrenen Straßenschlucht. Außerdem wurde der Datensatz mit Messungen der LfULG-Station in der Lützner Straße im Westen Leipzigs sowie mit Verkehrszählungen der Stadt Leipzig ergänzt.

Schnell zeigte sich, dass die Wetterlage im Frühjahr großen Einfluss auf die Luftqualität hatte: Während kurz vor dem Lockdown eine Westwind-Wetterlage mit sauberer Luft vom Atlantik vorherrschte, änderte sich in der ersten Lockdown-Woche die Großwetterlage: Ostwind brachte kontinental geprägte und stärker verschmutzte Luft aus Osteuropa nach Mitteldeutschland. Die Phase des Lockdowns im April/Mai war zudem durch geringe Niederschläge und wenig Wind geprägt, was das Anreichern von Schadstoffen in der Luft begünstigt – wie Forschende des TROPOS bereits 2020 in einer Studie zum Luftschadstoff Stickstoffdioxid in Sachsen nachweisen konnten.

Im Frühjahr 2020 überlagerten sich also zwei Effekte: Auf der einen Seite sorgte weniger Straßenverkehr für weniger Schadstoffe. Auf der anderen Seite blieben die Schadstoffe aber durch das austauscharme Wetter länger vor Ort und konnten sich so stärker anreichern. Außerdem kamen zusätzlich Schadstoffe durch Ferntransport aus Osteuropa dazu, wo das trockene Frühjahr bereits für erste Waldbrände sorgte. Für eine fundierte Analyse war es deshalb nötig, beide Effekte auseinanderhalten zu können. Dr. Dominik van Pinxteren nutzte für die statistische Analyse eine Methode aus dem Bereich des maschinellen Lernens, deren Anwendung im Bereich Luftqualität erstmals 2009 von britischen Forschern veröffentlicht wurde und die sich bereits beim „Herausrechnen“ des Wettereinflusses auf Stickstoffdioxid-Werte in Sachsen bewährt hat.

Anhand von Datenreihen aus den Jahren 2016 bis 2019 und wichtigen Faktoren wie Tageszeit, Jahreszeit, Wetter, Höhe der Grenzschicht und Herkunft der Luftmassen wurde es so möglich, per Computermodell vorherzusagen, welche Schadstoffkonzentrationen 2020 theoretisch zu erwarten gewesen wären. Die Vorhersage verglich das Team dann mit den tatsächlichen gemessenen Schadstoffkonzentrationen. Die Differenz zwischen beiden Werten entspricht insbesondere an den Messstationen in Straßennähe der Luftqualitätsverbesserung, die auf den reduzierten Verkehr zurückzuführen ist.
Für Stickoxide (NOx) zeigte sich dabei an der LfULG-Station Lützner Straße im Westen von Leipzig im Durchschnitt ein Rückgang um 25 Mikrogramm pro Kubikmeter, was knapp einem Drittel der ohne Lockdown erwarteten Konzentrationen bei vergleichbarer Wetterlage entspricht. Diese Schadstoffreduktion ist in einer Größenordnung, die dem Rückgang des Verkehrs in diesem Zeitraum entspricht: In der Lützner Straße wurden zu Beginn des ersten Lockdowns etwa 35 Prozent weniger PKW, 15 Prozent weniger Kleintransporter und 10 Prozent weniger LKW gezählt.
Für Ruß (BC), den TROPOS an der Eisenbahnstraße östlich des Leipziger Zentrums misst, ergab die Analyse einen Rückgang von bis zu 0,6 Mikrogramm pro Kubikmeter, was etwa 40 Prozent der erwarteten Konzentrationen entspricht. Im Durchschnitt ging Ruß während der reichlich zwei Monate Lockdown im Frühjahr 2020 in der Leipziger Eisenbahnstraße um 0,4 Mikrogramm pro Kubikmeter zurück, was einen Rückgang um etwa 20 Prozent entspricht.
Zum Vergleich: Die Umweltzone Leipzig hatte den Ruß zwischen 2011 und 2017 um etwa 60 Prozent reduziert. Dieser Rückgang erfolgte aber über sechs Jahre, ausgehend von einem damals noch höheren Niveau, und war nachhaltiger angelegt, weil die Umweltzone die Modernisierung der Fahrzeugflotte beschleunigte. Nachgewiesen wurde dieser Rückgang 2017 an der LfULG-Station Leipzig-Mitte, die 2020 durch Baustellen im Umfeld für die aktuelle Lockdown-Analyse jedoch nicht genutzt werden konnte. Der Trend zu mehr Kaminen und Holzheizungen macht die Fortschritte für die Luftqualität, die in den letzten Jahren im Verkehrssektor erreicht wurden, zum Teil wieder zu Nichte, in dem er für ein Ansteigen von Feinstaub und Ruß während der Heizsaison auch in den Städten sorgt. „Im städtischen Hintergrund an unserer Station am Institut, die abseits des Verkehrs liegt, waren die Effekte dagegen kaum zu spüren. Grundsätzlich sind im städtischen Hintergrund die Verkehrseinflüsse nicht mehr so dominant und sowohl für Stickoxid als auch für Ruß spielen andere Quellen eine stärkere Rolle. Darin sehen wir einen Grund für diese Unterschiede“, erklärt Dominik van Pinxteren vom TROPOS.

Fazit: Der Lockdown im Frühjahr 2020 hat auch in Leipzig zur Verbesserung der Luftqualität beigetragen, insbesondere in Straßennähe. Für die Luftschadstoffe Stickoxid und Ruß konnte unter Berücksichtigung der Witterungseinflüsse ein deutlicher Rückgang statistisch nachgewiesen werden, der ungefähr dem Rückgang des Verkehrsaufkommens entspricht. Allerdings wurden die Auswirkungen von weniger Kfz durch die Auswirkungen des trockenen Frühjahrswetters überlagert und sind daher in den reinen Messdaten nicht direkt zu erkennen. Tilo Arnhold

Links:
Verkehrsdichte, Wind und Luftschichtung beeinflussen die Belastung mit dem Luftschadstoff Stickstoffdioxid (Pressemitteilung, 26.06.2020):
https://www.tropos.de/aktuelles/pressemitteilungen/details/verkehrsdichte-wind-u…
LfULG-Projekt „Meteorologische Einflüsse auf Stickstoffdioxid“:
https://www.luft.sachsen.de/Inhalt_FuE_Projekt_Witterung_NOx_Ozon.html
Umweltzone senkt Gesundheitsbelastung deutlich (Pressemitteilung, 14.12.2017):
https://www.tropos.de/aktuelles/pressemitteilungen/details/umweltzone-senkt-gesu…
Chemische Aerosolcharakterisierung und Prozessaufklärung am TROPOS:
https://www.tropos.de/institut/abteilungen/chemie-der-atmosphaere/feldexperiment…
COVID-19 campaigns by ACTRIS:
http://www.actris.eu/Outreach/News/ACTRISUpdates.aspx

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 96 selbständige Forschungseinrichtungen verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen.
Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit.
Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,9 Milliarden Euro.
http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Dominik van Pinxteren
Wissenschaftlicher Mitarbeiter, Abteilung Chemie der Atmosphäre
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717- 7029
https://www.tropos.de/institut/ueber-uns/mitarbeitende/dominik-van-pinxteren
und
Dr. Bernd Heinold
Abteilung Modellierung Atmosphärischer Prozesse
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717- 7052
https://www.tropos.de/institut/ueber-uns/mitarbeitende/bernd-heinold
oder
Tilo Arnhold
TROPOS-Öffentlichkeitsarbeit
Tel. +49-341-2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/

Weitere Informationen:
https://www.tropos.de/aktuelles/pressemitteilungen/details/wirkung-des-lockdowns…

(nach oben)


Die Pandemie für den Umweltschutz nutzen

Helga Epp M. A. Presse & Kommunikation
Pädagogische Hochschule Freiburg
Die Aktion #freiburgprotectstheplanet bietet die Möglichkeit, im Rahmen von Kleinprojekten gemeinsam, gleichberechtigt und aktiv die eigene Müllproduktion zu reduzieren und damit gleichzeitig andere zu ähnlichen Aktionen zu inspirieren: Die Aktion läuft innerhalb des EU-Projektes MOST, welches vom Internationalen Zentrum für MINT-Bildung der Pädagogischen Hochschule Freiburg (ICSE) koordiniert wird.

Medizinische Masken am Straßenrand, Mittagessen zum Mitnehmen aus der Plastikbox, Quarantäne und social distancing – alles ganz normal geworden. Doch wie kann man in Pandemiezeiten mit anderen in Kontakt kommen, sich vernetzen und gleichzeitig etwas gegen akute Umweltprobleme unternehmen? Die Aktion #freiburgprotectstheplanet bietet die Möglichkeit, im Rahmen von Kleinprojekten gemeinsam, gleichberechtigt und aktiv die eigene Müllproduktion zu reduzieren und damit gleichzeitig andere zu ähnlichen Aktionen zu inspirieren – und das geht auch per Videokonferenz!

Die Aktion läuft innerhalb des EU-Projektes MOST, welches vom Internationalen Zentrum für MINT-Bildung der PH Freiburg (ICSE) koordiniert wird und mit der Stadt Freiburg und der Walter-Rathenau Gewerbeschule vor Ort zwei weitere Projektpartner/-innen hat.

Dabei sollen Kleinprojekte von Schüler/-innen, Expert/-innen und Bürger/-innen gemeinsam initiiert, durchgeführt, dokumentiert und anschließend beispielsweise über Social Media, Plakate oder Flyer verbreitet werden.

Unterschiedlichste Methoden wie Untersuchungen zur eigenen Abfallvermeidung, Recherchearbeiten, Umfragen, Expert/-innenbefragungen usw. sind dabei möglich und die Veröffentlichung und Verbreitung der Ergebnisse mit dem Ziel, immer mehr Umweltschützer*innen zu gewinnen, sind essenziell. In Freiburg sind so bereits Projekte zur Reduzierung von Plastikmüll im Bad entstanden, aber auch ein Projekt zur Vermeidung von Abfällen im Zusammenhang mit dem Außer-Haus-Verzehr von Restaurants.

„Das Projekt schafft es, Schulen für die Zusammenarbeit mit externen Expertinnen und Experten zu öffnen. Diese Kooperation ermöglicht kreative und innovative Lösungen für Umweltprobleme zu schaffen, die uns alle betreffen. Eine Vernetzung mit unseren internationalen Projektpartnerinnen und -partnern ist ebenfalls möglich“, sagt Bildungsbürgermeisterin der Stadt Freiburg Gerda Stuchlik.

„Mich begeistert an #freiburgprotectstheplanet besonders die Kumulation verschiedenster Themenbereiche: Regionales Arbeiten innerhalb sinnvoller und kreativer Projekte, dynamisches und gemeinsames Lernen, das Anregen von Kooperationen und das Anstoßen nachhaltiger Veränderungen im Bereich Umweltschutz. Zusätzlich entstehen ganz nebenbei alltags- und berufsbezogene Einblicke in die Möglichkeiten und Grenzen von Naturwissenschaften und Mathematik – für mich eine zentrale Mission des MINT-Unterrichts!“ – Prof. Dr. Katja Maaß, Koordinatorin von MOST

Das EU-Projekt MOST (Meaningful Open Schooling connects schools To communities) wird vom Internationalen Zentrum für MINT-Bildung (ICSE) der PH Freiburg koordiniert. Projektbeginn war im September 2020 bei dreijähriger Projektlaufzeit; 20 weitere Projektpartner/-innen in neun europäischen Städten nehmen teil. Dabei stehen im Jahr 2021 der Bereich Abfall und im Jahr 2022 der Bereich Energie im Fokus.

Wissenschaftliche Ansprechpartner:
Direktorin ICSE
Prof. Dr. Katja Maaß
Tel. 0761/682-346
maass@ph-freiburg.de

(nach oben)


Aktuelle Auswertung von Lohnspiegel.de – Diese fünf Faktoren bestimmen Ihr Gehalt

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Eine solide berufliche Qualifikation macht sich für die Beschäftigten bezahlt: Wer nach einer zwei- bis dreijährigen Berufsausbildung noch eine Meister- oder Technikerausbildung absolviert, kann mit einem Gehaltsplus von etwa 14 Prozent rechnen. Wer in seinem Berufsfeld zu den Topverdienern gehören will, sollte jedoch zusätzlich ein Studium anschließen und etwa einen Ingenieursabschluss erwerben.

Dies ist die Voraussetzung für hoch komplexe Tätigkeiten und bringt innerhalb des gleichen Berufsfeldes einen Gehaltszuwachs von rund 41 Prozent. Solch ein Aufstieg ist in Deutschland in vielen Berufsfeldern – wie dem Maschinenbau oder der sozialen Arbeit – unter bestimmten Voraussetzungen auch ohne Abitur möglich und lohnt sich auch finanziell. Ohne Ausbildungsabschluss schlägt hingegen ein Malus von -7 Prozent zu Buche. Zu diesem Ergebnis kommt eine Auswertung von über 62.000 Datensätzen des Portals Lohnspiegel.de, das vom Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) der Hans-Böckler-Stiftung betreut wird.

Das Anforderungsniveau einer Tätigkeit ist einer von fünf wesentlichen Faktoren, die in Deutschland innerhalb der gleichen Berufsgruppe die Höhe der Gehälter bestimmen. Entscheidend sind außerdem das Geschlecht der oder des Beschäftigten, das Bundesland der Anstellung, die Betriebsgröße und ob der Arbeitgeber nach Tarifvertrag zahlt. „Auch hier können die Lohnunterschiede erheblich sein und sich im Jahr auf mehrere tausend Euro belaufen“, sagt Dr. Malte Lübker, Lohnexperte am WSI. So verdienen Frauen bei gleicher Berufserfahrung im gleichen oder einem engverwandten Beruf mit dem gleichen Anforderungsniveau unter auch sonst vergleichbaren Bedingungen etwa 8 Prozent weniger als Männer. In kleinen Betrieben mit weniger als 100 Beschäftigten liegen die Gehälter in etwa 6 Prozent unter denen in mittelständischen Betrieben mit 100 bis 500 Beschäftigten. Ein Job in einem Großunternehmen macht sich hingegen mit einem Plus von 9 Prozent bezahlt. Unabhängig von der Größe zahlen tarifgebundene Betriebe deutlich mehr: Hier liegt das Lohnplus im Durchschnitt bei 11 Prozent (siehe auch die Abbildung in der pdf-Version dieser PM; Link unten). „Es lohnt sich also für die Beschäftigten in tariflosen Betrieben, für einen Tarifvertrag zu kämpfen – auch wenn der Weg dahin nicht immer einfach ist“, so WSI-Lohnexperte Lübker.

Die Datenanalyse zeigt auch, wie groß die Entgeltunterschiede innerhalb Deutschlands noch immer sind. Am besten gezahlt wird in Baden-Württemberg und Hamburg, wo die Gehälter für vergleichbare Tätigkeiten um 7 bzw. 6 Prozent über dem Niveau Nordrhein-Westfalens liegen, das für die Berechnungen als Vergleichsmaßstab verwendet wurde. Am Tabellenende stehen die ostdeutschen Flächenländer Thüringen ( 15 Prozent), Sachsen und Sachsen-Anhalt (jeweils -14 Prozent). Durch die Nähe zu den Ballungsräumen Hamburg und Berlin haben Beschäftigte in Mecklenburg-Vorpommern ( 12 Prozent) und Brandenburg ( 11 Prozent) hingegen bessere Ausweichmöglichkeiten. Dies macht sich in beiden Ländern in einem verschärften Fachkräftemangel bemerkbar, der bisher aber nur zu moderaten Lohnanpassungen geführt hat. „Eine Niedriglohnpolitik kann keine sinnvolle Antwort auf fehlende Fachkräfte sein, wenn 60 Autominuten entfernt im gleichen Beruf deutlich mehr gezahlt wird“, gibt Lohnexperte Lübker zu bedenken.

Neben den fünf wesentlichen Bestimmungsfaktoren gibt es eine Reihe von weiteren Einflüssen auf die Höhe des Gehalts. Dazu zählen das Berufsfeld selbst, die Berufserfahrung und ob jemand im Job Leitungsverantwortung übernommen hat. Das Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) hat deswegen einen Lohn- und Gehaltscheck entwickelt, mit dem Beschäftigte auf Lohnspiegel.de für über 500 Berufe eine genaue Vergleichsberechnung durchführen können. Das Angebot ist kostenlos und ohne Eingabe einer E-Mail-Adresse nutzbar.

– Informationen zur Methode –
Die ausgewiesenen Entgeltunterschiede beruhen auf einer Lohn-regression, mit deren Hilfe der Einfluss einzelner Faktoren auf das Entgeltniveau statistisch errechnet werden kann. Der Vergleich bezieht sich auf Beschäftigte mit der gleichen Berufserfahrung in der gleichen Berufsuntergruppe (4-Steller der Klassifikation der Berufe von 2010).

Als Datengrundlage dient eine kontinuierlichen Online-Umfrage des WSI-Portals Lohnspiegel.de unter Erwerbstätigen in Deutschland. Für die Analyse wurden 62.758 Datensätze berücksichtigt, die zwischen Anfang 2020 und Ende Januar 2021 erhoben wurden. Die Umfrage ist nicht-repräsentativ, erlaubt aber aufgrund der hohen Fallzahlen detaillierte Einblicke in die tatsächlich gezahlten Entgelte. Lohnspiegel.de ist ein nicht-kommerzielles Angebot der Hans-Böckler-Stiftung.

Wissenschaftliche Ansprechpartner:
Dr. Malte Lübker
WSI, Experte für Tarif- und Einkommensanalysen
Tel.: 0211 / 77 78-574
E-Mail: Malte-Luebker@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Die PM mit Abbildung (pdf): https://www.boeckler.de/pdf/pm_ta_2021_03_30.pdf

Online Ressourcen:
Der Lohn- und Gehaltscheck des WSI-Portals Lohnspiegel.de bietet individualisierte Vergleichsberechnungen für über 500 Berufe: https://www.lohnspiegel.de/lohn-und-gehaltscheck-13814.htm

Einen Überblick der Tarifvergütungen in zahlreichen Berufen und Branchen findet sich auf den Seiten des WSI-Tarifarchivs: https://www.wsi.de/de/tarifverguetungen-15296.htm

Weitere Informationen:
Ausführliche berufskundliche Informationen finden Interessenten im BERUFENET der Bundesagentur für Arbeit unter: https://berufenet.arbeitsagentur.de/berufenet/faces/index?path=null

(nach oben)


Welche Rolle spielt das Grundwasser für die Küstenmeere?

Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Eine neue Studie in Nature Reviews Earth & Environment beleuchtet die große Bedeutung von Nährstoffeinträgen durch Grundwasser in die Küstenozeane. Solche Nährstoffe können weltweit eine entscheidende Rolle für die Funktion und die Anfälligkeit von Küstenökosystemen spielen.

Die Nährstoffbudgets im Ozean sind einer Vielzahl von Einflüssen ausgesetzt. Flüsse bringen industrielle Rückstände und Dünger aus der Landwirtschaft ins Küstenmeer ein, Abwässer aus Siedlungen oder Aquakulturanlagen werden in vielen Ländern direkt eingeleitet, und sogar der Wind bläst vor allem in Wüstenregionen beträchtliche Mengen an Nährstoffen ins Meer.

Aber auch durch das Grundwasser gelangen Nährstoffe in die Ozeane. Die Meeresforschung widmet sich erst seit einigen Jahren intensiver diesem Aspekt, und im Küstenmanagement ist er bisher kaum berücksichtigt worden. Denn die Quellen sind nahezu unsichtbar, sie liegen meist unterhalb der Wasseroberfläche und sind in ihrer Anzahl und Aktivität sehr variabel.

Ein neuer Artikel in Nature Reviews Earth & Environment wertet jetzt die Ergebnisse zahlreicher Studien aus. Sie wurden weltweit an mehr als 200 Orten in Küstenbereichen vorgenommen, die von den Polar- bis in die Tropenmeere reichen. Die Untersuchungen quantifizieren die Nährstoffflüsse aus Grundwassereinträgen und erklären deren Auswirkungen für die Meeresökosysteme. Dem internationalen Autorenkollektiv gehört auch der Hydrogeologe Prof. Dr. Nils Moosdorf vom Leibniz-Zentrum für Marine Tropenforschung (ZMT) an.

60% der Studien zeigen, dass an den untersuchten Orten Nährstoffe wie Stickstoff, Phosphor und Silizium über das Grundwasser in größeren Mengen ins Meer gelangen als etwa über Flüsse, den größten Nährstoffquellen der Ozeane. Damit ist Grundwasser an vielen Stellen im Meer der wichtigste Nährstofflieferant für Küstenökosysteme. Hochrechnungen ergaben, dass das Grundwasser weltweit um die 140 Millionen Tonnen Silizium, 40 Millionen Tonnen Stickstoff und 9 Millionen Tonnen Phosphor pro Jahr ins Meer entlässt.

Süßes Grundwasser bahnt sich durch Gesteins- oder Sandschichten einen Weg ins Meer und sickert dort im Küstenbereich heraus. Die Studien berücksichtigten aber auch Nährstoffeinträge aus dem Meeressediment. Dort lagert sich organischer Abfall ab und wird zersetzt. Er kann über Hunderte von Jahren begraben liegen, bis die Nährstoffe wieder aus dem Sand herausgespült werden.

Je nach Ort bedeuten solche Stoffeinträge Segen oder Fluch für die Küstenökosysteme. Beispielsweise fördert das Grundwasser manchmal das Wachstum von Korallenriffen.

Auch die lokale Fischerei kann einen Vorteil haben. Plankton gedeiht durch die Nährstoffe besonders gut, so dass reichlich Futter für Fische vorhanden ist. Die nährstoffreichen Grundwasserquellen der australischen „Wonky Holes“ etwa sind Hotspots für Fische wie Riesenbarsche und daher von Bedeutung für Fischerei und Tourismus.

Es gibt jedoch auch negative, teils sehr massive Auswirkungen der Grundwasserströme auf die Küstenökosysteme. Vielerorts führt ein Überschuss an Nährstoffen zu Überdüngung der Gewässer und zu Algenblüten. Über das Grundwasser können giftige Schadstoffe ins Meer gelangen. Auch hat das süße Grundwasser meist einen niedrigen pH-Wert und kann an manchen Orten zur Versauerung des Küstenwassers beitragen.

Solche negativen Effekte von Nährstoffen sieht man beispielweise vor der Küste von Hawaii, wo auch kürzlich der Oberste Gerichtshof der USA entschieden hat, dass das Grundwasser besser geschützt werden muss, um den Küstenozean vor Schaden zu bewahren,

„Die Studien machen deutlich, dass Grundwasser eine sehr wichtige Nährstoffquelle für die Meere ist und eine wesentliche Komponente für die Funktion und die Anfälligkeit von Küstenökosystemen darstellt, sowohl auf lokaler als auch auf globaler Ebene“, so Moosdorf.

In Forschung und Küstenmanagement sollten laut Moosdorf daher Grundwassereinträge stärker berücksichtigt werden. Es ist zu erwarten, dass die Klimaerwärmung und eine immer intensivere Landnutzung die chemische Zusammensetzung und das Volumen der Einträge verändern werden. Ein angemessenes Verständnis ihrer Rolle im ökologischen und wirtschaftlichen Kontext ist erforderlich, um effektive Strategien im Küstenmanagement zu entwickeln.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nils Moosdorf
Leiter AG Submariner Grundwasserabfluss am Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Tel: 0421 / 23800-33
Mail: nils.moosdorf@leibniz-zmt.de

Originalpublikation:
Isaac R. Santos, Xiaogang Chen, Alanna L. Lecher, Audrey H. Sawyer, Nils Moosdorf, Valentí Rodellas, Joseph Tamborski, Hyung- Mi Cho, Natasha Dimova, Ryo Sugimoto, Stefano Bonaglia, Hailong Li, Mithra- Christin Hajati and Ling Li: Submarine groundwater discharge impacts on coastal nutrient biogeochemistry. Nature Reviews Earth & Environment. Link: https://www.nature.com/articles/s43017-021-00152-0

(nach oben)


Grüner Wasserstoff: Transport im Erdgasnetz

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Forschende der Fraunhofer-Gesellschaft haben eine Technologie entwickelt, mit der sich Wasserstoff und Erdgas kostengünstig und effizient voneinander trennen lassen. Die Membran-Technologie macht es damit möglich, die beiden Stoffe gemeinsam durch das bundesweite Erdgasnetz zu leiten und am Zielort voneinander zu trennen. Für den Transport und die Verteilung des Energieträgers Wasserstoff ist dies ein großer Fortschritt.

Das Fraunhofer-Institut für Keramische Technologien und Systeme IKTS erforscht neben Werkstoffen aus Keramik auch das Potenzial anderer Materialien, wie beispielsweise Kohlenstoff. Dieser könnte nun im Zusammenhang mit dem Trend zum Energieträger Wasserstoff eine wichtige Rolle spielen. Wasserstoff gilt als Hoffnungsträger beim Aufbau einer CO2-freien Energieversorgung. Wird er aus erneuerbaren Energien wie Wind und Sonne gewonnen, entstehen keine klimaschädlichen Emissionen. Doch wie bringt man diesen »grünen« Wasserstoff vom Erzeuger zum Verbraucher? Ein flächendeckendes Verteilernetz für Wasserstoff gibt es derzeit in Deutschland noch nicht.

An Lösungen für diese Problematik arbeitet die Projektinitiative HYPOS (Hydrogen Power Storage & Solutions East Germany). Ziel ist, eine intelligente Infrastruktur aus Verteilernetzen und Speicherstationen zu schaffen, die den sauberen Energieträger in allen Regionen zur Verfügung stellt.

Wasserstoff über das Erdgasnetz verteilen
Die Projektpartner in HYPOS verfolgen unter anderem den Ansatz, den Wasserstoff (H2) gemeinsam mit dem Erdgas (Hauptbestandteil Methan, CH4) zu transportieren. Schließlich verfügt Deutschland über ein 511 000 Kilometer langes Gasnetz und 33 Orte mit Gasspeichern. »Dieser Infrastrukturvorteil erlaubt es, ins Erdgasnetz zusätzlich Wasserstoff einzuspeisen. Beide Stoffe können gemeinsam in einer Leitung transportiert werden. Am Zielort lassen sie sich bedarfsgerecht wieder voneinander trennen«, erklärt Dr. Adrian Simon, Gruppenleiter am Fraunhofer IKTS.

Hier kommt der Kohlenstoff ins Spiel. Dieser befindet sich als hauchdünne Schicht auf einem porösen, keramischen Trägermaterial und dient als Membran, die Erdgas und Wasserstoff voneinander trennt. Die Membranherstellung umfasst mehrere Schritte, beginnend mit der maßgeschneiderten Polymersynthese. Polymere sind Stoffe, die aus verzweigten Ketten von Makromolekülen bestehen. Diese werden anschließend auf das poröse Trägermaterial aufgebracht. Durch Erhitzen unter gleichzeitigem Ausschluss von Sauerstoff bildet das Polymer an seiner Oberfläche eine Kohlenstoff-Schicht aus. Im Kohlenstoff haben die Poren einen Durchmesser von unter einem Nanometer, wodurch sie sich gut für die Gastrennung eignen. Das Trennverhalten der Membran lässt sich durch physikalische und chemische Prozesse noch weiter einstellen. Bei der Entwicklung der röhrenförmigen Kohlenstoff-Membranen hat das Fraunhofer IKTS mit dem Leipziger Unternehmen DBI Gas- und Umwelttechnik GmbH zusammengearbeitet.

Im Trennungsprozess werden Wasserstoff und Erdgas durch die röhrenförmigen Module getrieben. Dabei werden die kleineren Wasserstoffmoleküle durch die Poren der Membran gedrückt und gelangen als Gas nach außen, die größeren Methanmoleküle hingegen bleiben zurück. »Auf diese Weise erhalten wir Wasserstoff mit einer Reinheit von 80 Prozent. Die verbliebenen Erdgasreste filtern wir in einer zweiten Trennstufe aus. So erzielen wir eine Reinheit von über 90 Prozent«, erklärt Simon.

Emissionsfreie Strom- und Wärmeversorgung in Gebäuden
Wasserstoff mit diesem Reinheitsgrad lässt sich für verschiedene Anwendungen nutzen, beispielsweise in der Stahlproduktion. Hier ersetzt er im Hochtemperaturofen den Kohlenstoff bei der Reduktion von Eisenerz zu Eisen und liefert damit einen wichtigen Beitrag zur CO2-Reduktion. Auch bei der klimafreundlichen Energieversorgung von Gebäuden ist Wasserstoff eine attraktive Option. Bei der Verbrennung entstehen Strom und Wärme, als Nebenprodukt fällt lediglich Wasser an. So könnten beispielsweise Blockheizkraftwerke (BHKW) einzelne Gebäudekomplexe oder Stadtviertel mit sauberem Strom und Wärmeenergie beliefern. Auch der Einsatz in Gasthermen ist denkbar.

Derzeit arbeiten die Forschenden des Fraunhofer IKTS daran, die Technik so zu skalieren, dass auch größere Volumina Erdgas und Wasserstoff getrennt werden können. Hierfür ist der Bau von Prototypen bereits in Planung.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/april-2021/gruener-…

(nach oben)


Ein neuer Zustand des Lichts

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Ein einziges „Super-Photon“ aus vielen Tausend einzelnen Lichtteilchen – rund zehn Jahre ist es her, dass Forscher der Universität Bonn einen solchen extremen Aggregatzustand zum ersten Mal herstellten. Prof. Dr. Martin Weitz und Prof. Dr. Johann Kroha berichten von einem neuen, bisher unbekannten Phasenübergang in einem solchen optischen Bose-Einstein-Kondensat. Es handelt sich dabei um eine sogenannte überdämpfte Phase. Die Ergebnisse könnten langfristig für die verschlüsselte Quantenkommunikation relevant sein. Die Studie ist in der Fachzeitschrift Science erschienen. ACHTUNG SPERRFRIST: Nicht vor Donnerstag, 1. April, 20:00 Uhr veröffentlichen!

Das Bose-Einstein-Kondensat ist ein extremer Aggregatzustand, der üblicherweise nur bei sehr niedrigen Temperaturen stattfindet. Das Besondere: Die Teilchen in diesem System lassen sich nicht mehr unterscheiden und befinden sich überwiegend im selben quantenmechanischen Zustand, verhalten sich also wie ein einziges riesiges „Superteilchen“. Der Zustand kann daher durch eine einzige Wellenfunktion beschrieben werden.

2010 gelang es den Forschern um Martin Weitz zum ersten Mal, ein Bose-Einstein-Kondensat aus Lichtteilchen (Photonen) zu erzeugen. Bis heute hat sich ihr spezielles System bewährt: Die Physiker fangen Lichtteilchen in einem Resonator aus zwei gekrümmten Spiegeln ein, die in einem Abstand von nur etwas mehr als einem Mikrometer angeordnet sind und einen sich schnell hin- und herbewegenden Lichtstrahl reflektieren. Der Zwischenraum ist gefüllt mit einer flüssigen Farbstofflösung, die dazu dient, die Photonen abzukühlen. Dazu „verschlucken“ die Farbstoffmoleküle die Photonen und spucken sie anschließend wieder aus, wodurch die Lichtteilchen auf die Temperatur der Farbstofflösung – entspricht Raumtemperatur – gebracht werden. Hintergrund: Das System macht es überhaupt erst möglich, Lichtteilchen abzukühlen, denn ihre natürliche Eigenschaft ist es, sich bei Abkühlung aufzulösen.

Klare Trennung zweier Phasen
Phasenübergang – so nennen Physiker den Übergang zwischen Wasser und Eis beim Gefrieren. Aber wie kommt es zu dem besonderen Phasenübergang innerhalb des Systems der eingefangenen Lichtteilchen? Die Wissenschaftler erklären es so: Durch die etwas lichtdurchlässigen Spiegel gehen Photonen verloren und werden wieder ersetzt – ein Nichtgleichgewicht, das dazu führt, dass das System keine eindeutige Temperatur einnimmt und in eine Schwingung versetzt wird. Das lässt einen Übergang zwischen dieser oszillierenden Phase und einer gedämpften Phase entstehen. Gedämpft bedeutet, dass die Amplitude der Schwingung abnimmt.

„Die von uns beobachtete überdämpfte Phase entspricht sozusagen einem neuen Zustand des Lichtfelds“, sagt Erstautor Fahri Emre Öztürk, Doktorand am Institut für Angewandte Physik der Universität Bonn. Die Besonderheit ist, dass der Effekt des Lasers üblicherweise nicht von dem der Bose-Einstein-Kondensation durch einen Phasenübergang getrennt ist und es keine scharf definierte Grenze zwischen beiden Zuständen gibt. Das bedeutet, dass die Physiker kontinuierlich zwischen den Effekten hin- und herfahren können.

„In unserem Experiment ist hingegen der überdämpfte Zustand des optischen Bose-Einstein-Kondensats durch einen Phasenübergang von sowohl dem oszillierenden Zustand als auch einem üblichen Laser getrennt“, sagt Studienleiter Prof. Dr. Martin Weitz. „Das zeigt, dass es ein Bose-Einstein-Kondensat gibt, das wirklich ein anderer Zustand als der übliche Laser ist. Anders ausgedrückt, haben wir es mit zwei getrennten Phasen des optischen Bose-Einstein-Kondensats zu tun“, betont er.

Aufbauend auf den Ergebnissen wollen die Wissenschaftler in weiteren Studien nach neuen Zuständen des Lichtfelds in mehreren gekoppelten Lichtkondensaten suchen, die in dem System ebenfalls auftreten können. „Wenn in gekoppelten Lichtkondensaten geeignete quantenmechanisch verschränkte Zustände auftreten, kann das interessant sein, um quantenverschlüsselte Nachrichten zwischen mehreren Teilnehmern zu übertragen“, sagt Fahri Emre Öztürk.

Förderung:
Die Studie erhielt finanzielle Unterstützung durch den von der Deutschen Forschungsgemeinschaft geförderten Sonderforschungsbereich TR 185 „OSCAR – Kontrolle atomarer und photonischer Quantenmaterie durch maßgeschneiderte Kopplung an Reservoire“ der Universitäten Kaiserslautern und Bonn sowie den Exzellenzcluster ML4Q der Universitäten Köln, Aachen, Bonn sowie des Forschungszentrums Jülich. Der Exzellenzcluster ist eingebettet in den Transdisziplinären Forschungsbereich (TRA) „Bausteine der Materie und grundlegende Wechselwirkungen“ der Universität Bonn. Darüber hinaus wurde die Studie gefördert durch die Europäische Union im Rahmen des Projekts „PhoQuS – Photons for Quantum Simulation“ und das Deutsche Zentrum für Luft- und Raumfahrt mit Mitteln des Bundesministeriums für Wirtschaft und Energie.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martin Weitz
Institut für Angewandte Physik
Universität Bonn
Tel.: +49-(0)228-73-4837
E-Mail: weitz@uni-bonn.de

Dr. Julian Schmitt
Institut für Angewandte Physik
Universität Bonn
Tel.: +49-(0)228-73-60122
E-Mail: schmitt@iap.uni-bonn.de

Prof. Dr. Johann Kroha
Physikalisches Insitut
Universität Bonn
Tel.: +49-(0)228-73-2798
E-Mail: kroha@physik.uni-bonn.de

Originalpublikation:
Fahri Emre Öztürk, Tim Lappe, Göran Hellmann, Julian Schmitt, Jan Klaers, Frank Vewinger, Johann Kroha & Martin Weitz: Observation of a Non-Hermitian Phase Transition in an Optical Quantum Gas. Science, DOI: 10.1126/science.abe9869

Weitere Informationen:
http://Video: be/PHSNJIu2IVo

(nach oben)


Apokalyptische und Postapokalyptische Studien

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Mit dem kulturübergreifenden Phänomen von der Weissagung des Weltendes, insbesondere angesichts aktueller globaler Bedrohungen, beschäftigt sich eine neue transdisziplinäre Forschungseinrichtung an der Universität Heidelberg: Das Käte Hamburger Kolleg für Apokalyptische und Postapokalyptische Studien – das Centre for Apocalyptic and Post-Apocalytic Studies (CAPAS) – hat mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) seine Arbeit aufgenommen. Zur Bearbeitung seiner Themen lädt das CAPAS Wissenschaftlerinnen und Wissenschaftler aus aller Welt zu Forschungsaufenthalten nach Heidelberg ein. Neues Käte Hamburger Kolleg nimmt Arbeit an der Universität Heidelberg auf.

Mit dem kulturübergreifenden Phänomen von der Weissagung des Weltendes, insbesondere angesichts aktueller globaler Bedrohungen, beschäftigt sich eine neue transdisziplinäre Forschungseinrichtung an der Universität Heidelberg: Das Käte Hamburger Kolleg für Apokalyptische und Postapokalyptische Studien – das Centre for Apocalyptic and Post-Apocalytic Studies (CAPAS) – hat mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) seine Arbeit aufgenommen. Zur Bearbeitung seiner Themen lädt das CAPAS Wissenschaftlerinnen und Wissenschaftler aus aller Welt zu Forschungsaufenthalten nach Heidelberg ein. Das BMBF fördert das Kolleg über einen Zeitraum von zunächst vier Jahren mit rund neun Millionen Euro. CAPAS-Direktoren sind der Romanist Prof. Dr. Robert Folger sowie der Archäologe Prof. Dr. Thomas Meier.

Apokalypsen zeichnen sich durch radikale Veränderungen der Lebensbedingungen aus, die als zwingend für fundamentale Reformen des Lebenswandels begriffen werden. „Vor dem Hintergrund weltweiter Herausforderungen wie der Corona-Pandemie oder dem Klimawandel haben apokalyptische Erwartungen derzeit Hochkonjunktur. Dabei ist die Prophezeiung vom Ende der Welt ein wiederkehrendes Phänomen, das sich in ganz unterschiedlichen Kulturen und Zeiten zeigt“, so Prof. Folger. „Die Apokalypse ist aber nicht nur eine Denkfigur, sondern auch eine grundlegende Erfahrung der Menschheitsgeschichte. Als solche ist sie beobacht- und beschreibbar, während ihre kulturelle Formung kulturvergleichend und interpretierend erschlossen werden muss.“

Im Zentrum des Käte Hamburger Kollegs an der Universität Heidelberg steht die Frage, wie sich Katastrophen und Endzeit-Szenarien auf Gesellschaften ebenso wie auf Individuen und ihre unmittelbare Umwelt auswirken. „Ziel ist es, vergangene und gegenwärtige Systemumbrüche oder Systemzusammenbrüche auf der Grundlage eines transdisziplinären Forschungsansatzes zu beschreiben und voneinander abzugrenzen“, erläutert Prof. Meier. „Auch die Reaktionen auf apokalyptische Szenarien sowie Zukunftsentwürfe für die Zeit nach einer Katastrophe sollen vor dem Hintergrund ihrer jeweiligen historischen und kulturellen Rahmenbedingungen analysiert und hinterfragt werden.“

Mit Mitteln des BMBF wurden von 2008 an zehn Käte Hamburger Kollegs als Teil der Initiative „Freiraum für die Geisteswissenschaften“ an Universitäten eingerichtet. In einer neuen, im Jahr 2019 bekannt gegebenen Förderrunde werden nun auch transdisziplinäre Forschungsvorhaben finanziert, die eine international vergleichende geisteswissenschaftliche Fragestellung in Zusammenarbeit mit den Lebens-, den Natur-, den Technik- oder den Ingenieurwissenschaften verfolgen. CAPAS und ein weiteres Kolleg in Aachen sind die ersten vom Bundesministerium für Bildung und Forschung geförderten Käte Hamburger Kollegs mit einer solchen Ausrichtung. Nach einer vierjährigen Förderung kann das Kolleg in zwei weiteren Förderrunden nach jeweils erfolgreicher Evaluation um jeweils vier Jahre verlängert werden.

Das Centre for Apocalyptic and Post-Apocalytic Studies lädt international ausgewiesene Wissenschaftlerinnen und Wissenschaftler – sogenannte Fellows – an die Universität Heidelberg ein, die hier für eine Zeitdauer von bis zu einem Jahr zum Thema des Kollegs forschen. An der Ruperto Carola sind im Sommersemester 2021 vier Fellows zu Gast, vom Wintersemester 2021/2022 an kommen sechs weitere hinzu. Aus aktuellem Anlass untersucht die erste Fellow-Klasse apokalyptische Szenarien, die sich im Kontext der COVID-19-Pandemie in Asien, Europa und Lateinamerika entwickelt haben. Darüber hinaus analysieren die Fellows die jeweiligen Visionen der Postapokalypse.

Die Wissenschaftlerinnen und Wissenschaftler werden in den kommenden Wochen gemeinsam mit dem Team des CAPAS den Kollegbetrieb in wöchentlichen Arbeitstreffen, Diskussionskreisen und Vorträgen aufnehmen. Darüber hinaus sind Veranstaltungen mit deutschen und internationalen Kooperationspartnern sowie anderen disziplinenübergreifenden Zentren der Universität wie dem Heidelberg Center for the Environment und dem Heidelberg Centre for Transcultural Studies oder dem Marsilius-Kolleg als Brücke zwischen den Wissenschaftskulturen geplant.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
http://www.capas.uni-heidelberg.de

(nach oben)


Röntgenlichtquelle PETRA III identifiziert vielversprechende Kandidaten für Coronamedikamente

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
An DESYs hochbrillanter Röntgenlichtquelle PETRA III hat ein Forschungsteam mehrere Kandidaten für Wirkstoffe gegen das Coronavirus SARS-CoV-2 identifiziert. Sie binden an ein wichtiges Protein des Virus und könnten damit die Basis für ein Medikament gegen Covid-19 sein. In einem sogenannten Röntgenscreening testeten die Forscherinnen und Forscher unter Federführung von DESY in kurzer Zeit fast 6000 bereits für die Behandlung anderer Krankheiten existierende Wirkstoffe. Nach der Messung von rund 7000 Proben konnte das Team insgesamt 37 Stoffe identifizieren, die an die Hauptprotease (Mpro) des SARS-CoV-2-Virus binden, wie die Gruppe im renommierten Fachmagazin „Science“ online berichtet.

Sieben dieser Stoffe hemmen die Tätigkeit des Proteins und bremsen so die Vermehrung des Virus. Zwei von ihnen tun das so vielversprechend, dass sie zurzeit in präklinischen Studien weiter untersucht werden. Das vermutlich größte Wirkstoffscreening dieser Art brachte zudem eine neue Bindungsstelle an der Hauptprotease des Virus zu Tage, an der Medikamente ankoppeln können.

Im Gegensatz zu Impfstoffen, die gesunden Menschen helfen, sich gegen das Virus wehren zu können, werden in der Wirkstoffforschung Medikamente gesucht, die bei erkrankten Personen die Vermehrung des Virus im Körper bremsen oder zum Erliegen bringen. Viren können sich allein nicht vermehren. Sie schleusen stattdessen ihr eigenes Erbgut in die Zellen ihres Wirts ein und bringen diese dazu, neue Viren herzustellen. Dabei spielen Proteine wie die Hauptprotease des Virus eine wichtige Rolle. Sie zerschneidet Proteinketten, die nach dem Bauplan des Viruserbguts von der Wirtszelle hergestellt wurden, in kleinere Teile, die für die Vermehrung des Virus notwendig sind. Gelingt es, die Hauptprotease zu blockieren, lässt sich der Zyklus unter Umständen unterbrechen; das Virus kann sich nicht mehr vermehren, und die Infektion ist besiegt.

Die Strahlführung P11 von DESYs Forschungslichtquelle PETRA III ist auf strukturbiologische Untersuchungen spezialisiert. Hier lässt sich die dreidimensionale räumliche Struktur von Proteinen atomgenau darstellen. Das nutzte das Forschungsteam um DESY-Physiker Alke Meents, um mehrere tausend bekannte Wirkstoffe aus einer Bibliothek des Fraunhofer-Instituts für Translationale Medizin und Pharmakologie und einer weiteren der italienischen Firma Dompé Farmaceutici SpA darauf zu untersuchen, ob und wie sie an die Hauptprotease „andocken“ – der erste wichtige Schritt, um sie zu blockieren. Wie der Schlüssel in ein Schloss passt dabei das Wirkstoffmolekül in ein Bindungszentrum der Protease. Der Vorteil der Wirkstoffbibliothek: Es handelt sich um bereits für die Behandlung von Menschen zugelassene Wirkstoffe oder solche, die sich zurzeit in verschiedenen Erprobungsphasen befinden. Geeignete Kandidaten zur Bekämpfung von SARS-CoV-2 könnten daher erheblich schneller in klinischen Studien eingesetzt werden und so Monate oder Jahre der Wirkstoffentwicklung sparen.

Die technische Spezialausrüstung an der PETRA III-Station P11 beinhaltet einen vollautomatischen Probenwechsel mit einem Roboterarm, so dass jede der über 7000 Messungen nur etwa drei Minuten dauerte. Mit Hilfe einer automatisierten Datenanalyse konnte das Team schnell die Spreu vom Weizen trennen. „Mit Hilfe eines Hochdurchsatzverfahrens haben wir insgesamt 37 Wirkstoffe finden können, die eine Bindung mit der Hauptprotease eingehen“, sagt Meents, der die Experimente initiierte.

In einem nächsten Schritt untersuchten die Forscherinnen und Forscher am Bernhard-Nocht-Institut für Tropenmedizin, ob diese Wirkstoffe in Zellkulturen die Virusvermehrung hemmen oder gar verhindern, und wie verträglich sie für die Wirtszellen sind. Hierbei reduzierte sich die Zahl der geeigneten Wirkstoffe auf sieben, von denen zwei besonders hervorstachen. „Die Wirkstoffe Calpeptin und Pelitinib zeigten die deutlich höchste Antiviralität bei guter Zellverträglichkeit. Unsere Kooperationspartner haben daher bereits präklinische Untersuchungen mit diesen beiden Wirkstoffen begonnen“, erklärt DESY-Forscher Sebastian Günther, Erstautor der Science-Veröffentlichung.

In ihrem Wirkstoffscreening mit Hilfe der Proteinkristallographie untersuchten die Forschenden nicht wie üblich Fragmente potenzieller Wirkstoffe, sondern vollständige Wirkstoffmoleküle. Dabei entdeckte das Team aus mehr als 100 Wissenschaftlerinnnen und Wissenschaftlern aber auch etwas komplett Unerwartetes: Es fand eine Bindungsstelle an der Hauptprotease, die bis dahin noch völlig unbekannt war. „Es war nicht nur eine positive Überraschung, dass wir eine neue Bindestelle für Medikamente an der Hauptprotease entdecken konnten – ein Ergebnis, das man wirklich nur an einer Synchrotronlichtquelle wie PETRA III erzielen kann –, sondern dass sogar einer der beiden heißen Wirkstoffkandidaten genau an diese Stelle bindet“, sagt Christian Betzel vom Exzellenzcluster CUI der Universität Hamburg, Mitinitiator der Studie.

„Eine besondere Stärke unserer Methode des Röntgenscreenings im Vergleich zu anderen Screeningmethoden ist, dass wir als Ergebnis die dreidimensionale Struktur der Protein-Wirkstoff-Komplexe erhalten und damit die Bindung der Wirkstoffe an das Protein auf atomarer Ebene bestimmen können. Selbst wenn die beiden aussichtsreichsten Kandidaten es nicht in klinische Studien schaffen sollten, so bilden die 37 Stoffe, die an die Hauptprotease binden, eine wertvolle Datenbasis für darauf aufbauende Medikametenentwicklungen,“ erläutert Patrick Reinke, DESY-Forscher und Koautor der Veröffentlichung.

„Die Untersuchungen an PETRA III zeigen eindrucksvoll, wie relevant hochbrillante Synchrotronlichtquellen für die Entwicklung zukünftiger Medikamente und die Gesundheitsforschung insgesamt sind“, unterstreicht Helmut Dosch, Vorsitzender des DESY-Direktoriums. „Wir müssen und wollen unsere Infrastrukturen künftig noch stärker zur Bewältigung von derartigen Gesundheitskrisen ausbauen.“

An den Arbeiten sind neben DESY-Wissenschaftlerinnen und -Wissenschaftlern auch Forscherinnen und Forscher der Universitäten Hamburg und Lübeck, des Bernhard-Nocht-Instituts für Tropenmedizin, des Fraunhofer-Instituts für Translationale Medizin und Pharmakologie, des Heinrich-Pette-Instituts, des European XFEL, des Europäischen Laboratoriums für Molekularbiologie EMBL, der Max-Planck-Gesellschaft, des Helmholtz-Zentrums Berlin und weiteren Institutionen beteiligt. Zusätzlich zu den Experimenten an der Messstation P11 wurden auch Messungen an den EMBL-Messstationen P13 und P14 an PETRA III durchgeführt.

DESY zählt zu den weltweit führenden Teilchenbeschleuniger-Zentren und erforscht die Struktur und Funktion von Materie – vom Wechselspiel kleinster Elementarteilchen, dem Verhalten neuartiger Nanowerkstoffe und lebenswichtiger Biomoleküle bis hin zu den großen Rätseln des Universums. Die Teilchenbeschleuniger und die Nachweisinstrumente, die DESY an seinen Standorten in Hamburg und Zeuthen entwickelt und baut, sind einzigartige Werkzeuge für die Forschung: Sie erzeugen das stärkste Röntgenlicht der Welt, bringen Teilchen auf Rekordenergien und öffnen neue Fenster ins Universum. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Günther, DESY, sebastian.guenther@desy.de, +49 40 8998 6115
Dr. Alke Meents, alke.meents@desy.de, +49 171 5676551

Originalpublikation:
X-ray screening identifies active site and allosteric inhibitors of SARS-CoV-2 main protease; Sebastian Günther, Patrick Y. A. Reinke, et al.; „Science“, 2021; DOI: https://science.sciencemag.org/lookup/doi/10.1126/science.abf7945

Weitere Informationen:
https://desycloud.desy.de/index.php/s/eqFG93bGDcPjE6F
Fotos, Bilder und Animationen zum Wirkstoffscreening für die redaktionelle Verwendung

(nach oben)


Covid-19 und der öffentliche Raum in der Krise

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Die Corona-Krise hat große Teile des privaten und öffentlichen Lebens in den Städten auf den Kopf gestellt. Wie hat sich die Nutzung der Straßen, Parks und Bahnhöfe in den Städten verändert? Welche langfristigen Effekte gibt es? Wie lassen sich öffentliche Räume planen und gestalten, damit sie trotz der Krise funktionsfähig und attraktiv bleiben? Im Auftrag des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) und des Bundesministeriums des Innern, für Bau und Heimat erforscht ein Team der Universität Bonn unter Leitung von Professor Theo Kötter gemeinsam mit der empirica ag die Auswirkungen der Pandemie. Das Projekt wird mit rund einer Viertelmillion Euro gefördert.

“Ziel des Projektes ist es, Erkenntnisse zur Stärkung der Resilienz von Städten und Gemeinden gegenüber Pandemien zu gewinnen”, sagt Prof. Dr. Theo Kötter vom Institut für Geodäsie und Geoinformation der Universität Bonn. “Dazu gehört auch, die Bedeutung und die erforderlichen Anpassungsmaßnahmen für die öffentlichen Räume aufzuzeigen, damit diese auch weiterhin einen wichtigen Beitrag zur Lebens-, Aufenthalts- und Standortqualität in unseren Städten leisten können.” Es sind ausgewählte Fallstudien geplant, in denen es auch um halböffentliche Räume wie etwa Innenhöfe, Schulhöfe und Kirchen geht. In den nächsten Wochen starten Befragungen. Neben den Planungsverwaltungen der Städte werden auch Vereine, örtliche Initiativen, Sozialverbände und Unternehmen einbezogen.

Parks erfreuen sich wachsender Beliebtheit
Berücksichtigt werden auch weitergehende Anforderungen wie die Klimaanpassung, die ökologische Aufwertung und die multifunktionale ökonomische Nutzung der öffentlichen Räume. “Die Auswirkungen der Pandemie auf die verschiedenen Typen öffentlicher Räume unterscheiden sich ganz erheblich”, sagt Kötter. Während sich Einkaufsstraßen und Bahnhöfe leeren, erfreuen sich Parks und andere Grünflächen wachsender Beliebtheit.

Aus diesem Grund soll mit einem lokalen Schwerpunkt auf hochverdichtete Stadtviertel die Hypothese überprüft werden, ob beispielsweise die Siedlungsstruktur, die bauliche Dichte und die Sozialstruktur eines Quartiers entscheidende Rollen bei den Auswirkungen der Pandemie spielen. Zugleich werden die Anpassungsmaßnahmen der Städte und Gemeinden systematisch erfasst und hinsichtlich ihrer Wirkungen analysiert. Dabei stellt sich die Frage, wie beispielsweise das Bund-Länder-Programm der Städtebauförderung zur Bewältigung der Krise modifiziert und eingesetzt werden kann.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Theo Kötter
Institut für Geodäsie und Geoinformation
Universität Bonn
Tel. 0228/732612
E-Mail: koetter@uni-bonn.de

Weitere Informationen:
https://www.bbsr.bund.de/BBSR/DE/forschung/programme/refo/staedtebau/2020/covid-…

(nach oben)


Neuer Schwung für die Elektromobilität: Entwicklung von effizienteren Lithium-Ionen-Batterien

Fraunhofer IFAM Dresden Kommunikation
Fraunhofer-Gesellschaft
Mit dem neuen Projekt „RoSiLIB“ leistet das Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM in Dresden einen entscheidenden Beitrag hin zu einer CO2-neutralen Energieversorgung in der Mobilität. Dafür werden gemeinsam mit den Partnern des Instituts für Ionenstrahlphysik und Materialforschung am Helmholtz-Zentrum Dresden Rossendorf e. V., der E-Lyte Innovations GmbH, der NANOVAL GmbH & Co. KG, der VON ARDENNE GmbH und der Custom Cells Itzehoe GmbH neue hochenergetische Anoden für Lithium-Ionen-Batterien entwickelt.

Der von der Bundesregierung geforderte und geförderte vollständige Umstieg auf die Elektromobilität wird nur mit solchen Lösungen möglich, die den Umstieg von fossilen auf elektrochemische Energieträger befördern. Die Verbesserung von Lithium-Ionen-Batterien hinsichtlich Kosten, Rohstoff- und Energieeffizienz ist dabei ein wichtiger Schritt.

Die anvisierte innovative Anode wird im Projekt entlang der gesamten Wertschöpfungskette entwickelt, um den notwendigen Verbesserungen der Batteriezellen für die Elektromobilität gerecht zu werden. Entscheidend ist dabei die Weiterentwicklung einer neuen kostengünstigen Herstellungsroute für nanoporöse Silizium-Mikroteilchen. Diese sollen genutzt werden, um großformatige Hochenergiebatteriezellen aufzubauen, die mit den bisherigen Anodenmaterialien mit hoher Energiedichte nicht herstellbar sind.

Das Projekt geht die bisher ungelösten Herausforderungen großformatiger Zellen gleich auf mehreren Ebenen an: sowohl für den Volumensprung des Aktivmaterials als auch das Ausgasen des Elektrolyten werden Lösungen entwickelt.

Die Forschenden am Fraunhofer IFAM in Dresden beschäftigen sich innerhalb von „RoSiLIB“ hauptsächlich mit der Weiterentwicklung des nanoporösen Siliziums und passen die innere Struktur der Teilchen weiter an die Anforderungen der Batterie an. Dazu muss die Entstehung der Struktur bei der Pulververdüsung von Siliziumlegierungen besser verstanden werden. In diesem Teilvorhaben werden dazu die Ergebnisse von Verdüsungsexperimenten und Simulationsrechnungen zusammengeführt. Gleichzeitig wird die chemische Aufarbeitung der Pulver weiterentwickelt und skaliert, so dass bis zu 500 g nanoporöses Silizium pro Tag hergestellt werden können.

Innerhalb des Projekts kann das Fraunhofer IFAM Dresden seine umfassende Kompetenz in den Bereichen der Rascherstarrung, der chemischen Synthese und der Entwicklung von Hochleistungsbatterien eindrucksvoll einsetzen und weiteres Know-how für zukünftige Fragestellungen aufbauen.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Olaf Andersen

Weitere Informationen:
https://www.ifam.fraunhofer.de/de/Institutsprofil/Standorte/Dresden/pressemittei…

(nach oben)


Neue Methode für die Speicherung erneuerbarer Energien

Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm
TH Nürnberg forscht an Verfahren zur Analyse der Photoaktivität von Halbleitern

Eine schnelle Umstellung auf erneuerbare Energien ist mit Blick auf den Klimawandel dringend notwendig, wofür auch die chemische Energiespeicherung benötigt wird. Prof. Dr. Maik Eichelbaum von der Fakultät Angewandte Chemie der TH Nürnberg forscht an einer elektrochemischen Methode zur Analytik der Photoaktivität von Halbleitern. Das Projekt wird von der STAEDTLER Stiftung gefördert.

Die Erde erwärmt sich. Um die Erderwärmung auf unter 1,5 Grad bis zum Ende des Jahrhunderts zu begrenzen, wurde 2015 das Pariser Klimaabkommen beschlossen. Einen großen Abschnitt nimmt dort die Energiespeicherung ein. Als Schlüsseltechnologie gilt dabei die Wasserelektrolyse, die kontrollierte Spaltung von Wasser in Wasserstoff und Sauerstoff. Mit ihr kann die Energie der Sonne oder der Windkraft chemisch im Wasserstoff gespeichert werden und mithilfe von Brennstoffzellen zurück in elektrische Energie gewandelt werden. Für ein nachhaltiges und kosteneffizientes Energiesystem kann das Wasser auch direkt mit Sonnenlicht und mit Hilfe eines Photokatalysators gespalten werden, ohne den Umweg über einen Elektrolyseur.
Prof. Dr. Maik Eichelbaum von der Fakultät Angewandte Chemie der TH Nürnberg erforscht deshalb eine neue Methode zur Analyse der Photoaktivität von halbleitenden Photokatalysatoren. Die Photoaktivität beschreibt, wie gut ein Stoff durch die Bestrahlung mit Licht eine chemische Reaktion wie zum Beispiel die Spaltung von Wasser zu Wasserstoff und Sauerstoff beschleunigt („katalysiert“). Im Projekt „Entwicklung einer neuen Standardmethode zur Analyse der Photoaktivität von Halbleitern für umwelt- und energierelevante Anwendungen – TiO2-Photoanalytik“ beschäftigt sich Prof. Dr. Maik Eichelbaum im Speziellen mit Titandioxid TiO2 als Photokatalysator. Das ist das weißeste und hellste überhaupt bekannte Pigment mit reflektierenden Eigenschaften. Durch die ultraweiße Farbe kann Titandioxid UV-Strahlen streuen oder diese sogar absorbieren. Deshalb wird es unter anderem auch in Sonnenschutzmitteln und in Wandfarben verwendet.
Prof. Dr. Maik Eichelbaum und sein Team gehen konkret der Frage nach, wie man TiO2 besser analysieren kann, da die bisherigen Methoden für viele Anwendungen nicht geeignet, zu unempfindlich oder nicht robust genug sind. „Eine aussagekräftige Analytik ist jedoch unabdingbar, um die Verbesserung, Entwicklung und Kommerzialisierung von photokatalytisch aktiven Substanzen vorantreiben zu können“, erklärt Prof. Dr. Maik Eichelbaum. Einen besonderen Fokus legt das Projektteam auf die photokatalytische Wasserspaltung, selbstreinigende Oberflächen und die Aufbereitung von Wasser. Titandioxid kann auch als Photokatalysator in Farben oder zur Beschichtung von Fensterscheiben genutzt werden, um Umweltschadstoffe unwirksam zu machen. Auch zur Reduktion von Stickoxiden in der Luft gilt TiO2, verwendet in photoaktiven Baustoffen wie Pflastersteinen, als vielversprechend.
Durch ihre Forschung entwickeln Prof. Dr. Maik Eichelbaum und sein Team ein elektrochemisches Standardverfahren für die empfindliche Analyse der Photoaktivität von Halbleitern, wodurch auch die Suche nach besseren Photokatalysatoren für die Energiespeicherung vereinfacht wird. Im Rahmen der Forschung an Photokatalysatoren in der Fakultät Angewandte Chemie findet eine interdisziplinäre Vernetzung innerhalb der TH Nürnberg mit der Fakultät Werkstoffwissenschaften, dem Nuremberg Campus of Technology (NCT) und dem Kompetenzzentrum Energietechnik statt. Die Ergebnisse aus der Forschung sollen auch in die Lehre übernommen werden, beispielsweise in einem neuen Lehrmodul „Sensorik und Elektroanalytik“ des Masterstudiengangs Angewandte Chemie.
Die STAEDTLER Stiftung fördert das Projekt erfreulicherweise mit 40.000 Euro.

Kontakt:
Hochschulkommunikation, Tel. 0911/5880-4101, E-Mail: presse@th-nuernberg.de

(nach oben)


Arbeitszeit von Männern und Frauen: Wunsch und Wirklichkeit klaffen auseinander

Stefan Schelp Pressestelle
Bertelsmann Stiftung
Männer arbeiten im Durchschnitt neun Stunden pro Woche mehr als Frauen. Dabei möchten mehr Männer als Frauen ihre Arbeitszeit reduzieren und andererseits mehr Frauen als Männer ihre Arbeitszeit ausweiten. Damit besteht Potenzial zur Angleichung der Arbeitszeiten zwischen den Geschlechtern.

In Deutschland arbeiten erwerbstätige Männer im Durchschnitt 41 Stunden und erwerbstätige Frauen 32 Stunden pro Woche. Allerdings wünschen sich Männer mit 37 und Frauen mit 30 Stunden pro Woche eine kürzere Arbeitszeit. Insgesamt arbeiten 50 Prozent der männlichen und 41 Prozent der weiblichen Beschäftigten mehr, als sie gerne würden, und sind damit überbeschäftigt. Dieses Bild dreht sich beim Blick auf jene Beschäftigte, die ihre Arbeitszeit gerne ausweiten würden, die also unterbeschäftigt sind: Mehr Frauen als Männer möchten ihre Stundenzahl ausweiten. So ist der Anteil unterbeschäftigter Frauen mit 17 Prozent fast doppelt so hoch wie bei Männern – von ihnen arbeiten nur neun Prozent weniger als gewünscht.

„Unterschiedliche Arbeitszeiten sind einer der Hauptgründe für die unterschiedlichen Erwerbseinkommen von Männern und Frauen. Unsere Analysen zeigen: Das Potenzial für die Angleichung von Arbeitszeiten ist da. Und es ist auch gesellschaftlich geboten“, kommentiert Jörg Dräger, Vorstand der Bertelsmann Stiftung. Im Mittelpunkt der neuen Studie, die ein Forscher:innen-Team um Andreas Peichl vom ifo Institut im Auftrag der Stiftung erstellt hat, stehen die Entwicklung der tatsächlichen und gewünschten Arbeitszeiten seit 1985 sowie die Gründe für die Kluft zwischen Wunsch und Wirklichkeit.

Müttern fällt es schwerer als Vätern, ihre Arbeitszeitwünsche umzusetzen
Teilzeit- und Vollzeitbeschäftigte können ihre Arbeitszeitwünsche nicht gleich gut umsetzen. Während Vollzeitbeschäftigte im Durchschnitt gerne rund sechs Stunden weniger pro Woche arbeiten würden, besteht bei in Teilzeit beschäftigten Frauen und Männern zwischen gewünschter und tatsächlicher Arbeitszeit nahezu kein Unterschied.

Insbesondere Müttern fällt es schwer, ihre Arbeitszeitwünsche zu realisieren. Die Berechnungen zeigen, dass dies nicht auf Kinder an sich, sondern auf den Mangel an Betreuungsmöglichkeiten oder die zu hohen Kosten dafür zurückzuführen ist. Lassen sich Familie und Beruf gut miteinander vereinbaren, können auch Arbeitszeitwünsche besser verwirklicht werden.

Auf die Arbeitszeitwünsche von Männern haben Kinder und die Betreuungssituation hingegen so gut wie keinen Einfluss. Dies deutet darauf hin, dass die traditionelle Rollenaufteilung nach wie vor dominiert. „Fehlende oder zu teure Kinderbetreuung führt immer noch dazu, dass insbesondere Mütter ihre Arbeitszeitwünsche nicht realisieren können“, kommentiert Dräger. „Auch acht Jahre nach Einführung des Rechtsanspruchs auf einen Krippenplatz müssen die Angebote ausgeweitet werden.“

Verfügbarkeit von Betreuungsmöglichkeiten ist ein zentraler Hebel
Die Corona-Pandemie verschärft die Situation – erste Untersuchungen zeigen, dass sich die Kita- und Schulschließungen negativ auf die Arbeitszeitwünsche von Müttern auswirken. Ohne funktionierende Kinderbetreuung ziehen sie sich weiter aus der Erwerbsarbeit zurück. „Die Pandemie verdeutlicht: Gute Kitas und ein gutes Ganztagsangebot in den Schulen sind zentral, damit Mütter ihre Arbeitszeitwünsche umsetzen können“, sagt Dräger.

Darüber hinaus müssten Fehlanreize im Steuer-, Abgaben- und Transfersystem abgebaut werden, weil sie die Mehrarbeit für Frauen und Mütter häufig unattraktiv machen. Die Kombination aus Ehegattensplitting und Minijobs führt beispielsweise dazu, dass es sich für Zweitverdiener:innen häufig nicht lohnt, eine substanzielle Beschäftigung aufzunehmen. Die Verwirklichung von Arbeitszeitwünschen von Männern und Frauen ist aber eine wesentliche Voraussetzung für eine gleichere Aufteilung der Erwerbs- und Fürsorgearbeit.

Zusatzinformationen: Die Studie „Zwischen Wunsch und Wirklichkeit. Unter- und Überbeschäftigung auf dem deutschen Arbeitsmarkt“ wurde von Maximilian Blömer, Johanna Garnitz, Laura Gärtner, Andreas Peichl und Helene Strandt vom ifo Institut im Auftrag der Bertelsmann Stiftung erstellt. Um die Entwicklung der tatsächlichen und gewünschten Arbeitszeiten differenziert nach Geschlecht, Beschäftigungstyp und Alterskohorte von 1985 bis einschließlich 2017 nachzuzeichnen, nutzten sie das Sozio-oekonomische Panel (SOEP) sowie das Panel Arbeitsmarkt und Soziale Sicherung (PASS). Dabei beziehen sich die Werte vor der Wiedervereinigung nur auf Westdeutschland. Beide Datensätze ermöglichen neben der deskriptiven Beschreibung der Arbeitszeitdiskrepanzen auch die Beantwortung der Frage, welche Faktoren eine Arbeitszeitdiskrepanz vergrößern oder verringern.

Unsere Expertinnen:
Manuela Barišić, Telefon: 030 27 57 88-1 31
E-Mail: manuela.barisic@bertelsmann-stiftung.de

Valentina Consiglio, Telefon: 030 27 57 88-1 30
E-Mail: valentina.consiglio@bertelsmann-stiftung.de

Originalpublikation:
https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/zwischen-wu…

Weitere Informationen:
http://www.bertelsmann-stiftung.de

(nach oben)


IAB-Arbeitsmarktbarometer legt weiter zu, dennoch bleiben Risiken

Marie-Christine Nedoma, Jana Bart, Pia Kastl und Inna Felde Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das IAB-Arbeitsmarktbarometer legt zum zweiten Mal in Folge zu und ist im März gegenüber dem Vormonat um 0,7 Punkte auf 101,7 Punkte gestiegen. Der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) zeigt damit positive Aussichten für die Arbeitsmarktentwicklung im zweiten Quartal. Zuletzt stand das Arbeitsmarkbarometer so günstig vor der Corona-Krise im Februar 2020.

„Am Arbeitsmarkt stehen die Zeichen auf Erholung“, sagt Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“. Sowohl bei der Beschäftigungsentwicklung als auch der Arbeitslosigkeit zeigten sich positive Signale. Die Verlängerung des Lockdowns sei allerdings erst nach Ende des Befragungszeitraums bis Mitte des Monats beschlossen worden. „Die Risiken der Pandemie bleiben immens. Die Krise ist in den nächsten Monaten noch nicht vorbei“, erklärt Weber.

Die Beschäftigungskomponente des IAB-Arbeitsmarktbarometers legte im März um 0,6 Punkte zu und liegt nun bei 101,1. Damit wird ein leichter Beschäftigungsaufbau erwartet. Die Komponente des IAB-Arbeitsmarktbarometers zur Vorhersage der saisonbereinigten Arbeitslosigkeit liegt mit 102,3 Punkten deutlich im positiven Bereich und lässt eine sinkende Arbeitslosigkeit erwarten. Sie stieg gegenüber dem Februar um 0,8 Punkte.

Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert. Während Komponente A des Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert des IAB-Arbeitsmarktbarometers. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

Zum Download stehen bereit:
– eine Zeitreihe des IAB-Arbeitsmarktbarometers einschließlich seiner Einzelkomponenten „Arbeitslosigkeit“ und „Beschäftigung“ unter http://www.iab.de/presse/abzeitreihe.
– eine Grafik mit den aktuellen Werten des IAB-Arbeitsmarktbarometers und seiner Komponenten sowie eine Zeitreihengrafik unter http://www.iab.de/presse/abgrafik.

(nach oben)


Die beständige Gefahr nach Landschaftsbränden: Verkohlte Pflanzen enthalten schädliche freie Radikale

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Jedes Jahr verbrennen weltweit schätzungsweise vier Prozent der Landoberfläche. Zurück bleiben mehr als 250 Megatonnen verkohlter Pflanzen. Eine Studie der Universität Wien hat in diesen Kohlen nun erstmals erhöhte Konzentrationen umweltbeständiger freier Radikale nachgewiesen – und das teilweise noch fünf Jahre nach dem Brand. Diese können reaktive Substanzen generieren, welche wiederum Pflanzen und Lebewesen schaden. Die Forscher*innen um Gabriel Sigmund und Thilo Hofmann haben Kohleproben aus den Rückständen von Wald-, Gras- und Buschbränden in unterschiedlichen klimatischen Zonen analysiert. Die Studie erscheint in Nature Communications Earth & Environment.

Reaktive Sauerstoffspezies verursachen oxidativen Stress auf Zellebene. Bisherige Forschung zeigt, dass sie auf diese Weise beispielsweise die Keimfähigkeit von Pflanzen hemmen, Zellgifte produzieren oder toxisch auf wirbellose Wasserbewohner wirken. Umweltbeständige freie Radikale sind potenzielle Vorläufer reaktiver Sauerstoffspezies, da sie mit Wasser zu diesen Sauerstoffradikalen reagieren können. „Daher bringt man umweltbeständige freie Radikale mit schädlichen Effekten für das Ökosystem und die menschliche Gesundheit in Verbindung“, erklärt Studienleiter Gabriel Sigmund.

„Unsere Studie zeigt, dass eben diese umweltbeständigen freien Radikale in großen Mengen und langfristig in Brandkohlen gefunden werden können“, berichtet der Umweltgeowissenschafter am Zentrum für Mikrobiologie und Umweltsystemwissenschaft (CMESS) der Universität Wien. In allen 60 Kohleproben aus zehn unterschiedlichen Bränden haben die Forscher*innen umweltbeständige freie Radikale in einer Konzentration nachgewiesen, die jene, die üblicherweise in Böden vorkommt, um das Zehn- bis Tausendfache übersteigt. Anders als erwartet blieb diese Konzentration über mindestens fünf Jahre stabil. Dies ergab eine Analyse von Kohleproben, die über mehrere Jahre hinweg nach einem Waldbrand am gleichen Ort gesammelt wurden. „Je beständiger die umweltpersistenten freien Radikale sind, desto wahrscheinlich ist es, dass sie über längere Zeiträume einen Einfluss auf Ökosys-teme haben“, erklärt Thilo Hofmann, Co-Autor der Studie und Leiter der Arbeitsgruppe.

Proben von Gras-, Wald- und Buschbränden in unterschiedlichen Klimazonen
Die Forscher*innen sammelten Proben von Brandkohlen unterschiedlich intensiver Feuer in borealen, gemäßigten, subtropischen und tropischen Klimazonen. Sie berücksichtigten Wald-, Busch- und Grasbrände und damit auch unterschiedliche Ausgangsmaterialien (Hölzer und Gräser) der Kohle. Das Ausgangsmaterial und die Feuerbedingungen bedingen den Verkohlungsgrad und beeinflussen damit mittelbar, in welchem Ausmaß umweltbeständige freie Radikale entstehen und wie beständig sie sind. „Die Analysen zeigen, dass die Konzentration umweltbeständiger freier Radikale mit dem Verkoh-lungsgrad anstieg“, berichtet Sigmund. Holzige Brennstoffe begünstigten dabei höhere Konzentrationen. Für diese konnten die Forscher*innen zudem die mehrjährige Stabilität umweltbeständiger freier Radikale nachweisen. „Gerade Waldbrandholzkohlen sind unserer Vermutung nach eine global sehr bedeutsame Quelle für umweltpersistente freie Radikale und damit potenziell auch für schädliche reaktive Sauerstoffspezies“, ergänzt Hofmann.

Internationale Zusammenarbeit über Disziplinen hinweg
„Dass wir so differenzierte Aussagen treffen können, ist der Zusammenarbeit mit Kolleg*innen der Swansea University in Großbritannien zu verdanken“, erklärt Sigmund. Die Expert*innen für Landschaftsbrände erforschen global, welche Auswirkungen Feuer auf Umweltprozesse wie den Kohlenstoffkreislauf und Erosion haben. Weltweit haben sie Proben von Brandkohlen zusammengetragen und zusammen mit Informationen zu Zeitpunkt, Dauer und Intensität der Brände zur Analyse nach Wien geschickt. Die Forscher*innen des CMESS analysierten die Proben in Zusammenarbeit mit Marc Pignitter von der Fakultät für Chemie mittels Elektronenspinresonanzspektroskopie (ESR-Spektroskopie). Die ESR-Spektroskopie ermöglichte es, die umweltbeständigen freien Radikale im untersuchten Material zu quantifizieren und die benachbarten chemischen Strukturen zu erfassen.

Fragen nach Konsequenzen für das Ökosystem
Die Untersuchung hat Erkenntnisse geliefert, aber auch neue Fragen aufgeworfen: Dass umweltbeständige freie Radikale in so hoher Konzentration vorkommen und dabei über mehrere Jahre beständig bleiben, habe überrascht. Der zukünftige Blick der Forscher*innen richtet sich nun auch auf die Folgen, die das für die Umwelt hat. „Inwieweit ist das ein Stressfaktor für Mikroorganismen nach einem Waldbrand? Wie wird ein Ökosystem davon beeinflusst? Die Studie ist ein Anstoß für weitere Untersuchungen“, berichtet Sigmund.

Publikation in Communications Earth & Environment:
G. Sigmund, C. Santín, M. Pignitter, N. Tepe, S. H. Doerr, T. Hofmann, Environmentally persistent free radicals are ubiquitous in wildfire charcoals and remain stable for years. Communications Earth & Environment (2021), DOI: 10.1038/s43247-021-00138-2

Wissenschaftliche Ansprechpartner:
Dr. Gabriel Sigmund
Zentrum für Mikrobiologie und Umweltsystemwissenschaft
1090 – Wien, Althanstraße 14
+43-1-4277-53392
gabriel.sigmund@univie.ac.at

Originalpublikation:
G. Sigmund, C. Santín, M. Pignitter, N. Tepe, S. H. Doerr, T. Hofmann, Environmentally persistent free radicals are ubiquitous in wildfire charcoals and remain stable for years. Communications Earth & Environment (2021), DOI: 10.1038/s43247-021-00138-2

Weitere Informationen:
https://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/…

(nach oben)


Neuartige, haltbare biologisch abbaubare Flaschen aus Biokunststoffen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT forscht zusammen mit vier weiteren Partnern an biobasierten und rezyklierbaren Kunststoffen. Ziel des Verbundvorhabens »Bio2Bottle« ist es, biobasierte Flaschen zu entwickeln, die sich für die Aufbewahrung von Reinigungsmitteln und landwirtschaftlichen Bodenhilfsstoffen eignen, hohe Standards erfüllen und gleichzeitig biologisch abbaubar und wiederverwertbar sind. Heute verfügbare Kunststoffe aus nachwachsenden Rohstoffen weisen für diesen Einsatzzweck eine zu hohe Durchlässigkeit auf und genügen nicht allen Anforderungen.

Laut dem Umweltbundesamt fallen derzeit allein in Deutschland rund 6,28 Millionen Tonnen Kunststoffabfälle an. Längst haben kritische Diskussionen in Gesellschaft und Politik dazu geführt, dass neue Ziele bei der Kunststoffentwicklung zu berücksichtigen sind. Das entstandene Umweltbewusstsein bei Endverbrauchern wie auch bei Industrieunternehmen führt zu einer in der Zukunft noch weiter steigenden Nachfrage nach nachhaltigen Produkten. Bei ihrer Verkaufsstrategie legen Unternehmen ihren Schwerpunkt mehr und mehr auf die Vermeidung kritischer Produkte und großen Wert auf Recyclingfähigkeit und Bioabbaubarkeit. Das Projekt »Bio2Bottle«, das unter der Koordination des Fraunhofer UMSICHT umgesetzt wird, setzt genau hier an und hat sich zum Ziel gesetzt, einen biobasierten und rezyklierbaren Kunststoff zur Herstellung von Flaschen zu entwickeln.

Anforderungen an biologisch abbaubare Flaschen
Flaschen aus biobasierten Kunstoffen wie Polymilchsäure (PLA) sind zum Teil bereits in marktfähigen Produkten zu finden. PLA ist ein biobasierter Polyester auf Basis der Milchsäure mit einer hohen mechanischen Belastbarkeit, ähnlich wie Polyethylenterephthalat (PET). Das Material eignet sich jedoch wegen einer zu geringen Wasserdampfbarriere nicht für die angestrebten Anwendungen.

Im Mittelpunkt des Projekts »Bio2Bottle« steht die Entwicklung eines biobasierten Kunststoffs, der sich gleichzeitig für die Lagerung und den Transport von Reinigungsmitteln und landwirtschaftlichen Bodenhilfsstoffen eignet, rezyklierbar und biologisch abbaubar ist. Um die Anforderungen dafür zu erfüllen, muss das Material eine hohe Wasserdampfbarriere, Stabilität und Schmelzviskosität aufweisen. In der Entwicklung werden außerdem die CO2- und Sauerstoffdurchlässigkeit sowie die Gammasterilisation berücksichtigt. Zusätzlich zu diesen hohen Anforderungen müssen die Materialien wiederverwertbar und biologisch abbaubar sein – auch außerhalb industrieller Kompostieranlagen. »Im Verbundprojekt werden biobasierte Polymere ausgewählt und deren Eigenschaften durch die Compoundierung mit weiteren Komponenten so verändert, dass diese hohen Anforderungen erfüllt werden«, erläutert Inna Bretz, Abteilung Zirkuläre und Biobasierte Kunststoffe des Fraunhofer UMSICHT. »Das Ziel des Projektes ist es, biobasierte Materialien und Recyclingfähigkeit miteinander zu verbinden«, führt Inna Bretz weiter aus.

Zukunftsforschung für weniger Kunststoffabfälle
Das Fraunhofer UMSICHT hat bereits langjährige Erfahrungen in der Entwicklung marktfähiger Kunststoffmaterialien auf der Basis von nachwachsenden Rohstoffen. Mit dem »Bio2Bottle« Projekt stellt das Institut sicher, dass die zukünftige Materialentwicklung für Unternehmen den besonderen Anforderungen an das Produkt genügt. Weiterhin soll im Rahmen des Verbundprojekts gezeigt werden, dass das Flaschenmaterial in einem technisch effizienten Verwertungsprozess wiederaufgearbeitet werden kann, was es konkurrenzfähiger macht. Die langfristige Nutzung der Flaschen sowie ihre Wiederverwendung soll zu weniger Kunststoffabfällen und einem reduzierten Verbrauch fossiler Rohstoffe für Kurzzeitprodukte führen. Zusätzlich dazu wird die gute Bioabbaubarkeit der bio-basierten Flaschen unter der Koordination von Fraunhofer UMSICHT untersucht und weiterentwickelt.

Erfolgreiche Projektzusammenarbeit mit Unternehmen
Das Verbundvorhaben »Bio2Bottle« ist ein Kooperationsprojekt zwischen vier Industrieunternehmen und des Fraunhofer UMSICHT. Zu den Kooperationspartnern gehören:
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, Oberhausen
cleaneroo GmbH, Berlin
UnaveraChemLab GmbH (Unavera), Mittenwald
FKuR Kunststoff GmbH (FKuR), Willich
Fritzmeier Umwelttechnik GmbH & Co. KG (FMU), Großhelfendorf –assoziierter Partner

Förderhinweis
Fachagentur Nachwachsende Rohstoffe e.V. (FNR)
Förderprogramm »Nachwachsende Rohstoffe« des BMEL

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/kompetenzen/zirkulaere-biobasierte-kunststo… (Abteilung Zirkuläre und biobasierte Kunststoffe)
https://www.umsicht.fraunhofer.de/de/forschung-fuer-den-markt/biokunststoffe.htm… (Biokunststoffe)

(nach oben)


DBFZ präsentiert umfangreich erweiterte Onlinedatenbank zu biogenen Rohstoffen

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Systematisch aufbereitete und leicht zugängliche Forschungsdaten können eine wesentliche Entscheidungsgrundlage für eine Vielzahl von Akteuren aus Politik, Wissenschaft und Wirtschaft darstellen. Die vom DBFZ entwickelte Ressourcendatenbank mit zahlreichen Informationen zu verschiedenen Biomassepotenzialen und deren aktueller Nutzung wurde umfangreich erweitert und steht mit einer Vielzahl von neuen Funktionalitäten ab sofort auch zweisprachig (DE/EN) zur Verfügung. Das neue Informationsangebot kam bereits u.a. bei der Deutschen Gesellschaft für Abfallwirtschaft (DGAW) zum Einsatz und ist unter der Portaladresse webapp.dbfz.de kostenfrei erreichbar.

Die Ressourcendatenbank des DBFZ enthält detaillierte Informationen zu derzeit 77 biogenen Reststoffen, Nebenprodukten und Abfällen aus der Land-, Forst- und Abfallwirtschaft. Durch die Integration von neuen Forschungsergebnissen aus weiteren Projekten (BEniVer, FKZ: 03EIV241C / Pilot-SBG, Inhouse BMVI) können die Daten nun für insgesamt elf biobasierte Produkte wie bspw. Biomethan, Bio-CNG, Bio-LNG, Bio-SNG und andere interpretiert werden. Die Biomassepotenziale (Tonnen) werden im Hintergrund automatisch in Energie (PJ) umgerechnet. In Verbindung mit dem Bedarf eines Zielmarktes (z.B. Verkehrssektor) können auf diese Weise zukünftige Substitutionspotenziale unkompliziert abgeschätzt werden. Die etablierten Funktionen erlauben unzählige Kombinations- und Interpretationsmöglichkeiten der Forschungsdaten und stellen dabei deren Vergleichbarkeit jederzeit sicher.

Überabeitetes User-Interface mit erweiterten Filterfunktionen
Zu den wesentlichen Neuerungen der Datenbank zählen weiterhin ein überarbeitetes User-Interface mit erweiterten Filterfunktionen, der direkte Zugriff auf Hintergrundinformationen und die Integration einer maschinenlesbaren Datenschnittstelle (API). Über die neuen Filterfunktionen im User-Interface kann die Rohstoffauswahl nun auch auf Basis von Rohstoffeigenschaften (z.B. lignozellulosehaltig) oder der sektoralen Herkunft getroffen werden. Die Filter können frei miteinander kombiniert werden und ermöglichen eine verbesserte und individuelle Rohstoffauswahl. Um die umfangreichen Hinter-grundberechnungen bedarfsgerecht und vollständig nachvollziehen zu können, stehen im neu etablierten Menü Direktlinks zu den relevanten Dokumentationen zur Verfügung. Hierzu zählen mehrere wissenschaftliche Publikationen (peer-reviewed Paper), zwei Datenpublikationen (OpenAgrar), Flowcharts zur Visualisierung der Berechnungen und der Ergebnis-Download als Datentabelle. Für den automatisierten Datenzugriff wurde darüber hinaus eine maschinenlesbare Datenschnittstelle auf Basis von GraphiQL integriert. Über diesen Weg können die Daten von externen Computersystemen direkt ausgelesen und individuell weiterverarbeitet werden.

Die Berechnung von Biomassepotenzialen ist ein kontinuierlicher Verbesserungsprozess. In der Entwicklungs-Pipeline befinden sich daher zahlreiche weitere Funktionen (z.B. weitere biobasierte Produkte, Zielmärkte, Länder sowie Zeitreihen, Methodenverbesserungen, dynamische Abbildungen u.v.m.). Die DBFZ-Ressourcendatenbank ist unter einer CC BY 4.0 Lizenz kostenfrei verwendbar und über die Landingpage für alle DBFZ-Webapps erreichbar: http://webapp.dbfz.de / Screencast: https://youtu.be/uepGMPacXlw

Wissenschaftliche Ansprechpartner:
André Brosowski
Tel.: +49 (0)341 2434-718
E-Mail: andre.brosowski@dbfz.de

Weitere Informationen:
https://www.dbfz.de/pressemediathek/presse/pressemitteilungen/dbfz-praesentiert-…
https://webapp.dbfz.de

(nach oben)


Emissionsrückgang aufgrund der Corona-Lockdowns hat das globale Klima nicht wesentlich beeinflusst

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Aufgrund der Corona-Lockdowns ist der weltweite Ausstoß von Treibhausgasen und Aerosolen im Jahr 2020 deutlich gesunken / Die Veränderung war wahrscheinlich nicht nachhaltig genug, um einen spürbaren Einfluss auf das Klima zu haben

Der Rückgang der Emissionen durch die weltweiten Covid-19-Lockdowns war sowohl vom Ausmaß als auch von der Dauer her zu gering, um einen signifikanten Einfluss auf das globale Klima zu haben. Das ist das Ergebnis einer neuen Studie, die unter der Leitung von Chris D. Jones vom Met Office Hadley Centre in Exeter (Vereinigtes Königreich) von einer Gruppe von 49 Forschern von verschiedenen internationalen Institutionen durchgeführt wurde, darunter auch Professor Stephanie Fiedler vom Institut für Geophysik und Meteorologie der Universität Köln. Die Wissenschaftler und Wissenschaftlerinnen versuchten die Frage zu beantworten, ob der durch die Lockdowns verursachte Rückgang der Emissionen Auswirkungen auf das globale Klima hat, indem sie die Ergebnisse von einem Dutzend Erdsystemmodellen verglichen. Solche Multi-Earth-System-Model-Intercomparison-Projekte (MIPs), deren Planung und Durchführung in der Regel Jahre dauert, können Klimasignale identifizieren. Die ersten Ergebnisse des aktuellen Projekts, bekannt als CovidMIP, konzentrierten sich auf die unmittelbaren Auswirkungen des Covid-19-bedingten Emissionsrückgangs und gingen davon aus, dass die globalen Emissionen bis 2022 wieder auf das Ausgangsniveau ansteigen werden. Der Artikel „The Climate Response to Emissions Reductions due to Covid-19: Initial Results from CovidMIP“ ist im Journal Geophysical Research Letters zu finden.

Professorin Stephanie Fiedler vom Institut für Geophysik und Meteorologie der Universität zu Köln erstellte die optischen Daten des von Menschen verursachten Aerosols, die die die Streuung und Absorption von Sonnenlicht beschreiben. Die Daten werden von beitragenden Modellen benötigt, um die Computersimulationen durchzuführen, z.B. das Erdsystemmodell MPI-ESM1.2 des Max-Planck-Instituts für Meteorologie.
Als die sozialen und wirtschaftlichen Aktivitäten angesichts der Covid-19-Pandemie weltweit zum Erliegen kamen, sank auch der Ausstoß von Treibhausgasen. Zum Beispiel hielten die Einschränkungen viele Menschen von den Straßen fern, so dass die CO2-Emissionen um einige Prozent sanken. Es wird jedoch erwartet, dass die Emissionen wieder ansteigen werden, wenn sich die Volkswirtschaften auf der ganzen Welt wieder öffnen. Das wirft die Frage auf, welche Auswirkungen der kurzfristige Rückgang der Emissionen auf das Klima hat.

Die von den Forschern erstellten Modellsimulationen zeigten eine Abnahme der optischen Dicke der Aerosole und eine Zunahme der Sonneneinstrahlung, die die Oberfläche des Planeten erreicht, wobei die größten Auswirkungen über Indien und China simuliert wurden. Die Autorinnen und Autoren untersuchten dann, wie sich die Veränderungen in der atmosphärischen Zusammensetzung auf Temperatur und Niederschlagsmuster auswirken können. Während sie einen leichten Anstieg der Sonneneinstrahlung, die die Planetenoberfläche erreicht, aufgrund von weniger Aerosolen sahen, gab es nur geringe Auswirkungen auf die globale Temperatur. Dort, wo die Aerosole regional am stärksten reduziert wurden, zeigten die meisten Modelle eine leichte Erwärmung, die aber meist weniger als 0,1 Grad Celsius im Vergleich zu einer Simulation ohne die pandemischen Einflüsse beträgt. Die Studie fand keine signifikanten Änderungen für die Niederschlagsmuster aufgrund der Covid-19-Pandemie.
Die Forscherinnen und Forscher kommen zu dem Schluss, dass der Rückgang der Emissionen aufgrund des Covid-19-Einflusses auf sozioökonomische Aktivitäten sowohl in der Größenordnung als auch in der Dauer zu gering war, um einen signifikanten Einfluss auf das globale Klima zu haben. Dennoch können die Ergebnisse Prioritäten für zukünftige Arbeiten setzen. Die Autoren identifizieren mehrere Bereiche, in denen zukünftige Analysen gerechtfertigt sein könnten, einschließlich der längerfristigen Auswirkungen der Emissionsreduzierungen und der Entscheidungen zur wirtschaftlichen Erholung. Professorin Stephanie Fiedler von der Uni Köln erklärt dazu: „CovidMIP liefert Klimamodell-Output für neue Erholungsszenarien für die Zeit nach der Pandemie bis zur Mitte des 21. Jahrhunderts. Dazu gehören Entwicklungsszenarien, die eine Zukunft mit mehr grünen Technologien beschreiben, sowie Szenarien, in denen wir zu einem ähnlichen Verhalten wie vor der Pandemie zurückkehren.“ Solche Daten sind nützlich, um zu untersuchen, wie sich das Klima in Abhängigkeit von verschiedenen menschengemachten Emissionsszenarien nach Ende der Pandemie weiter verändern würde.

Inhaltlicher Kontakt:
Professorin Dr. Stephanie Fiedler
Institut für Geophysik und Meteorologie
+49 (0)221 470- 3693
stephanie.fiedler@uni-koeln.de
Presse und Kommunikation:
Robert Hahn
+49 (0)221 470- 2396
r.hahn@verw.uni-koeln.de

Publikation:
Jones, C. D., Hickman, J. E., Rumbold, S. T., Walton, J., Lamboll, R. D., Skeie, R. B., Fiedler, S., Forster, P., Rogelj, J., et al. (2021). The Climate Response to Emissions Reductions due to COVID‐19: Initial Results from CovidMIP. Geophysical Research Letters, 48, e2020GL091883. https://doi.org/10.1029/2020GL091883
https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2020GL091883

(nach oben)


Grundsteuer belastet vor allem ärmere Haushalte in Mietwohnungen

Sabine Elbert Presse und Redaktion
Zentrum für Europäische Wirtschaftsforschung GmbH (ZEW)
Am Einkommen gemessen ärmere Mieter werden bis zu vier Mal stärker durch Grundsteuererhöhungen belastet als reichere. Vermieter tragen nur in den ersten zwei Jahren nach einer Erhöhung einen Teil der Steuerlast. Spätestens nach drei Jahren geben sie die höhere Grundsteuer vollständig an ihre Mieter/innen weiter. Verkaufspreise hingegen reagieren nicht auf Steueränderungen. Das belegt eine aktuelle Studie des ZEW Mannheim in Kooperation mit der Universität Maastricht. Die Grundsteuer ist somit eine regressive Steuer: Sie belastet geringere Einkommen relativ gesehen stärker als Haushalte mit höherer Finanzkraft.

Wie sich die Steuerlast von Grundsteuererhöhungen auf verschiedene Einkommensgruppen verteilt, untersuchten die Wissenschaftler anhand eines ökonomischen Modells, das sie mit Daten der Vermittlungsplattform Immobilienscout24 sowie des Statistischen Bundesamtes und des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) fundierten. Dabei zeigte sich, dass eine Erhöhung der Grundsteuer um einen Prozentpunkt die Wohlfahrt ärmerer Haushalte stärker belastet als die von reicheren. Jene Haushalte, die die untersten zehn Prozent der Einkommen erwirtschaften, erfahren dabei einen relativen Wohlfahrtsverlust von 1,14 Prozent, während der relative Verlust bei den obersten zehn Prozent der Einkommensskala nur 0,27 Prozent beträgt. Dieser relative Wohlfahrtsverlust berechnet sich als der Konsum, auf den diese verzichten müssen, um die Kosten für eine höhere Steuer aufzubringen. „Einkommensarme Haushalte erleiden einen bis zu viermal höheren Wohlfahrtsverlust als reichere Haushalte, wenn eine Kommune ihre Grundsteuer erhöht“, sagt Sebastian Siegloch, Wissenschaftler am ZEW Mannheim und Ko-Autor der Studie.

Bedeutung der Grundsteuer
Kommunale Gewerbe- und Grundsteuern machen gemeinsam rund 25 Prozent der Einnahmen von Städten und Gemeinden aus. Der Anteil der Grundsteuer an den kommunalen Steuern beläuft sich auf etwas über 20 Prozent. Das Grundsteueraufkommen belief sich damit im Jahr 2015 auf durchschnittlich 155 Euro pro Einwohner/in. Im Vergleich zu den USA, wo sich die vergleichbare Steuer auf etwa 850 Dollar pro Kopf beläuft, spielt die Grundsteuer in Deutschland eine geringere Rolle, obwohl sie seit Jahren vielerorts stetig erhöht wird. Im Durchschnitt hat sich die örtliche Grundsteuer zwischen 1990 und 2018 von 0,9 auf 1,4 Prozent erhöht. Rund 90 Prozent aller Städte und Gemeinden haben die Hebesätze und damit die Grundsteuer im gleichen Zeitraum geändert, bei 95 Prozent der Änderungen war dies eine Erhöhung.

Die Anpassungen der Grundsteuer verglichen die ZEW-Wissenschaftler mit konjunkturellen und anderen sozioökonomischen Daten. Dabei zeigt sich, dass die Verantwortlichen in Rathäusern und Gemeinderäten ihre Entscheidung, die Grundsteuer zu erhöhen, selten von der lokalen Wirtschaft abhängig machen. „Wir sehen einen starken Zusammenhang zwischen der Haushaltslage der Kommune und der Erhöhung der Grundsteuer. Kommt die schwarze Null ins Wackeln, erhöht die Gemeinde gerne mal die Steuer auf Grundbesitz“, erklärt ZEW-Wissenschaftler Siegloch.

Implikationen für die deutsche Grundsteuerdebatte
Die deutsche Grundsteuer wird aktuell reformiert. Ab 2025 sorgt das vom Bundesfinanzministerium eingebrachte Bundesmodell dafür, dass sich die Grundsteuer stärker am tatsächlichen Wert des Grundstücks und der Immobilie orientiert. Dies ist aktuell nicht der Fall und wurde vom Bundesverfassungsgericht beanstandet. Allerdings haben die Länder die Möglichkeit, vom Bundesmodell abzuweichen und eigene Systeme zur Bewertung von Haus und Grund einzuführen. So will sich Bayern rein an der Grundstücksfläche orientieren, andere Länder wie Baden-Württemberg wollen nur auf den Wert des Bodens schauen.

„Die neuen Modelle sollten die Verteilungswirkungen der Grundsteuer berücksichtigen – die Grundsteuer in aktueller Form und auch im Flächenmodell ist schlicht ungerecht“, kommentiert Siegloch. Es spräche viel dafür, die Grundsteuer progressiver zu gestalten. Dies könnte durch großzügigere Freibeträge geschehen, so dass kleinere Mietwohnungen für ärmere Haushalte deutlich weniger belastet würden. Gleichzeitig wäre es sinnvoll, teurere Immobilien stärker zu besteuern. „Um dies umzusetzen, ist es wichtig den Wert von Grundstück und Immobilie möglichst genau zu kennen“, so Siegloch weiter. „Das spricht eindeutig für die Umsetzung des Bundesmodells.“ Ein vertretbarer Kompromiss sei das Bodenwert-Modell: Aktuelle Analysen zeigten, dass der Wert des Bodens ein guter Indikator für den Wert der darauf stehenden Immobilie sei.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sebastian Siegloch
Leiter der ZEW-Forschungsbereich
„Soziale Sicherung und Verteilung“
Tel: +49 (0)621 1235-140
sebastian.siegloch@zew.de

Originalpublikation:
http://ftp.zew.de/pub/zew-docs/dp/dp21026.pdf

(nach oben)


Wenn Salz, dann Jodsalz

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Trotz erheblicher Fortschritte nehmen viele Erwachsene und Jugendliche noch immer zu wenig Jod zu sich. Eine der wenigen Quellen, die reich daran sind, ist jodiertes Speisesalz.

Seit Mitte der 1980er-Jahre hat sich die Jodversorgung in Deutschland durch den Einsatz von Jodsalz verbessert. Aktuelle Daten des Robert Koch-Instituts (RKI) zeigen jedoch, dass die Jodzufuhr der Bevölkerung immer noch nicht optimal ist. Bei knapp 30 Prozent der Erwachsenen und 44 Prozent der Kinder und Jugendlichen besteht das Risiko einer zu geringen Jodaufnahme. Ein wesentlicher Grund dafür könnte sein, dass in der Lebensmittelindustrie zu wenig jodiertes Speisesalz verwendet wird. Dies legen Modellrechnungen des Bundesinstituts für Risikobewertung (BfR) nahe. „Weniger Salz tut gut, auf Jodsalz verzichten aber nicht“, sagt Professor Dr. Dr. Andreas Hensel, Präsident des BfR. „Dieser Grundsatz sollte sowohl in der eigenen Küche als auch in der Lebensmittelproduktion gelten.“

Link zur Stellungnahme:
https://www.bfr.bund.de/cm/343/ruecklaeufige-jodzufuhr-in-der-bevoelkerung-model…

Link zu Fragen und Antworten:
https://www.bfr.bund.de/cm/343/jodversorgung-in-deutschland-wieder-ruecklaeufig-…

Link zum BfR2GO, dem BfR-Wissenschaftsmagazin (S. 2 und 11):
https://www.bfr.bund.de/cm/350/bfr-2-go-ausgabe-2-2020.pdf

Laut aktueller Daten aus den nationalen Gesundheitssurveys des RKI ist die Jodversorgung der deutschen Bevölkerung noch verbesserungswürdig. Bei Kindern und Jugendlichen zeichnet sich hier sogar ein rückläufiger Trend ab. Für Frauen im gebärfähigen Alter ist das Risiko einer unzureichenden Jodzufuhr besonders hoch. Dabei ist eine gute Versorgung gerade für Schwangere und Stillende bedeutsam, weil das Spurenelement für die körperliche und geistige Entwicklung des Kindes wichtig ist – auch schon vor der Geburt.

In Deutschland können Hersteller selbst entscheiden, ob sie jodiertes Speisesalz für ihre Produkte nutzen. Eine Studie der Justus-Liebig-Universität Gießen weist darauf hin, dass in den letzten Jahren deutlich weniger Jodsalz für verarbeitete Lebensmittel verwendet wurde, insbesondere für Brot und Backwaren. Zudem zeigen die Ergebnisse, dass nur etwa 30 Prozent der industriell und handwerklich hergestellten Produkte Jodsalz enthalten. Modellrechnungen des BfR zufolge ist eine gute Jodversorgung aber nur dann möglich, wenn etwa 40 Prozent dieser Lebensmittel mit Jodsalz produziert werden.

Jod ist lebenswichtig und für den Aufbau von Schilddrüsenhormonen unentbehrlich. Die Schilddrüsenhormone haben eine zentrale Funktion bei der Steuerung des Stoffwechsels und sind für normales Wachstum, die Knochenbildung und die Entwicklung des Nervensystems notwendig. Wird über längere Zeit zu wenig des Elements aufgenommen, kann es zu einer Schilddrüsenunterfunktion kommen. Symptome wie Müdigkeit, Gewichtszunahme und eine vergrößerte Schilddrüse (Struma) können auftreten.

Jod muss mit der Nahrung aufgenommen werden. Da der Boden hierzulande aber nur wenig von dem Spurenelement enthält, sind die natürlichen Jodgehalte der pflanzlichen landwirtschaftlichen Erzeugnisse entsprechend gering. In relevanten Mengen kommt das Element nur in wenigen Speisen vor. Dazu gehören Meeresfisch und -früchte, aber auch mit Jodsalz angereicherte Speisen. Wer bewusst zu jodhaltigen Lebensmitteln greift, ist in der Regel ausreichend versorgt.

Tipps für eine gute Jodversorgung:
– Jodsalz zum Kochen und Nachsalzen nutzen.
– Abgepackte Lebensmittel und Fertiggerichte bevorzugen, in deren Zutatenliste „Jodsalz“ oder „jodiertes Salz“ steht.
– Bei loser Ware wie Brot, Käse und Wurst nachfragen, ob Jodsalz enthalten ist.
– Milch- und Milchprodukte täglich,
– Meeresfisch ein- bis zweimal pro Woche verzehren.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Mit „innovatION“ nationale und internationale Wasserressourcen sichern

Katrin Presberger Pressestelle
Technische Universität Dresden
Forschungsprojekt entwickelt nachhaltiges, membranbasiertes Wasser-Entsalzungsverfahren

Auf Grund des global ansteigenden Wasserbedarfs und der sinkenden zur Verfügung stehenden Süßwasserressourcen, besteht ein weltweites Interesse an effizienten Entsalzungsverfahren. Süßwasser, das vom Meer oder von geogenen, also natürlichen, im Untergrund vorkommenden Salzvorkommen beeinflusst wird, weist u. a. oft erhöhte Konzentrationen an Natrium und Chlorid auf. Hohe Nitrat- und Sulfatkonzentrationen resultieren hingegen meist aus landwirtschaftlichem Einfluss. „Herkömmliche Entsalzungsverfahren entsalzen Wässer weitestgehend vollständig und unterscheiden meist nicht, welche Salze zurückgehalten werden“, erklärt Prof. Dr.-Ing. André Lerch, Inhaber der TUD-Professur für Verfahrenstechnik in Hydrosystemen, die Partner des Verbundprojekts innovatION ist. „Eine vollständige Entsalzung der Wässer ist aber oft nicht sinnvoll, sondern lediglich eine Verminderung der monovalenten, einfach geladenen Ionen.“
Ziel des Forschungsvorhabens innovatION ist die Entwicklung eines energieeffizienten, selektiven, membranbasierten Entsalzungsverfahrens zur gezielten Entfernung monovalenter Ionen aus salzhaltigem Grund- und Oberflächenwasser sowie die Überprüfung potenzieller Anwendungen und Einsatzgebiete unter Berücksichtigung wasserchemischer, ökonomischer und ökologischer Aspekte.

innovatION steht für Selektive Entfernung monovalenter Ionen aus salzhaltigen Wässern für die Grundwasseranreicherung und Trinkwasseraufbereitung. Das Verbundprojekt wird in den kommenden drei Jahren vom Bundesministerium für Bildung und Forschung BMBF innerhalb der Fördermaßnahme „Wassertechnologien: Wasserwiederverwendung“ gefördert. innovatION vereint dabei neun nationale Partner aus der Praxis und Wissenschaft sowie auch zwei internationale assoziierte Partner. Die Projektkoordination liegt bei der TUD-Professur für Verfahrenstechnik in Hydrosystemen. Von Seiten der TU Dresden ist zusätzlich die Professur für BWL, insb. Nachhaltigkeitsmanagement und Betriebliche Umweltökonomie (Vertreter: Prof. Dr. Remmer Sassen) beteiligt.

Im Rahmen von innovatION werden selektive Membranen für einen spezifischen Rückhalt monovalenter Salze entwickelt und in neukonstruierten Modulen für den Einsatz in einem elektrochemischen Verfahren in Labor- und Pilotanlagen verbaut. Mit den Anlagen werden Untersuchungen zur Identifikation optimierter Prozess- und Anlagenparameter in Abhängigkeit unterschiedlicher Rohwasserqualitäten und Aufbereitungsziele durchgeführt. Es wird geprüft, welche resultierenden Effekte und Herausforderungen bei den unterschiedlichen Rohwässern gegeben sind. Die entwickelte Technologie wird anhand einer ganzheitlichen ökonomisch-ökologischen Nachhaltigkeitsbewertung internationalen Zielgrößen wie den Nachhaltigkeitszielen gegenübergestellt, um Handlungsempfehlungen abzuleiten.
Durch die Wahl der Partner aus Industrie, Wissenschaft und Praxis ist das Konsortium in der Lage, Anlagen zu bauen und die innovative Technologie bei Praxispartnern vor Ort zu testen und zu bewerten. Der wissenschaftliche Nachwuchs kann frühzeitig in Kooperationen und den Austausch mit internationalen Wissenschaftlerinnen und Wissenschaftlern eingebunden werden. Die Ergebnisse tragen somit maßgeblich zur Sicherung der Wasserressourcen und Weiterbildung, national wie international, bei.

Wissenschaftliche Ansprechpartner:
Technische Universität Dresden
Prof. Dr.-Ing. André Lerch
Professur für Verfahrenstechnik in Hydrosystemen
Tel.: +49 351 463-37537
E-Mail: andre.lerch@tu-dresden.de

(nach oben)


Risiken von Wasserknappheit begrenzen: Bewässerungsmanagement entscheidend für Bioenergie-Anbau zum Klimaschutz

Mareike Schodder Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

– Klimawandel und Bevölkerungswachstum lassen einen Anstieg von Wasserknappheit erwarten, daher muss jede zusätzliche Entnahme von Wasser minimiert werden.
– Bewässerte Bioenergie-Plantagen, die zu einer Begrenzung des Klimawandels beitragen sollen, können den Wasserstress erhöhen.
– Nachhaltiges Wassermanagement kann den zusätzlichen Wasserstress reduzieren.

Damit Wasser nicht noch knapper wird, als es ohnehin vielerorts ist, ist bei Biomasseplantagen nachhaltiges Wassermanagement nötig. Dies zeigt eine neue Studie. Wenn der Anbau von Pflanzen für die Energiegewinnung in Kraftwerken mit unterirdischer Speicherung des CO2 aus den Abgasen kombiniert wird, gilt er oft als eine der Möglichkeiten, Treibhausgasemissionen zu reduzieren und die Pariser Klimaziele zu erreichen. Doch der Anbau von Bioenergieplantagen im großen Stil benötigt weltweit nicht nur viel Land, sondern auch erhebliche Mengen an Wasser für die Bewässerung – was im Widerspruch mit der Einhaltung der Planetaren Belastungsgrenzen stehen kann. Wissenschaftler berechneten nun in den bisher detailliertesten Computersimulationen, wie viel zusätzlicher Wasserstress für die Bevölkerung weltweit in einem Szenario mit konventioneller Bewässerung und einem mit nachhaltiger Wassernutzung entstehen könnte.

„Ohne nachhaltiges Wassermanagement könnte die Bewässerung von Biomasseplantagen nach unseren Berechnungen zusammen mit dem Bevölkerungswachstum bis Ende des Jahrhunderts sowohl die Fläche als auch die Zahl der Menschen verdoppeln, die unter starkem Wasserstress leiden“, sagt Hauptautor Fabian Stenzel vom Potsdam-Institut für Klimafolgenforschung (PIK), der die Forschungsidee im Sommerprogramm für junge Wissenschaftlerinnen und Wissenschaftler am International Institute for Applied Systems Analysis (IIASA) entwickelte. „Umgekehrt könnten wir mit einem nachhaltigen Wassermanagement der Biomasseplantagen den zusätzlichen Wasserstress für die Menschen fast halbieren, im Vergleich zu einem Szenario mit starkem Klimawandels und ohne Bioenergieproduktion.“

Sowohl politische Regulierung als auch Verbesserungen in den Betrieben erforderlich
„Nachhaltiges Wassermanagement bedeutet sowohl politische Regulierung wie Bepreisung oder Wasserzuteilungssysteme, um die aus Flüssen entnommenen Wassermengen zu reduzieren, als auch Verbesserungen in den Betrieben, um das Wasser effizienter zu nutzen“, sagt Ko-Autorin Sylvia Tramberend vom IIASA. Dazu könnten Zisternen zum Sammeln von Regenwasser oder Mulchen zur Reduzierung der Verdunstung gehören. „Außerdem gehört zu einem nachhaltigen Wassermanagement der Erhalt von dauerhaft hinreichenden Wassermengen in den Flüssen, um die Ökosysteme dort gesund zu erhalten. Die Bewirtschaftung flussaufwärts und flussabwärts kann dabei zur Folge haben, dass mehr grenzüberschreitende Flussbewirtschaftung sowie eine Zusammenarbeit zwischen verschiedenen Wassernutzern nötig wird – eine zukünftige Herausforderung für ein integriertes Wasserressourcenmanagement.“

Eine weitgehend ungebremste globale Erwärmung zusammen mit dem Bevölkerungswachstum würde in den Simulationen die Zahl der Menschen unter Wasserstress um etwa 80% erhöhen. Eine verstärkte Nutzung von Bioenergie mit Kohlenstoffabscheidung und -speicherung könnte helfen, den Klimawandel begrenzen: Wenn Pflanzen wachsen, nehmen sie CO2 aus der Luft auf und bauen es in ihre Stämme, Zweige und Blätter ein. Wird diese Biomasse in Kraftwerken verbrannt und das CO2 aus den Abgasen abgetrennt und unterirdisch gespeichert (Carbon Capture and Storage, kurz CCS), kann dies letztlich dazu beitragen, die Menge an Treibhausgasen in unserer Atmosphäre zu reduzieren – Wissenschaftler nennen dies „negative Emissionen“.

In vielen Szenarien werden diese als notwendig erachtet, um ehrgeizige Klimaschutzziele zu erreichen, wenn die direkten Emissionsreduktionen zu langsam voranschreiten. Negative Emissionen werden auch betrachtet, um verbleibende Treibhausgasemissionen auszugleichen, die nur schwer oder gar nicht zu reduzieren sind, zum Beispiel im Flugverkehr, in bestimmten Industriezweigen oder in der Viehhaltung.

Wasserknappheit bleibt eine große Herausforderung
„Nach den vorliegenden Szenarien könnten die Biomasseplantagen um bis zu 6 Millionen Quadratkilometer zunehmen, wenn die globale Erwärmung bis zum Ende des Jahrhunderts auf 1,5 Grad Celsius begrenzt werden soll, also gemäß dem ehrgeizigeren der beiden Temperaturziele des Pariser Abkommens“, sagt Ko-Autor Dieter Gerten vom PIK. „Wir verwenden diese Szenarien als Grundlage für Simulationen in unserem hochauflösenden globalen Vegetations- und Wasserhaushaltsmodell, um die Auswirkungen auf das Wasser zu untersuchen. Während die erhebliche Bewässerung in einem Bioenergie-plus-CCS-Szenario mit Bevölkerungswachstum einen Anstieg der Zahl der Menschen, die mit Wasserstress konfrontiert sind, um 100 % nahelegt, sinkt die Zahl in Kombination mit nachhaltigem Wassermanagement auf 60 %. Das ist natürlich immer noch ein Anstieg, so dass schwere Kompromisse gefunden werden müssen.“

Regionen, die bereits heute unter Wasserstress leiden, wären im Klimawandel-Szenario am stärksten betroffen, wie der Mittelmeerraum, der Nahe Osten, der Nordosten Chinas, Südost- und das südliche Westafrika. Im Bioenergie-plus-CCS-Szenario ohne nachhaltiges Wassermanagement erstreckt sich der hohe Wasserstress auch auf einige sonst nicht betroffenen Regionen, wie den Osten Brasiliens und große Teile von Afrika südlich der Sahara. Hier werden im untersuchten Szenario große Biomasse-Plantagenflächen angenommen, die bewässert werden müssen.

„Die Zahlen zeigen, dass nachhaltiges Wassermanagement in jedem Fall eine Herausforderung ist, der wir uns umgehend stellen müssen“, sagt Ko-Autor Wolfgang Lucht, Leiter der Forschungsabteilung Erdsystemanalyse am PIK. „Unsere neue Studie bestätigt, dass derzeit diskutierte Maßnahmen zur Stabilisierung des Klimas, hier die Erzeugung von Bioenergie mit CCS, eine Reihe zusätzlicher Dimensionen unseres Erdsystems berücksichtigen sollte -– der Wasserkreislauf gehört dazu. Risiken und Zielkonflikte müssen sorgfältig durchdacht werden, bevor größere Schritte zur Etablierung von Märkten und Infrastrukturen für Biomasse eingeleitet werden. Das Konzept der Planetaren Belastungsgrenzen betrachtet das gesamte Erdsystem, nicht nur das Klima. Um einen sicheren Handlungsraum für die Menschheit zu bewahren, muss vor allem auch die Integrität der Biosphäre beachtet werden.“

Artikel: Fabian Stenzel, Peter Greve, Wolfgang Lucht, Sylvia Tramberend, Yoshihide Wada, Dieter Gerten (2021): Irrigation of biomass plantations may globally increase water stress more than climate change. Nature Climate Change [DOI: 10.1038/s41467-021-21640-3]

Weblink zum Artikel, sobald er veröffentlicht ist: http://dx.doi.org/10.1038/s41467-021-21640-3

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung PIK, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
http://www.pik-potsdam.de

Wer wir sind:
Das Potsdam-Institut für Klimafolgenforschung (PIK) ist eines der weltweit führenden Institute in der Forschung zu globalem Wandel, Klimawirkung und nachhaltiger Entwicklung. Natur- und Sozialwissenschaftler erarbeiten hier interdisziplinäre Einsichten, welche wiederum eine robuste Grundlage für Entscheidungen in Politik, Wirtschaft und Zivilgesellschaft darstellen. Das PIK ist ein Mitglied der Leibniz-Gemeinschaft.

Originalpublikation:
Fabian Stenzel, Peter Greve, Wolfgang Lucht, Sylvia Tramberend, Yoshihide Wada, Dieter Gerten (2021): Irrigation of biomass plantations may globally increase water stress more than climate change. Nature Climate Change [DOI: 10.1038/s41467-021-21640-3]

(nach oben)


Auf der Suche nach Lösungen für Klimawandelfolgen in Nord- und Ostsee: Küstenforschungsverbund KüNO geht in dritte Runde

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Nord- und Ostsee sind durch Klimakrise und wachsenden Nutzungsdruck, auch im Einzugsgebiet, massiven Umweltveränderungen ausgesetzt. Die negativen Folgen– etwa für Gewässerqualität, Küstenschutz und Fischerei – stehen im Fokus des Verbundes „Küstenforschung Nordsee-Ostsee“ (kurz KüNO), der 24 Einrichtungen vereint und seit 2013 wissenschaftliche Grundlagen für nachhaltiges Küstenmanagement erarbeitet. Am 15. und 16. März treffen sich rund 100 Wissenschaftler:innen zu einem virtuellen Auftakt der KüNO-Förderphase III. Geplant ist ein intensiver Austausch zu den neuen Forschungsvorhaben, die das Bundesministerium für Bildung und Forschung (BMBF) bis 2023 mit rund 10,5 Mio. Euro fördert.

Neben Expert:innen der großen deutschen Meeresforschungseinrichtungen in Bremerhaven, Geesthacht, Hamburg, Kiel, Rostock und Wilhemshaven, werden auch Forschende aus verschiedenen Universitäten, Behörden, Wirtschafts- und Umweltinstituten teilnehmen. Auf der vom Leibniz-Institut für Ostseefor-schung Warnemünde (IOW) koordinierten Online-Tagung stellen sich die sieben neuen Forschungsprojekte der dritten KüNO-Förderphase dem Forschernetzwerk vor. Der Fokus der Projekte liegt auch hier, wie in den beiden vorherigen Förderphasen, auf der Erarbeitung von praxisnahen Lösungsansätzen für Fischerei, Wirtschaft, Tourismus sowie Politik und Verwaltung, die zunehmend mit den Folgen von Klimawandel, sich verändernden Nährstoffeinträgen, Schadstoffbelastung und weiteren Facetten der Intensivnutzung von Nord- und Ostsee zu kämpfen haben. Die Probleme sind vielfältig; dazu gehören etwa der drastische Rückgang verschiedener Fischbestände, die zunehmende Gefahr von Sturmfluten oder massive Algenblüten, die die Attraktivität der touristisch genutzten Küstenbereiche beeinträchtigen.

„Wir wollen bei diesem Treffen den Austausch im Verbund voranbringen – pandemiebedingt ist dies wich-tiger denn je“, erläutert Prof. Ulrich Bathmann, IOW-Direktor und Sprecher des KüNO-Verbundes das An-liegen der Tagung. „Die Wissenschaftlerinnen und Wissenschaftler sollen sich vernetzen und diejenigen kennenlernen, die in anderen Projekten mit ähnlichen Methoden oder an verwandten Themen arbeiten.“ Außerdem ist ein Austausch mit Akteuren aus Wirtschaft, Politikberatung und Forschungsförderung zu gelungenen Beispielen der Zusammenarbeit von Forschenden und Anwender:innen geplant. Diese sollen den Wissenschaftlerinnen und Wissenschaftlern Ideen und Anregungen für ihre Arbeit mitgeben. „In den Forschungsprojekten werden die jeweiligen ‚Endnutzer‘ der Ergebnisse, wie z.B. Behörden, Verbände und Kommunen, schon frühzeitig eng in die Forschung eingebunden, damit auch wirklich nützliche, umsetzbare Werkzeuge und Handlungsempfehlungen für nachhaltiges Management entstehen. Eine solche Zusammenarbeit bietet große Chancen für alle Seiten“, so Bathmann weiter.

*Verbund „Küstenforschung Nordsee-Ostsee“ (KüNO)
Der KüNO-Verbund geht mit den aktuell gestarteten Projekten in seine dritte Runde. Das Bundesministeri-um für Bildung und Forschung (BMBF) fördert die Forschung in diesem Verbund seit 2013 im Rahmen der Forschungsstrategie „Forschung für Nachhaltigkeit“ (FONA). Daraus entstanden mehrere Werkzeuge, die Behörden zur Planung von Maßnahmen zum Gewässer- und Küstenschutz bereits verwenden – beispiels-weise digitale Atlanten, die Habitate und die dort lebenden Organismen-Gemeinschaften kartieren, und deren Informationen kostenfrei im Internet abgerufen werden können. Eine Übersicht über die sieben Projekte der im November 2020 gestarteten dritten KüNO-Förderphase sowie weiterführende Informationen gibt es auf der KüNO-Webseite unter https://deutsche-kuestenforschung.de/projekte.html.

Bei Presseanfragen:
Dr. Kristin Beck | Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Tel.: 0381 – 5197 135 | Mail: kristin.beck@io-warnemuende.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ulrich Bathmann | Sprecher Verbund „Küstenforschung Nordsee-Ostsee“ (KüNO)
Direktor, Leibniz-Institut für Ostseeforschung Warnemünde (IOW)
Tel.: 0381 – 5197 100 | Mail: ulrich.bathmann@io-warnemuende.de

Dr. Franziska Schmacka | KüNO-Koordinationsbüro Küste
Leibniz-Institut für Ostseeforschung Warnemünde
Tel.: 0381 – 5197 133 | Mail: franziska.schmacka@io-warnemuende.de

(nach oben)


Lachsdetektor zur Erfolgskontrolle am Rhein

Dr.rer.nat. Arne Claussen Stabsstelle Presse und Kommunikation
Heinrich-Heine-Universität Düsseldorf
HHU-Studierende untersuchen die Lachsausbreitung

In verschiedenen deutschen Gewässern werden Lachse angesiedelt. Um den Erfolg solcher Maßnahmen zu untersuchen, hat ein deutsches Forschungskonsortium unter Beteiligung von Studierenden der Heinrich-Heine-Universität Düsseldorf (HHU) ein Diagnoseverfahren entwickelt, das nach Lachs-DNA in Flüssen sucht.

Der Atlantische Lachs (Salmo salar) hat seine Kinderstube an den Oberläufen von Flüssen. Junglachse leben zwischen einem und drei Jahren in den Flüssen, bevor sie sich physiologische verändern und ins Meer ziehen. Nach einigen Jahren schwimmen sie im Spätherbst flussaufwärts zurück in ihre Heimatgewässer, wo sie laichen und viele nach der Fortpflanzung sterben.

Noch zu Beginn des 20. Jahrhunderts war der Atlantische Lachs ein alltägliches Bild in Europas Flüssen, insbesondere im Rhein und seinen Zuflüssen. Doch durch Überfischung, Denaturierung, Flussbegradigung und die zunehmende Verschmutzung der Flüsse ging für die Fische immer mehr Lebensräume verloren. Der Lachs verschwand aus unseren Gewässern.

Seit zehn Jahren wird versucht, Lachse wieder in den ursprünglichen Gewässern heimisch zu machen. Dazu werden Lachse im Flusssystem des Rheins, vor allem in den Oberläufen der Zuflüsse, ausgesetzt. Um den Erfolg der Maßnahmen beurteilen zu können – ob also die neu eingesetzten Lachse nach einer Zeit noch vorhanden sind oder ob eventuell natürliche Lachse im Gewässer leben –, muss der Fischbestand quantitativ beurteilt werden. Ziel des Konsortiums GeMoLaR (Genetisches Monitoring zur Wiederansiedlung des Atlantischen Lachses im Rheingebiet), in dem die HHU mit Forschungsgruppen aus Belgien, den Niederlanden und der Schweiz zusammenarbeitet, ist es, den Erfolg dieser Maßnahmen zu untersuchen.

Dazu entwickelte ein Team um HHU-Professor Dr. Christopher Bridges zusammen mit dem aus der HHU ausgegründeten Unternehmen Tunatech und dem Lachszentrum Hasper Talsperre ein schnelles Lachs-Nachweisverfahren („Salmon Detection Test“, kurz SDT). Dieses verknüpft ein bereits in den USA und Irland genutztes Verfahren mit neuen Diagnosetechniken. Die HHU-Biologin Lydia Schmidt und Dr. Florian Borutta von Tunatech suchen dazu nach DNA-Spuren – sogenannte eDNA – im Gewässer.

Das Lachszentrum Hasper Talsperre bei Hagen liegt am Hasper Bach, der über die Ennepe in die Ruhr und dann in den Rhein fließt. An verschiedenen Stellen des Bachs in unterschiedlicher Entfernung zum Lachszentrum entnahmen die Forscherinnen und Forscher Wasser, aus dem sie anschließend eDNA extrahierten.

Das Verfahren kann die Lachs-DNA vom Erbgut anderer in den Gewässern lebender Fische wie Bachforelle, Regenbogenforelle, Meerforelle und Äsche unterscheiden. Bereits nach 15 bis 30 Minuten liefert der unaufwändige Test eindeutige Ergebnisse.

Dazu Prof. Bridges: „Unser Test, an dessen Entwicklung Studierende der HHU beteiligt waren, hat sich in Feldversuchen in NRW bewährt. Er eignet sich damit zur Erfolgskontrolle von Wiederbesiedlungsmaßnahmen; dies wollen wir nun auch mit anderen Kollegen in Europa und darüber hinaus erproben.“

Das Projekt GeMoLaR wird vom Bundesministerium für Ernährung und Landwirtschaft gefördert.

(nach oben)


Mikroplastik in der Elbe

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung
Ein Team aus Wissenschaftlern unter der Federführung des Helmholtz-Zentrums Geesthacht – Zentrum für Material und Küstenforschung (HZG) hat zahlreiche Mikroplastikpartikel im Elbewasser bei Cuxhaven nachgewiesen. Das Ergebnis: 200 bis 2.100 Mikroplastikpartikel fanden die Forscher pro Kubikmeter Wasser. Um die Ergebnisse ihrer Messungen und deren große Spanne besser interpretieren und mit zukünftigen Studien vergleichen zu können, hat das Team erstmalig für den Bereich der Mikroplastikforschung dargestellt, wie man den Leitfaden des Internationales Büros für Maß und Gewicht (BIPM) zur Erfassung der Messunsicherheit für solche Untersuchungen einsetzen kann.

Die Studie, die heute im Journal of Hazardous Materials veröffentlicht wurde, und deren Methodik zur Darstellung und Berechnung der Ergebnisse auch auf viele andere Studien übertragbar sind, zeigt: Die bisher bekannten Mikroplastik-Konzentrationen weisen vermutlich eine sehr hohe Unsicherheit auf.

Jeden Tag transportiert die Elbe Schätzungen zufolge zwischen 300 Kilogramm und 1,2 Tonnen Kunststoffmüll in die Nordsee (Schöneich-Argent et al., 2020), wobei die Dunkelziffer noch deutlich höher liegen wird. Wissenschaftler des neu gegründeten Instituts für Umweltchemie des Küstenraumes am Helmholtz-Zentrum Geesthacht (HZG), des Alfred-Wegener-Instituts – Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) auf Helgoland und des Leibniz-Instituts für Polymerforschung Dresden (IPF) haben Oberflächenwasser an der HZG-Messstation Cuxhaven untersucht, um verschiedene Verfahren zu vergleichen und die Menge der Mikroplastikpartikel zu bestimmen, die über die Elbe in die Nordsee gelangen.

Die Verfahren, die bislang zur Beprobung von Partikeln eingesetzt wurden, bringen oft das Problem mit sich, dass die eingesetzten Filter zu schnell verstopfen und nur geringe Wasservolumina beprobt werden können. Dadurch wird die Repräsentativität der Ergebnisse beeinträchtigt. Deshalb wurden die Proben in der aktuellen Studie – zusätzlich zu den genommenen Schöpfproben – erstmals mit zwei alternativen Techniken gewonnen: Durchflusszentrifugen und Hydrozyklonen. Beides sind in anderen Bereichen gut etablierte Instrumente zur kontinuierlichen Partikeltrennung aus großen Flüssigkeitsvolumen. „Durch die Gezeiten an der Nordseeküste haben wir relativ viele Schwebstoffe im Wasser. Deshalb mussten wir die Wasserproben zunächst von organischem Material und Sedimentpartikeln bereinigen. Anschließend haben wir einige der Proben mit spektroskopischen Mikroskopieverfahren am IPF und am AWI analysiert. Durch das systematische Vorgehen wollten wir möglichst vergleichbare Ergebnisse erhalten“, erklärt Lars Hildebrandt, Umweltchemiker und Erstautor der Studie.

Die Ergebnisse: „Zwischen 200 und 2.100 Partikel Mikroplastik haben wir pro Kubikmeter Wasser gefunden. Etwa 95 Prozent davon sind kleiner als hundert Mikrometer, was in etwa dem Durchmesser eines Haares entspricht “, so Lars Hildebrandt. „Das sind relativ hohe Konzentrationen im Vergleich zur offenen Nordsee.“ Bei den am häufigsten identifizierten Partikeln handelt es sich um Polypropylen, Acrylate, Polyvinylchlorid und Polyethylen. Grundsätzlich stecken die verschiedenen Kunststofftypen in ganz unterschiedlichen Produkten, was eine eindeutige Zuordnung gefundener Partikel schwierig macht. Polypropylen und Polyethylen sind typische Verpackungsmaterialien. 40 Prozent der gesamten Kunststoffproduktion fließen in Verpackungen mit kurzer Produktlebensdauer. PVC (Polyvinylchlorid) wird in großen Mengen im Bauwesen eingesetzt, zum Beispiel in Form von Fußbodenbelag oder Leitungen. Acrylate findet man in Lacken und Farben, aber auch in vielen Kosmetikprodukten.

Wie sicher sind solche Ergebnisse?
In dieser Studie haben die Wissenschaftler erstmals den wichtigsten Leitfaden zur Erhebung von Messunsicherheiten für die Auswertung der Untersuchungen angewendet: den Guide to the Expression of Uncertainty in Measurement des Internationalen Büros für Maß und Gewicht, der weltweit wichtigsten Behörde für „Maß und Gewicht“. Sie dient als Wächter über das Internationale Einheitensystem und alle Arten von Messungen. Lars Hildebrandt erklärt: „Jede Art von Messung ist mit einer Unsicherheit behaftet, die zusammen mit dem gemessenen Wert als sogenannte Messunsicherheit angegeben wird. Viele bereits veröffentlichte Studien zu Mikroplastikpartikeln wenden die einschlägigen Leitfäden jedoch nicht an, wodurch in der Öffentlichkeit der Eindruck einer falschen Genauigkeit entstehen kann: ‚So sind die Konzentrationen und nicht anders.‘ Dem ist aber nicht so. Man stößt auf dieses Problem aber auch in anderen Bereichen des Alltags: Wenn man sich zum Beispiel die Nährwertangabe auf einer Käsepackung ansieht oder versucht, exakt zwei Kilogramm Kartoffeln auf dem Wochenmarkt zu kaufen.“

Auf die Ergebnisse aus der Elbe angewendet, zeigt sich in der sogenannten Unsicherheitsbetrachtung: Die Messwerte sind teilweise mit extrem hohen Unsicherheiten (von etwa 25 Prozent bis zu 200 Prozent) behaftet. „Die Hauptquelle dafür ist bei uns und auch bei allen anderen Studien: Die Verteilung der Mikroplastikpartikel im Elbwasser ist nicht gleichmäßig – die Partikel verhalten sich fundamental anders als gelöste Substanzen. Deshalb müssen Forscher die Messunsicherheit, die sich natürlich über die Inhomogenität hinaus auch aus dem verwendeten Probenahme- und Analyseverfahren ergibt, adäquat berechnen und bei der Veröffentlichung der Endergebnisse berücksichtigen. Oftmals zeigt sich, dass sich die gefundenen Muster im Transport und in der Verteilung von Mikroplastik im Wasser innerhalb der Messunsicherheiten nicht signifikant voneinander unterscheiden“, sagt Dr. Daniel Pröfrock, Leiter der Abteilung Anorganische Umweltchemie am HZG.

Optimieren und Standardisieren
„Das Thema Mikroplastikpartikel in unseren Gewässern steckt wissenschaftlich gesehen in den Kinderschuhen“, so Umweltchemiker Dr. Tristan Zimmermann, Co-Autor der Studie. „Wir brauchen repräsentative Techniken zur Probenahme, um den Umweltzustand valide abzubilden. Diese Techniken müssen analytisch akkurat, nachvollziehbar und robust sein, einen hohen Automatisierungsgrad aufweisen sowie zeit- und kosteneffizient sein.“ Zukünftig sollten auch entsprechende Unsicherheitsbetrachtungen standardmäßig im Rahmen von Mikroplastik-Studien durchgeführt werden, um die Vergleichbarkeit von Daten zu verbessern und eine solidere Datengrundlage für daraus abgeleitete Entscheidungen zur Verfügung stellen zu können. Mit ihren neuen Methoden haben Forschende des HZG bei einer Fahrt mit dem Forschungsschiff SONNE im vergangenen Dezember Proben im Atlantik genommen, um sich auch ein Bild über die Situation in anderen Teilen des Ozeans machen zu können. Diese werden aktuell in den Laboren des Instituts für Umweltchemie des Küstenraumes am HZG analysiert.

Wissenschaftliche Ansprechpartner:
Lars Hildebrandt
Doktorand Anorganische Umweltchemie
Helmholtz-Zentrum Geesthacht
Tel: +49 (0)4152 87-1813
lars.hildebrandt@hzg.de

Originalpublikation:
Lars Hildebrandt, Tristan Zimmermann, Sebastian Primpke, Dieter Fischer, Gunnar Gerdts, Daniel Pröfrock,
Comparison and uncertainty evaluation of two centrifugal separators for microplastic sampling,
Journal of Hazardous Materials,
Volume 414,
2021,
125482,
ISSN 0304-3894,
https://doi.org/10.1016/j.jhazmat.2021.125482

(nach oben)


Arbeitsbedingungen in sozialen Berufen verschlechtern sich weiter

Dr. Antje Mohr Pressestelle
Hochschule Fulda
Eine Online-Befragung unter mehr als 3.000 Beschäftigten in der Sozialen Arbeit zeigt: Ihre Arbeitssituation hat sich im zweiten Lockdown verschärft – durch steigende Nachfrage, zunehmende Arbeitsverdichtung, veränderte Beziehungen zu den Adressat*innen. „Die Folgen werden wir auch als Gesellschaft insgesamt spüren“, sagt Studienleiter Professor Dr. Nikolaus Meyer, Professor für Profession und Professionalisierung Sozialer Arbeit an der Hochschule Fulda. Auf einer digitalen Konferenz der Dienstleistungsgewerkschaft ver.di zum heutigen Internationalen Tag der Sozialen Arbeit hat er die Ergebnisse der Studie vorgestellt.

Im Forschungsprojekt „Soziale Arbeit macht Gesellschaft“ befragte er während des zweiten Lockdowns in Kooperation mit der Gewerkschaft ver.di Beschäftigte aus unterschiedlichen Handlungsfeldern der Sozialen Arbeit. 3.064 Personen beteiligten sich zwischen dem 9. November und 6. Dezember 2020 an der Online-Erhebung. Da bis heute kein Überblick über die genaue Zahl der Beschäftigten in der Sozialen Arbeit vorhanden ist, kann die Studie zwar nicht als repräsentativ gelten. Doch die Verteilung der Teilnehmenden entspricht in etwa den bisher bekannten wissenschaftlichen Annahmen zur Personalverteilung über die verschiedenen Handlungsfelder. Daher kann die Befragung Tendenzen zur aktuellen Situation in der Sozialen Arbeit und erste Hinweise auf mögliche langfristige Änderungen in diesem Arbeitsfeld liefern.

„Die Berufsgruppe der Sozialen Arbeit ist diejenige, die für die Bewältigung der Krise und deren soziale Folgen eine Schlüsselrolle einnimmt. Doch sie ist selbst stark von der Krise betroffen“, betont Professor Meyer. „Die Arbeitsbedingungen in der Sozialen Arbeit waren schon vor der Pandemie nicht optimal. Die Corona-Pandemie wirkt nun wie ein Brennglas.“

Nachdenken über Stellenwechsel
Die Online-Befragung zeigt: Einrichtungen sind im zweiten Lockdown sowohl häufiger geöffnet als auch von Beschränkungen der Angebote betroffen. Beschäftigte müssen daher mehr Angebote möglich machen oder mehr Adressat*innen parallel begleiten (24,8 Prozent), auch weil Kolleg*innen als Angehörige einer Risikogruppe ausfallen (18,3 Prozent) oder selbst erkrankt sind (47,2 Prozent). In der Folge verdichtet sich die eigene Arbeit und verändert sich nahezu vollständig (88,6 Prozent). 62,1 Prozent der Beschäftigten fühlen sich belastet oder sogar extrem belastet. Aus Sicht jeder zweiten befragten Person verschlechtern sich die Arbeitsbedingungen. 29,9 Prozent denken über einen Stellenwechsel nach, 16,2 Prozent sogar über einen Berufswechsel.

Tendenzen zur Deprofessionalisierung
Aus Sicht jeder zweiten befragten Person verändern sich auch die fachlichen Strukturen wie etwa die Zusammenarbeit zwischen den Fachkräften negativ. Der veränderte Austausch mit Vorgesetzten, Kolleg*innen sowie Kooperationspartner*innen wirkt sich negativ auf die eigenwahrgenommene Arbeitsqualität aus. Mit den sich verschlechternden Arbeitsbedingungen verbunden zeigen sich darüber hinaus auch grundsätzlichere Mechanismen der Deprofessionalisierung. So werden etwa Hilfen bei 13,3 Prozent der Befragten früher als üblich beendet.

Mehr Probleme der Adressat*innen, weniger professionelle Interventionen
Die Beschäftigten geben an, dass das Leben der Adressat*innen in der Corona-Pandemie herausfordernder und prekärer geworden ist. Gleichzeitig sagen Adressat*innen häufiger geplante Termine ab, wodurch sich die Möglichkeiten zur professionellen Intervention verringern. Die Kontaktzahl zu Adressat*innen über alle Handlungsfelder hinweg nimmt bei mehr als jeder zweiten befragten Person ab. „Eine gefährliche Entwicklung, und das nehmen die Befragten auch so wahr“, sagt Professor Meyer. Hinzu kommt: Die Schutzmaßnahmen verschlechtern die Interaktion. Fast drei Viertel der Befragten bewerten diese für das Arbeitsbündnis mit den Adressat*innen negativ. In den offenen Antworten geben sie an, dass die Adressat*innen durch die Schutzmaßnahmen verunsichert oder überhaupt nicht mehr erreicht würden.

Zerrieben zwischen Anspruch und Wirklichkeit
„Die Beschäftigten werden in der Pandemie zerrieben zwischen Vorgaben von außen, die weitgehend nicht den beruflichen Standards entsprechen und den hohen professionellen Ansprüchen an die Qualität der eigenen Arbeit. Diese Diskrepanz gleichen sie nur durch hohen persönlichen Einsatz aus, um die Adressat*innen individuell angemessen begleiten zu können“, analysiert Professor Meyer die Ergebnisse der Umfrage. Da könne es nicht verwundern, dass die Befragten zu Beginn des zweiten Lockdowns nur eine geringe Anerkennung der eigenen Arbeit durch die Gesellschaft wahrgenommen hätten.

Auswirkungen auf Adressat*innen und Gesellschaft
„Wir haben in der Studie zwar nicht untersucht, wie sich die Situation der über eine Million Beschäftigten in der Sozialen Arbeit auf die mindestens fünf Millionen Adressat*innen auswirkt. Aber: Die Arbeitsbedingungen der Beschäftigten in der Sozialen Arbeit haben letzten Endes auch Einfluss auf die Adressat*innen“, betont Professor Meyer und fordert: „Wir müssen anerkennen, dass Soziale Arbeit und die in ihr Beschäftigten für unsere Gesellschaft extrem wichtig sind. Diese Berufsgruppe organisiert Prävention, Erziehung und Bildung ebenso wie Hilfe und Unterstützung in den verschiedensten problembelasteten Lebenslagen. Das ist für die Aufarbeitung der durch die Corona-Pandemie entstehenden sozialen Probleme ungeheuer wichtig.“

HINTERGRUNDINFORMATIONEN
Finanzierung der Studie:
Die gesamte Studie wurde von der Hochschule Fulda finanziert.

Methodik:
Die Studie „SOZIALE ARBEIT MACHT GESELLSCHAFT“ baut auf einer Online-Befragung von 1.867 Beschäftigten in der Sozialen Arbeit im ersten Lockdown auf. Die quantitativen Daten zeigten, dass sich die professionellen Handlungsweisen verändern und Arbeitsbedingungen verschärfen (Buschle & Meyer 2020). Die Befragung im zweiten Lockdown fragte darüber hinaus, welche Veränderungen im professionellen Handeln sich dauerhaft etablieren. Zu diesem Zweck wurde ein Online-Fragebogen zwischen dem 9. November sowie dem 6. Dezember 2020 freigeschaltet. Der Link wurde an die ver.di-Mitglieder in diesem Bereich, alle Studierenden sowie Kooperationspartner der Hochschule Fulda sowie an die Studiengangskoordinator*innen aus dem Verbund „Bachelor Soziale Arbeit Online“ (BASA-Online), hier arbeiten sieben Hochschulen aus dem gesamten Bundesgebiet zusammen, weitergegeben. Außerdem erhielten den Link alle Landesverbände der Berufsgruppenvertretungen Gilde Soziale Arbeit sowie Deutscher Berufsverband Soziale Arbeit (DBSH) und die wissenschaftliche Fachgesellschaft Deutsche Gesellschaft für Soziale Arbeit (DGSA). Ebenso wurden Interessenvertretungen wie die Arbeitsgemeinschaft Kinder- und Jugendhilfe (AGJ) und die Deutsche Vereinigung für Soziale Arbeit im Gesundheitswesen (DVSG) mit der Bitte um Weitergabe kontaktiert. Alle angeschriebenen Institutionen nahmen den Link in ihre Verteiler auf. Auf diese Weise wurden 3.064 Teilnehmende aus den verschiedenen Handlungsfeldern der Sozialen Arbeit gewonnen.

Wissenschaftliche Ansprechpartner:
Professor Dr. Nikolaus Meyer
Hochschule Fulda, Fachbereich Sozialwesen
E-Mail: nikolaus.meyer@sw.hs-fulda.de
Mobil: 0176 240 918 50

Originalpublikation:
Meyer, N. & Alsago, E. (2021). Soziale Arbeit in der Corona-Pandemie: Arbeiten am Limit? Ein empirischer Beitrag zur Lage der Beschäftigten aus professionstheoretischer Perspektive. Sozial Extra, in Begutachtung/peer review.

Weitere Informationen:
https://www.verdi.de/presse/downloads/pressemappen Profis am Limit – digitale Konferenz der Dienstleistungsgewerkschaft ver.di am 16. März 2021 – Presseinformation mit Statements

(nach oben)


Internetnutzung von Menschen in der zweiten Lebenshälfte während der Pandemie: Soziale Ungleichheiten bleiben bestehen

Stefanie Hartmann Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen
Die Corona-Pandemie und die damit verbundenen Maßnahmen zur Eindämmung haben den Alltag der meisten Menschen stark verändert. Sie sollen nur in Ausnahmefällen die eigene Wohnung verlassen. Soziale Kontakte zu pflegen und an Veranstaltungen teilzunehmen, ist kaum noch oder nur digital möglich. Verändert sich deshalb das Nutzungsverhalten rund um das Internet? Doch zuallererst ist ein Internetzugang erst einmal notwendig.

Im Rahmen des Deutschen Alterssurveys (DEAS) wurde untersucht, wie sich im Juni/Juli 2020 der Zugang zum Internet und seine Nutzung im Vergleich zu 2017 verändert haben. Befragt wurden Personen im Alter von 46 bis 90 Jahren. Circa ein Fünftel der Befragten gab an, das Internet seit Beginn der Corona Pandemie im März häufiger für private Zwecke zu nutzen als vor Beginn der Pandemie.

Besonders häufig suchten die Befragten im Jahr 2020 im Internet nach Informationen. Darunter fallen Nachrichten und Service-Angebote, beispielsweise um sich über das aktuelle Pandemiegeschehen zu informieren. Ebenfalls zeigen die DEAS-Daten, dass bestehende soziale Kontakte stärker über das Internet gepflegt wurden als noch im Jahr 2017. Vielfach ersetzen offenbar Videochats Zusammenkünfte innerhalb der Familie, z. B. von Großeltern und ihren Enkelkindern. Auch Angebote zur Unterhaltung und Kultur im Netz wurden stärker nachgefragt als 2017.

Um auf solche digitalen Möglichkeiten auszuweichen, ist zunächst ein Internetzugang erforderlich. Zwar ist zu erkennen, dass mehr Menschen darüber verfügen als noch im Jahr 2017 – aber die Unterschiede zwischen verschiedenen Bevölkerungsgruppen sind immer noch deutlich. Auch im Jahr 2020 sind es weniger Frauen als Männer, die einen Zugang hatten. Noch entscheidender sind aber der Bildungsstatus und – das Alter. Insbesondere unter den 76- bis 90-Jährigen hat nur etwas mehr als jeder Zweite Zugang zum Internet – und damit zu wichtigen Ressourcen gerade in Pandemiezeiten.

Diese Unterschiede beim Zugang spiegeln sich auch bei der Art der Internetnutzung wider. Selbst unter denjenigen, die die Möglichkeit haben, im Internet zu surfen, nutzen Personen in der ältesten Altersgruppe seltener die damit verbundenen Möglichkeiten. Beispielsweise scheinen die über 76-Jährigen dem Online-Einkauf noch immer kritisch gegenüber zu stehen.

Die Corona-Pandemie hat noch einmal deutlich gezeigt, welche Handlungsmöglichkeiten das Internet eröffnen kann. Daher ist es wichtig, dass der Zugang zum Internet möglichst niedrigschwellig und kostengünstig gestaltet wird, sodass allen die Möglichkeit offen steht, das Internet zu nutzen. Dazu gehört auch die gezielte Vermittlung und Stärkung von Kompetenzen der Internetnutzung.

Der Deutsche Alterssurvey (DEAS) ist eine repräsentative Quer- und Längsschnittbefragung von Personen in der zweiten Lebenshälfte. Im Rahmen der Studie werden seit mehr als zwei Jahrzehnten Menschen auf ihrem Weg ins höhere und hohe Alter regelmäßig befragt. An der schriftlich-postalischen Befragung im Juni und Juli 2020 haben 4.762 Personen im Alter von 46 bis 90 Jahren teilgenommen. Der Deutsche Alterssurvey wird gefördert vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ).

Originalpublikation:
Lisa Kortmann, Christine Hagen, Cordula Endter, Julia Riesch und Clemens Tesch-Römer: Internetnutzung von Menschen in der zweiten Lebenshälfte während der Corona-Pandemie: Soziale Ungleichheiten bleiben bestehen [DZA-Aktuell 05/2021]. Berlin: Deutsches Zentrum für Altersfragen.
https://www.dza.de/fileadmin/dza/Dokumente/DZA_Aktuell/DZA-Aktuell_05_2021_Inter…

(nach oben)


TU Berlin: Weniger Behandlungsfälle trotz Pandemie

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Die Analyse von Krankenhausdaten durch TU-Wissenschaftler zeigt zudem eine niedrige Bettenauslastung / Online-Vortrag zur Situation deutscher Kliniken im Covid-19-Jahr 2020 am 15. März 2021

Im Jahr 2020 sind in deutschen Krankenhäusern 13 Prozent weniger abgerechnete Behandlungsfälle registriert worden als im Jahr 2019. In der Zeit vom 9. März bis 24. Mai 2020, das ist die Zeit des ersten Lockdowns, sanken die Fallzahlen sogar um 30 Prozent gegenüber dem Vorjahr. Das ist das Ergebnis einer Analyse von Krankenhausdaten, die Prof. Dr. Reinhard Busse und Dr. Ulrike Nimptsch, vorgenommen haben. Reinhard Busse leitet an der TU Berlin das Fachgebiet Management im Gesundheitswesen. Ulrike Nimptsch ist am Fachgebiet wissenschaftliche Mitarbeiterin. Die Auswertung wurde für den Beirat zur Überprüfung der Auswirkungen der Regelungen des COVID-19-Krankenhausentlastungsgesetzes vorgenommen, dessen Mitglied Prof. Dr. Reinhard Busse ist. Das Gesetz war im März 2020 verabschiedet worden, um die im Zusammenhang mit der Pandemie befürchtete Kapazitätenknappheit in deutschen Krankenhäusern abzuwenden.

Historisches Tief
Der Rückgang der Behandlungsfälle führte trotz einer kleinen Zunahme der Verweildauer pro Patient auch zu einem Rückgang der Verweildauertage um zwölf Prozent. Dadurch sank die Bettenauslastung der Krankenhäuser: „Lag die Bettenauslastung 2019 noch bei 75,1 Prozent, erreichte sie 2020 ein historisches Allzeittief von 67,3 Prozent“, sagt Prof. Dr. Reinhard Busse. Besonders niedrig war sie mit 62,1 Prozent bei den kleineren Krankenhäusern mit bis zu 299 Betten.

Die Zahl der gemeldeten Intensivbetten erhöhte sich im vergangenen Jahr um 206 Betten von 26.581 im Jahr 2019 auf 26787 im Jahr 2020. Dabei konstatieren Busse und Nimptsch jedoch Unterschiede hinsichtlich der Größe der Krankenhäuser. Sank die Anzahl der Intensivbetten in den kleinen Krankenhäusern (bis zu 299 Betten) um sieben Prozent, stieg sie in den großen Krankenhäusern (ab 600 Betten) um fünf Prozent. Dass kleine Krankenhäuser in der Pandemie Intensivbetten abbauten, war ein überraschender Befund, ist jedoch ein weiterer Beleg für die Leistungskonzentration bei den größeren Häusern.

172.248 Behandlungsfälle, bei denen das Coronavirus SARS-CoV-2 nachgewiesen worden war, wurden 2020 in deutschen Krankenhäusern gezählt und an das Institut für das Entgeltsystem im Krankenhaus übermittelt. „Dabei ist es wichtig zu beachten, dass es sich um Fälle handelt und nicht um Personen. Wenn also eine Person von einem Krankenhaus in ein anderes verlegt wurde, sind das zwei Fälle“, erklärt Dr. Ulrike Nimptsch. Von den 172.248 Fällen wurden 36.305 Fälle, also über ein Fünftel, intensivmedizinisch behandelt. „Die durchschnittliche Verweildauer dieser Patienten auf Intensivstation betrug 9,1 Tage, eine im Vergleich mit anderen Diagnosen sehr lange Zeit“, so Dr. Ulrike Nimptsch. 60 Prozent der intensivmedizinisch versorgten Covid-19-Patienten wurden in den 330 größten (ab 400 Betten) der insgesamt über 1400 Krankenhäuser versorgt. Laut Robert-Koch-Institut starben 2020 etwa 40.000 Menschen an oder mit Covid-19. Die Analysen der TU-Wissenschaftler zeigen, dass 75 Prozent davon, also 30.307 Patienten, im Krankenhaus starben.

Weniger Hüfte, weniger Knie
Besonderes Augenmerk lag auf der Absage beziehungsweise Verschiebung von elektiven, also planbaren Operationen. „Bei den eingesetzten künstlichen Hüftgelenken verringerten sich die Fallzahlen um neun Prozent im Vergleich zu 2019 und bei den künstlichen Kniegelenken um elf Prozent“, sagt Prof. Dr. Reinhard Busse. Deutlich stärker waren allerdings die Rückgänge von Krankenhausfällen mit den Hauptdiagnosen Diabetes, Bluthochdruck, Herzinsuffizienz, Chronisch-Obstruktive Lungenerkrankung (COPD) und Asthma, die die OECD als potenziell vermeidbare Krankenhausfälle einstuft. Bei der Hauptdiagnose Asthma gingen die Krankenhausfälle um 29 Prozent zurück, bei COPD um 26 Prozent, bei Bluthochdruck um 18 Prozent, bei Diabetes um 17 Prozent und bei Herzinsuffizienz um zwölf Prozent im Vergleich zu 2019. „Das verdeutlicht, dass das Inanspruchnahmeverhalten der Patienten eine deutlich größere Rolle als die Absage von elektiven Operationen durch die Krankenhäuser gespielt hat. Dass sich diese Entwicklung verstetigt, ist somit zumindest nicht unwahrscheinlich“, resümieren die beiden Wissenschaftler.

Am Montag, dem 15. März 2021, 18.15 Uhr, wird Prof. Dr. Reinhard Busse im Rahmen des Spreestadtforums den Vortrag „Wie erging es den Krankenhäusern im Covid-19-Jahr 2020? Analyse der Fallzahlen, Belegung und Sterblichkeit nach Indikationen und Krankenhausgröße“ via Zoom halten.

Link zur Auswertung der Krankenhaus-Daten: https://www.aerzteblatt.de/archiv/218200/COVID-19-Pandemie-Historisch-niedrige-B….

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. med. Reinhard Busse
TU Berlin
Fachgebiet Management im Gesundheitswesen
Tel.: 030 314-28420
E-Mail: mig@tu-berlin.de oder rbusse@tu-berlin.de

Dr. Ulrike Nimptsch
TU Berlin
Fachgebiet Management im Gesundheitswesen
E-Mail: ulrike.nimptsch@tu-berlin.de

(nach oben)


Erste Lausitzer Wasserkonferenz in Cottbus startet durch

Ralf-Peter Witzmann Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg
Den großen Herausforderungen bei der Bewältigung der mit dem Strukturwandel in der Lausitz einhergehenden wasserwirtschaftlichen Aufgaben Rechnung tragend, sind drei Fachministerien der Einladung des Wasser-Cluster-Lausitz e.V. zur Teilnahme an der Wasserkonferenz gefolgt.

Die Veranstaltung wurde am 12. März 2021 an der Brandenburgischen Technischen Universität (BTU) als Hybridveranstaltung mit mehr als 450 Online-Teilnehmenden aus dem In- und Ausland sowie einem sehr begrenzten Personenkreis in Präsenz durchgeführt.

Die Präsidentin der BTU Cottbus–Senftenberg Prof. Gesine Grande unterstreicht in ihrer Eröffnungsrede die Rolle der Universität als Plattform für den fachlichen Austausch und den Diskurs: „Die Weichen, die wir heute für eine verantwortungsvolle und nachhaltige Nutzung unserer überaus wichtigen Ressource Wasser stellen, haben unmittelbare Auswirkungen auf unsere Zukunft und die unserer Region. Über meine Funktion im Nachhaltigkeitsbeirat des Landes Brandenburg werde ich die Brisanz des Themas, die Ergebnisse der Konferenz und das Know-how der BTU hinsichtlich der wasserwirtschaftlich zu lösenden Aufgaben einbringen.“

In ihrer Videobotschaft sagt die zuständige Senatorin für Umwelt, Verkehr und Klimaschutz in Berlin Regine Günther: „Die jahrzehntelangen massiven Eingriffe in den Wasserhaushalt durch die Braunkohleförderung sowie der beschleunigte Klimawandel stellen die Hauptstadtregion zukünftig vor enorme Herausforderungen bei der sicheren Wasserversorgung. Wir benötigen ein kluges und vorausschauendes Wassermanagement unter Berücksichtigung der Gewässerökologie. Dabei gilt es jetzt gemeinsam einer möglichen Wasserknappheit entgegen zu steuern. Die Wasserkonferenz ist hier ein wichtiger Beitrag.“

Auf die Rolle des Landes Brandenburg geht Umweltminister Axel Vogel ein: „Der Ausstieg aus der Braunkohle ist alleine schon aus Gründen des Klimaschutzes unvermeidlich und zwingend erforderlich. Die gravierenden Folgen des Kohleabbaus für den Wasserhaushalt werden uns noch lange begleiten und können nicht von einer Generation bewältigt werden. Für die dafür notwendigen Maßnahmen sind zuallererst die Bergbauunternehmen nach dem Verursacherprinzip in der Pflicht. Gleichzeitig arbeiten Brandenburg, Sachsen und Berlin länderübergreifend an Lösungen zur Stabilisierung des Wasserhaushalts. Zur Absicherung aller ökologischen und wasserwirtschaftlichen Interessen, vor allem in niederschlagsarmen Zeiten, braucht es ein gemeinsames und zielgerichtetes Handeln auf allen Ebenen. Das gilt für das Einzugsgebiet von Spree und der Schwarzen Elster gleichermaßen. In Abstimmung mit Sachsen wird aktuell die Nutzung der Tagebaurestseen sowohl für den Wasserrückhalt in Hochwassersituationen als auch für die Niedrigwasseraufhöhung untersucht. Wir brauchen zur Bewältigung dieser Aufgaben, die dazu noch durch den fortschreitenden Klimawandel erschwert wird, zukunftsorientierte Anpassungsstrategien und weiterhin die gemeinsame Anstrengung von Unternehmen, Landnutzern, Politik, Wissenschaft und allen beteiligten Akteuren.“

Wie ein roter Faden durchzieht es alle Vorträge: Die Bewältigung der wasserwirtschaftlichen Folgen des Braunkohlebergbaues in Verbindung mit den zeitgleich wirkenden Einflüssen des Klimawandels sind als Mehrgenerationsaufgaben zu sehen. Dafür gibt es weltweit keine Beispiele. Hier hat das Bundesunternehmen Lausitzer und Mitteldeutsche Bergbau-VerwaltungsgesellschaftmbH (LMBV) in den vergangenen 25 Jahren auf vorbildliche Weise gezeigt, wie trotz häufiger Trockenwetterperioden Bergbaufolgeseen aufgefüllt und zu erlebnisreichen Landschaften entwickelt werden können.

Dass auch in den niederschlagsarmen Jahren 2018 bis 2020 keiner der Spreeanrainer bis Berlin einen größeren Schaden genommen hat, liegt nach Ansicht von Sachsens Umweltminister Wolfram Günther am engen Schulterschluss zwischen Berlin, Brandenburg und Sachsen. Günther: „Mit unseren Speichern im Oberen Spreegebiet sorgt die sächsische Landestalsperrenverwaltung kontinuierlich für eine angemessene Wasserführung der Spree. Wir stimmen uns bereits seit vielen Jahren länderübergreifend ab, um das Wasser in den Einzugsgebieten von Spree und Schwarzer Elster zu bewirtschaften. Auf diese Zusammenarbeit werden wir bei der Bewältigung des Struktur- und Klimawandels aufbauen.“ Dazu sei auch ein besserer Wasserrückhalt in der Fläche, im Siedlungsraum und im unbebauten Offenland notwendig. „Die Folgen des Braunkohleabbaus für den Wasserhaushalt in der Lausitz werden uns noch Jahrzehnte begleiten und viel Geld kosten. Selbstverständlich müssen die Kohleunternehmen ihre gesetzlichen Verpflichtungen erfüllen. Die darüber hinausgehenden Langzeitkosten können die Länder nicht allein stemmen. Hier ist der Bund gefragt, denn die jahrzehntelange Kohlenutzung war ein Teil der nationalen Energieversorgung“, so der Minister weiter.

Im Schlusswort der Wasserkonferenz betonte Sprembergs Bürgermeisterin und ehemaliges Mitglied der Kommission Wachstum, Strukturwandel und Beschäftigung, die so genannte „Kohlekommission“ Christine Herntier: „Ich fahre heute etwas beruhigter nach Hause und wünsche mir vor allem, dass neben künftigen regelmäßigen Wasserkonferenzen vor allem die noch bestehende Denkhindernisse an den Ländergrenzen zum Wohle der Lausitz aber auch der Hauptstadtmetropole noch schneller überwunden werden“.

Pressekontakt:
Susett Tanneberger
Stabsstelle Kommunikation und Marketing
T +49 (0) 355 69-3126
susett.tanneberger@b-tu.de

Wissenschaftliche Ansprechpartner:
Dipl.- Ing. Ingolf Arnold
Vorsitzender des Wasser-Cluster-Lausitz e.V.
Tel.: 0173 576 0134
Ingolf.arnold@wasser-cluster-lausitz.de

Dr.-Ing. Volker Preuß
BTU Cottbus – Senftenberg
Wassertechnik
T +49 (0) 355 69-4312
Volker.Preuss@B-TU.De

Weitere Informationen:
https://www.wasser-cluster-lausitz.de/ – zum Wasser Cluster Lausitz e.V.
https://www.b-tu.de/news/artikel/18238-erste-lausitzer-wasserkonferenz-in-cottbu… – mehr zur Lausitzer Wasserkonferenz

(nach oben)


Europäisches Forschungsnetzwerk untersucht die Mikroplastikbelastung von Ackerböden

Michael Hallermayer Stabsstelle Kommunikation und Marketing
Universität Augsburg
Unter Leitung des Augsburger Geographen Prof. Dr. Peter Fiener ist ein europaweites „EU Innovative Training Network“ gestartet, dass die Belastung landwirtschaftlich genutzter Böden mit Makro- und Mikroplastik untersucht. Insgesamt 14 Doktorandinnen und Doktoranden an elf europäischen Forschungseinrichtungen arbeiten an dem Thema.

Mit dem Programm der „Innovative Training Networks“ möchte die EU eine neue Generation von innovativen Nachwuchswissenschaftlerinnen und -wissenschaftlern fördern, die sich mit den bestehenden und wachsenden Herausforderungen unserer Zeit auseinandersetzen. Ihre aus der Forschung gewonnene Expertise soll Einfluss in innovative Produkte, Dienstleistungen und Ideen für Wirtschaft und Gesellschaft finden.

Das Ziel des SOPLAS-Forschungsnetzwerks (Macro and Microplastic in Agricultural Soil Systems) ist es, bestehende Wissenslücken im Kontext „Plasticulture“ und Bodensysteme zu schließen. Des Weiteren soll der Austausch zwischen Forschung, Industrie und Landwirtschaft verbessert und letztendlich einen Beitrag zu einer nachhaltigeren Nutzung von Plastik in der Landwirtschaft in Europa zu leisten.

Die Wissenschaftlerinnen und Wissenschaftler aus den Bereichen Geographie, Agronomie, Bodenkunde, Biologie, Mikrobiologie, Hydrologie, Chemie, Ökonomie und Lebenswissenschaften arbeiten mit weiteren Partnern aus Industrie und Umweltverwaltung an folgenden Forschungsaspekten:

• Anpassung und Optimierung bestehender Methoden zur Quantifizierung von Makro- und Mikroplastik im Boden,
• Verbesserung des Verständnisses von Zersetzungsprozessen von Plastik in Bodenökosystemen,
• Untersuchung der Auswirkungen von Mikroplastik auf Bodenorganismen,
• Analyse der Austragspfade von Mikroplastik aus landwirtschaftlichen Flächen,
• und Untersuchung der Bereitschaft von Landwirten und Konsumenten die Verwendung von Plastikmaterialien im Kontext landwirtschaftlicher Produktion zu verringern.

„Erste Abschätzungen legen nahe, dass global in Böden mehr Mikroplastik zu finden ist als in den Ozeanen. Wie groß die konkrete Belastung ist und welche ökologischen bzw. ökotoxikologischen Auswirkungen dies hat, ist aber weitestgehend unbekannt. Das europäische Doktorandennetzwerk SOPLAS bietet Nachwuchswissenschaftlern eine fantastische Möglichkeit, in einem noch jungen und zugleich hoch relevanten Feld der Umweltforschung Neues zu entdecken“, sagt Prof. Dr. Peter Fiener.

Kern des Netzwerks sind die Doktorandenprojekte, welche thematisch verzahnt sind, um sich den Fragestellungen des Themenkomplexes aus verschiedenen Blickwinkeln zu nähern. Ein Austauschprogramm ermöglicht für jeden Doktoranden und jede Doktorandin einen vier bis sechs monatigen Forschungsaufenthalt an einer der Partnerinstitutionen für einen wechselseitigen Wissenstransfer. Zudem erlernen die Promovierenden in sechs einwöchigen Trainingsmodulen wissenschaftliche und methodische Kompetenzen. Die Trainingsprogramme werden von den Institutionen des Netzwerkes gelehrt und ausgerichtet, was wiederum den Wissenstransfer innerhalb des Netzwerks sicherstellt.

Das EU Innovative Training Network SOPLAS wird von Januar 2021 bis Dezember 2024 von der EU mit ca.3,7 Mio. Euro gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Fiener, Wasser- und Bodenressourcenforschung
peter.fiener@geo.uni-augsburg.de
+49 821 598 2665

Dr. Florian Wilken, Wasser- und Bodenressourcenforschung
florian.wilken@geo.uni-augsburg.de
+49 821 598 2753

(nach oben)


Klimawandel verändert Abflussmenge von Flüssen

Hochschulkommunikation Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Die Wassermengen in Flüssen haben sich in den letzten Jahrzehnten weltweit stark verändert. Ein internationales Forschungsteam unter Leitung der ETH Zürich konnte nun belegen, dass der Klimawandel dafür auf globaler Ebene eine entscheidende Rolle spielt, nicht aber Gewässermanagement und Landnutzung.

Der Klimawandel beeinflusst den Wasserhaushalt der Erde: Je nach Region und Jahreszeit kann er zu mehr Überschwemmungen oder Dürren führen und sich auch auf die Wassermengen in Flüssen auswirken. Die Abflussmengen sind ein wichtiger Indikator für die Wasserressourcen, die Mensch und Umwelt zur Verfügung stehen. Wieviel Wasser regional verfügbar ist, hängt auch von weiteren Faktoren wie direkten Eingriffen in den Wasserhaushalt oder der Landnutzung ab: Wird beispielsweise Wasser zur Bewässerung abgezweigt, über Stauseen reguliert, oder werden Wälder abgeholzt und stattdessen Monokulturen angebaut, kann dies ebenfalls die Wassermenge in Flüssen verändern.

Wie stark sich die Abflussmengen in verschiedenen Weltregionen während der letzten Jahrzehnte verändert haben, wurde bisher aber auf globaler Ebene noch nicht anhand von konkreten Messdaten untersucht. Ebenso war die Frage, ob global sichtbare Veränderungen auf den Klimawandel oder auf direkte menschliche Eingriffe in den Wasserhaushalt und die Landnutzung zurückzuführen sind, bislang nicht geklärt.

Nun ist es einem internationalen Forschungsteam unter Leitung der ETH Zürich gelungen, den Einfluss dieser Faktoren aufzuschlüsseln. Dazu analysierten die Wissenschaftlerinnen und Wissenschaftler Daten von 7250 Abfluss-Messstationen weltweit. Die Studie, die nun in der renommierten Fachzeitschrift Science erschienen ist, belegt: Wie viel Wasser Flüsse führen, hat sich zwischen 1971 und 2010 stark verändert. Es zeigen sich komplexe Muster: Manche Regionen sind trockener geworden, etwa der Mittelmeerraum oder der Nordosten Brasiliens, während anderswo die Wassermengen zunahmen, zum Beispiel in Skandinavien.

Suche nach den Ursachen
«Die eigentliche Frage war jedoch, was die Ursache für diese Veränderungen ist», sagt Lukas Gudmundsson, Erstautor der Studie und Oberassistent in der Gruppe von Sonia Seneviratne, Professorin am Institut für Atmosphäre und Klima der ETH.

Um das herauszufinden, führten die Forschenden mehrere Computersimulationen durch. Sie verwendeten globale hydrologische Modelle, die sie mit beobachteten Klimadaten aus dem untersuchten Zeitraum fütterten (1971 bis 2010). Die Ergebnisse der Modellrechnungen stimmten gut mit der Analyse der Flussmessdaten überein. «Das heisst, dass die klimatischen Bedingungen die beobachteten Trends bei den Abflussmengen erklären können», sagt Gudmundsson.

In einem zweiten Durchgang schlossen die Forschenden in ihre Simulationen zusätzlich direkte menschliche Veränderungen ein, um den Einfluss dieser Faktoren zu untersuchen. Das Ergebnis änderte sich dadurch jedoch nicht. «Veränderungen im Wasser- und Landmanagement sind offenbar nicht die Ursache für die globalen Veränderungen in Flüssen», sagt Gudmundsson.

Gewässermanagement und Landnutzung können zwar lokal zu grossen Schwankungen der Abflüsse führen. «Uns ging es aber nicht um lokale, sondern um globale Trends, die über längere Zeiträume sichtbar werden», sagt Gudmundsson. Deshalb betrachteten die Forschenden nicht isoliert die Daten einzelner Messstationen, sondern fassten diese für die Analyse zu grösseren, subkontinentalen Regionen zusammen. Dadurch wurde es möglich, den Einfluss des Klimawandels in den Daten zu erkennen.

Einfluss der Treibhausgase
Die Rolle des Klimawandels konnten die Forschenden mit der sogenannten Attributions-Methode untermauern: Sie verglichen ihre Messdaten mit Simulationen von Klimamodellen, die einmal mit den menschengemachten Treibhausgasen berechnet wurden und einmal ohne diese. Im ersten Fall stimmte die Simulation mit den tatsächlichen Daten überein, im zweiten Fall jedoch nicht. «Daraus lässt sich ableiten, dass die beobachteten Veränderungen ohne den Klimawandel sehr unwahrscheinlich sind», sagt Gudmundsson.

Die Studie ist die erste, welche mit Messdaten nachweist, dass der Klimawandel einen global sichtbaren Einfluss auf die Fliessgewässer hat. «Dies war nur durch die gute Zusammenarbeit der beteiligten Forschenden und Institutionen aus zwölf verschiedenen Ländern möglich», betont Gudmundsson. Auch die gesammelten Daten von den 7250 Messstationen weltweit waren ein Gemeinschaftswerk: Die Forschenden trugen sie mit australischen Kollaborationspartnern in einer Vorgängerstudie zusammen. Sie bilden den grössten weltumspannenden Datensatz zur Wassermenge in Flüssen, der heute verfügbar ist. «Dank dieser Daten konnten wir die Modelle validieren und zeigen, dass sie die Realität gut abbilden», sagt Gudmundsson.

Das heisst, dass die Modelle auch verlässliche Szenarien liefern können, wie sich Flüsse künftig weiter verändern werden. Solche Projektionen stellen für betroffene Regionen eine wichtige Planungsgrundlage dar, um die Wasserversorgung sicherzustellen und sich an den Klimawandel anzupassen.

Wissenschaftliche Ansprechpartner:
Lukas Gudmundsson, lukas.gudmundsson@env.ethz.ch

Originalpublikation:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2021/03/klimawandel-be…

(nach oben)


Erholung an europäischen Gewässern bringt Volkswirtschaft 800 Milliarden Euro

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin

Europäerinnen und Europäer geben jährlich über 800 Milliarden Euro für die Erholung an Küsten und Gewässern aus. Das belegt eine EU-weite Studie unter Leitung der Hochschule für Wirtschaft und Recht Berlin.

• Zum ersten Mal hat ein Forscherteam den ökonomischen Wert von Erholung an und in Gewässern in Europa ermittelt
• Ökologisch intakte Gewässer und Grünflächen für das physische und psychische Wohlbefinden von Menschen enorm wichtig
• Wasserqualität für die Nutzung zu Erholungszwecken entscheidend, Haushaltseinkommen und Bildungsniveau nicht

Gewässer und ihre Umgebung sind wichtig für die physische und psychische Gesundheit der Menschen. Der volkswirtschaftliche Nutzen ist hoch und abhängig von der Wasserqualität. Eine Verschlechterung der Qualität in Binnen- und Küstengewässern würde die Länder der Europäischen Gemeinschaft mehr als 100 Milliarden Euro an entgangenem Erholungswert kosten.

Zum ersten Mal hat ein Team von Wissenschaftlerinnen und Wissenschaftlern aus Großbritannien, Österreich, Irland und Finnland unter Leitung von Volkswirtschaftsprofessor Dr. Tobias Börger, Hochschule für Wirtschaft und Recht Berlin (HWR Berlin), den ökonomischen Stellenwert von Erholung in und an Gewässern in Europa ermittelt. Die EU-finanzierte Studie zum Forschungsprojekt unter dem Titel „Blue Health“ wird am 1. März 2021 im Fachjournal “Science of the Total Environment” veröffentlicht.

Auf Basis der Antworten von mehr als 10 000 Erholungssuchenden in 14 Ländern der Europäischen Union im Rahmen von Urlaubsaufenthalten, Tagesausflügen und Spaziergängen am Wasser. „Innerhalb der EU beläuft sich der Erholungswert auf über 800 Milliarden Euro pro Jahr. Dies zeigt den enormen Stellenwert von Gewässern für Erholung und Gesundheit“, sagt Tobias Börger. „Die Covid-19-Krise hat uns gezeigt, wie wichtig ökologisch intakte Gewässer und Grünflächen für das physische und psychische Wohlbefinden von Menschen sind. Unsere Forschung belegt, dass es von großer volkswirtschaftlicher Relevanz ist, unbedingt hohe Standards in der Wasserqualität anzustreben und zu halten, vor allem, wenn Reisebeschränkungen zur Verhinderung der Ausbreitung der Pandemie langsam heruntergefahren werden“, so der Experte für Umwelt-, Energie- und Ressourcenökonomik an der HWR Berlin.

Einer EU-Richtlinie folgend, müssen an den über 15 000 Küsten- und fast 7 000 Binnengewässern in der Europäischen Union gut sichtbar Hinweisschilder angebracht sein, die über die Wasserqualität der letzten vier Jahre informieren. Demnach erfüllen 95 Prozent der Wasserflächen in den Mitgliedsstaaten die festgelegten Mindeststandards und sind zum Baden freigegeben. Bei 85 Prozent wird die Wasserqualität sogar als ausgezeichnet eingestuft.

Prof. Danny Campbell von der Universität Stirling in Großbritannien und Co-Autor der Studie sagt: „Unsere empirische Untersuchung hat ergeben, dass die Beschaffenheit der Wasserqualität für die Menschen bei der Entscheidung über die Nutzung von Gewässern als Erholungsorte sehr wohl von Bedeutung ist. Gleichzeitig sehen wir aber auch, dass das Haushaltseinkommen und das Bildungsniveau keine Rolle spielen. Alle Bevölkerungsgruppen verbringen Freizeit an Seen und Küsten und profitieren in Bezug auf ihre Gesundheit und ihr Wohlbefinden.“

Die Ergebnisse des „Blue Health“-Projekts reihen sich ein in die zahlreicher werdende Forschung zur Bedeutung von Binnen- und Küstengewässern für die Gesundheit der Menschen in Europa. „Wasserflächen nützen der Bevölkerung auf unterschiedliche Art“, unterstreicht Co-Autor Dr. Mathew White von der Universität Exeter. „Diese Erholungsorte regen zu Sport und Bewegung an, tragen bei zum Stressabbau und zur Entspannung, und sie sind wichtig für die Menschen, um mit Familie und Freunden sinnvoll Zeit zu verbringen. All das wirkt sich förderlich auf Psyche und Körper aus“, sagt der britische Wissenschaftler und verweist darauf, dass gute Wasserqualität der Schlüssel sei, um Menschen anzuregen, von den vielen Vorteilen Gebrauch zu machen.

Das Forscherteam will mit der Studie Planer/innen und Verantwortlichen bei nationalen und europäischen Regulierungsbehörden Fakten und Argumente an die Hand geben, um die Kosten für die Schaffung und Instandhaltung von Infrastruktur zu begründen, die zur Erhaltung einer hohen Wasserqualität an Badeorten anfallen.

Die „Blue Health“-Studie
„The value of blue-space recreation and perceived water quality across Europe: A contingent behaviour study” in „Science of the Total Environment“, Elsevier, 2021

Authors: Tobias Börger (a,b)*, Danny Campbell (b), Mathew P. Whitec (d), Lewis R. Elliott (d), Lora E. Fleming (d), Joanne K. Garrett (d), Caroline Hattam (e), Stephen Hynes (f), Tuija Lankia (g), Tim Taylor (d)

(a) Department of Business and Economics, Berlin School of Economics and Law, Germany
(b) Applied Choice Research Group, University of Stirling Management School, United Kingdom
(c) Cognitive Science Hub, University of Vienna, Austria
(d) European Centre for Environment and Human Health, University of Exeter Medical School, United Kingdom
(e) ICF, Plymouth, United Kingdom
(f) Socio-Economic Marine Research Unit, Whitaker Institute, National University of Ireland, Galway, Ireland
(g) Natural Resources Institute Finland (LUKE), Finland

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht (HWR) Berlin ist mit über 11 500 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in über 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutenden und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
http://www.hwr-berlin.de

About the University of Exeter Medical School
The University of Exeter Medical School is part of the University of Exeter’s College of Medicine and Health. Our mission is to improve the health of the South West and beyond, through the development of high quality graduates and world-leading research that has international impact. As part of a Russell Group university, we combine this world-class research with very high levels of student satisfaction. Exeter has over 19,000 students and is ranked 12th in The Times and Sunday Times Good University Guide 2020. The University of Exeter Medical School’s Medicine course is in the top 10 in the Complete University Guide 2020.
The College’s Medical Imaging programme is ranked in the top 5 in the Guardian Guide 2020 and the Complete University Guide 2020. The University of Exeter entered the world top 20 for Biomedical and Health Sciences in the CWTS Leiden Ranking 2019, based on the percentage of publications ranked in the top 10 per cent most cited.
https://medicine.exeter.ac.uk/

University of Stirling
The University of Stirling is ranked fifth in Scotland and 40th in the UK for research intensity in the 2014 Research Excellence Framework. Stirling is committed to providing education with a purpose and carrying out research which has a positive impact on communities across the globe – addressing real issues, providing solutions and helping to shape society. Interdisciplinary in its approach, Stirling’s research informs its teaching curriculum and facilitates opportunities for knowledge exchange and collaboration between staff, students, industry partners and the wider community. The University’s scenic central Scotland campus – complete with a loch, castle and golf course – is home to more than 14,000 students and 1500 staff representing around 120 nationalities. This includes an ever-expanding base for postgraduate study. The University received a Queen’s Anniversary Prize in the latest round of awards, in recognition of the quality and innovation exhibited by its Institute of Aquaculture. The University is the UK Sports University of the Year 2020, as conferred by The Times / Sunday Times Good University Guide.
http://www.stir.ac.uk @stiruni

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tobias Börger
E: tobias.boerger@hwr-berlin.de
T: +49 (0)30 30877- 1482

(nach oben)


Neue Studie zeigt: Mehr Müll durch COVID-19 Pandemie

Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg
Derzeit begegnen uns volle Mülleimer in Parks oder volle Altpapier-Container in der Nachbarschaft. Das subjektive Gefühl, mehr Müll als vor der Pandemie zu produzieren, wurde jetzt von einer internationalen Studie bestätigt, an der insgesamt 23 Länder beteiligt waren. Sie zeigt: Die Gewohnheiten von Verbrauchern haben sich während der Pandemie verändert. Die internationale Studie koordinierte Prof. Dr. Dr. Walter Leal, Leiter des Forschungs- und Transferzentrum „Nachhaltigkeit und Klimafolgenmanagement“ an der HAW Hamburg. Die Analyse wurde zudem gerade in der Fachzeitschrift „Science of the Total Environment“ publiziert.

„Die internationale Studie analysiert den Konsumverbrauch und das Abfallaufkommen seit der COVID-19-Pandemie“, sagt Koordinator Prof. Walter Leal, Leiter des Forschungs- und Transferzentrum „Nachhaltigkeit und Klimafolgenmanagement“ an der HAW Hamburg. Die Lockdowns führten insgesamt zu einem höheren Konsum von verpackten Produkten und von Essen zum Mitnehmen. So gaben 45 bis 48 Prozent der Befragten aus 23 Ländern an, einen erhöhten Konsum von verpackten Lebensmitteln, frischen Lebensmitteln und Lebensmittellieferungen zu haben. „Die Pandemie verursacht also deutliche Änderungen im Verhalten der Verbraucher“, so Prof. Leal.

Einer der Hauptgründe für das erhöhte Abfallaufkommen während der Abriegelung, das in Deutschland normalerweise im Durschnitt 457 Kilogramm pro Kopf beträgt, sei die Tatsache, dass die Menschen mehr Zeit zu Hause verbringen. Außerdem wurden Steigerungen von 43 und 53 Prozent bei Lebensmittelabfällen und Plastikverpackungen verzeichnet. Anhand von Vergleichen über die Menge an Hausmüll, die vor und während der Pandemie produziert wurde, legen die Ergebnisse nahe, dass spezifische Arten von Siedlungsabfällen zugenommen haben. „Das übt einen zusätzlichen Druck auf die Abfallwirtschaftssysteme aus und sei ein indirekter Effekt der COVID-19-Pandemie“, erklärt Prof. Leal.

Die Ergebnisse der Studie können Stadtverwaltungen und Stadtwerken nützliche Erkenntnisse über Verbrauchsmuster in Notfallsituationen liefern. „Dadurch können schneller systemische und strategische Maßnahmen ergriffen werden, um die Auswirkungen zukünftiger Pandemien besser einzuschätzen und einzudämmen“, sagt Studien-Koordinator Prof. Leal.

An der Untersuchung hatten sich folgende Länder beteiligt: Portugal, Italien, Deutschland, Brasilien, Estland, USA, Australien, Kanada, Singapur, England, Dänemark, Spanien, Polen, Finnland, Bangladesch, Argentinien, Chile, Irland, Neuseeland, Japan, Malaysia, Indonesien und Vietnam.

Wissenschaftliche Ansprechpartner:
HAW Hamburg
Fakultät Life Sciences
Prof. Dr. Dr. Walter Leal
Leiter des Forschungs- und Transferzentrum „Nachhaltigkeit und Klimafolgenmanagement“ (FZ-NK)
T +49 40 428 75-6313
walter.leal2@haw-hamburg.de

Originalpublikation:
http://www.sciencedirect.com/science/article/pii/S0048969721010640?via%3Dihub

(nach oben)


Eine “Modell-Botschaft” für die Ostsee: die weitere Umsetzung von Nährstoff-Reduktionen wird am Ende erfolgreich sein

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Ein Team von Klimamodellierern untersuchte mit einem umfangreichen Modell -Ensemble die Auswirkungen des Klimawandels auf die „toten Zonen“ der Ostsee. Sie zeigten, dass eine Verkleinerung der Gebiete bei konsequenter Reduktion von Nährstoffeinleitungen bis zum Jahr 2100 erreicht werden kann – trotz des Klimawandels. Bis dahin liegen jedoch die simulierten Veränderungen noch im Schwankungsbereich der natürlichen Variabilität, die – auch dies zeigten die Autoren – vorerst die größte Unsicherheit von Zukunftsszenarien darstellt. Für einzelne Ostseeregionen ermittelten sie eine frühere Sichtbarkeit von Veränderungen als in anderen. Sie empfehlen, dort die Beobachtungen zu intensivieren.

Die Ostsee weist weltweit das größte Areal an Sauerstoff-verarmtem Bodenwasser auf, gefolgt vom nördlichen Golf von Mexiko, dem nordwestlichen Schwarzen Meer und dem Ostchinesischen Meer. Diese “toten Zonen” werden allgemein als Folge eines Überschusses an Nährstoffen im System gesehen. Seit Jahrzehnten wird deshalb in einigen dieser unter Sauerstoffnot leidenden Gebieten versucht, durch die Reduktion von Einleitungen Verbesserungen zu schaffen, so geschehen in der Ostsee, im Golf von Mexiko und der Chesapeake Bay. Im Falle der Ostsee sind dies Maßnahmen im Rahmen des Ostseeaktionsplans.
All diesen Programmen war gemein, dass sie die Auswirkungen des Klimawandels auf die Überdüngung nicht mitbedacht hatten. Als jedoch versucht wurde, mit Hilfe von regionalen Klimamodellen die Folgen des Klimawandels für die Überdüngung und die Ausbreitung der toten Zonen zu simulieren, um auf diesem Wege die Reduktionsmaßnahmen anzupassen, musste man feststellen, dass die Modellergebnisse stark von einander abwichen und nicht direkt zu brauchbaren Empfehlungen kamen. Diese Streuung der Resultate basiert im Wesentlichen auf vier Unsicherheiten: 1) der natürlichen Variabilität, 2) den Unterschieden in den Modellen, 3) der Richtigkeit der Annahmen zukünftigen Treibhausgas-Konzentrationspfaden – den so genannten RCPs (representative concentration pathways) und 4) der Richtigkeit der Annahmen zukünftiger sozioökonomischer Entwicklungen, ausgedrückt durch die so genannten SSPs – die shared socioeconomic pathways. Sie beinhalten für die Ostsee unter anderem Annahmen zu unterschiedlichen Nährstoff-Einleitungen. Daneben existierte die generelle Schwäche, dass zu wenige Modelle miteinander verglichen wurden. Frühere Ensemble Simulationen bestanden aufgrund begrenzter Rechenkapazitäten meist aus weniger als 10 Mitgliedern.
In einem in dieser Woche in dem renommierten Fachjournal Communications Earth & Environment veröffentlichten Bericht analysierten deutsche und schwedische Klimamodellierer um den Physiker Markus Meier vom Leibniz-Institut für Ostseeforschung Warnemünde mithilfe statistischer Methoden, angewandt an einer großen Anzahl unterschiedlicher Modellszenarien (48), welche Unsicherheiten die Hauptverantwortung für diese Streuung haben.
Ihr Ziel war es, Entscheider, wie – im Falle der Ostsee – die Helsinki-Kommission (HELCOM), bei ihrer Aufgabe zu unterstützen, an den Klimawandel angepasste Maßnahmen zur Reduktion von Nährstoffeinleitungen zu definieren. Im Vordergrund stand dabei die Frage, wann man erkennen kann, ob umweltpolitische Maßnahmen auch wirklich greifen und ob der Klimawandel diese Sichtbarkeit verzögern wird.
„Die gute Nachricht ist: die geplanten Maßnahmen werden greifen“, resümiert Markus Meier. „Aber bedingt auch durch den Klimawandel wird es vermutlich noch mehrere Jahrzehnte dauern, bis ein statistisch abgesicherter Trend für die „toten Zonen“ der Ostsee gegenüber dem Flickflack der natürlichen Variabilität zu erkennen ist.“ In der Klimaforschung wird dieser Zeitpunkt „Time of Emergence“ genannt. Markus Meier und seine Kollegen konnten zeigen, dass dieser „Zeitpunkt der Sichtbarkeit“ für die unterschiedlichen Umweltvariablen und unterschiedlichen Regionen der Ostsee anders ausfällt. So wird sich im nordwestlichen Gotlandbecken vermutlich bereits in den nächsten Jahren erkennen lassen, ob die Maßnahmen des Ostseeaktionsplanes zu höheren Sauerstoffwerte am Boden führen. Markus Meier: „Unsere Ergebnisse weisen Gebiete aus, in denen der „Zeitpunkt der Sichtbarkeit“ von Veränderungen früher eintreten wird als anderswo. Wir empfehlen, diese Orte in Zukunft besonders gut zu beobachten.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Meier, Department of Physical Oceanography, Leibniz Institute for Baltic Sea Research Warnemünde, phone: +49 381 5197 150 | markus.meier@io-warnemuende.de

Originalpublikation:
Markus Meier, H.E., Dieterich, C. & Gröger, M. Natural variability is a large source of uncertainty in future projections of hypoxia in the Baltic Sea. Commun Earth Environ 2, 50 (2021). https://doi.org/10.1038/s43247-021-00115-9

(nach oben)


Die Weltmeere sickern tiefer in die Erde als erwartet

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
Die Weltmeere sickern tiefer und in größerem Umfang in den Erdmantel als gedacht. Das zeigt eine Untersuchung des wasserhaltigen Minerals Glaukophan, das in der ozeanischen Kruste weit verbreitet ist. Hochdruckexperimenten an DESYs Röntgenlichtquelle PETRA III zufolge ist Glaukophan überraschend stabil und kann Wasser bis in Tiefen von bis zu 240 Kilometer befördern.

Ursache für die unerwartete Stabilität des Minerals ist die allmähliche Abkühlung des Erdinneren, die sich über geologische Zeiträume vollzieht. Durch die gesunkenen Temperaturen können Glaukophan und vermutlich auch andere wasserhaltige Minerale demnach höheren Drücken in größeren Tiefen widerstehen, wie ein internationales Forschungsteam unter der Leitung von Yongjae Lee von der Yonsei-Universität in Südkorea im Fachblatt „Nature Communications“ berichtet. Die Forscherinnen und Forscher schätzen, dass dadurch in rund 200 Millionen Jahren zusätzlich etwa das Volumen des Arktischen Ozeans in diese Tiefen des Erdmantels sickert.

„Unter dem Ozean existieren sogenannte Subduktionszonen mit einer Gesamtlänge von rund 55 000 Kilometern, also deutlich länger als der Erdumfang, wo Platten der Erdkruste und des oberen Mantels in das Innere unseres Planeten abtauchen“, erläutert Lee. „Jedes Jahr befördern diese Platten rund eine Billion Liter Ozeanwasser in Form wasserhaltiger Minerale wie Amphibole in die Tiefe. Allerdings können diese Minerale normalerweise Temperatur und Druck nicht bis zu größeren Tiefen als etwa 100 Kilometer widerstehen.“ Wenn Amphibole wie Glaukophan zerbrechen, wird ihr Wasser freigesetzt und treibt Erdbeben in den Subduktionsplatten und Vulkanismus im darüber liegenden Erdmantel an. Dadurch gelangt das Wasser über kurz oder lang wieder an die Oberfläche.

Das Erdinnere kühlt sich gegenwärtig jedoch um etwa 50 bis 100 Grad Celsius pro einer Milliarde Jahre ab, und diese Abkühlung beschleunigt sich. Dadurch haben sich in der jüngeren Erdgeschichte vielerorts „kalte“ Subduktionszonen gebildet, in denen es zwar immer noch glühend heiß ist, aber merklich kühler als in den üblichen „heißen“ Subduktionszonen und auch kühler als in der erdgeschichtlichen Vergangenheit. „Mit Hochdruck- und Hochtemperatur-Ausrüstung haben wir die heutigen Bedingungen in den kalten Subduktionszonen im Labor simuliert und das Verhalten von Glaukophan dabei untersucht“, erläutert Ko-Autor Hanns-Peter Liermann, Leiter der Messstation für Extrembedingungen P02.2 an DESYs Röntgenquelle PETRA III. „Zu unserer Überraschung bleibt Glaukophan in kalten Subduktionszonen bei Bedingungen stabil, die einer deutlich größeren Tiefe von bis zu 240 Kilometern entsprechen.“

Frühere Schätzungen nahmen an, dass rund ein Drittel des Wassers in Subduktionsplatten in diese Tiefen im Erdmantel befördert wird. Dabei ist nicht klar, ob und wie es von dort wieder an die Oberfläche gelangen kann. „Wenn wir annehmen, dass alle Subduktionszonen früher oder später zu ‚kühlen‘ werden, könnte in 200 Millionen Jahren das Volumen des Arktischen Ozeans zusätzlich im Erdmantel gespeichert werden“, rechnet Yoonah Bang vor, Hauptautorin der Studie von der Yonsei-Universität. „Es würde allerdings fünf Milliarden Jahre dauern, bis die Ozeane auf diese Weise komplett ausgetrocknet wären.“ Da unsere Sonne in Zukunft langsam immer heißer werden wird, werden die Ozeane Schätzungen zufolge bereits in rund einer Milliarde Jahre verdampfen. „Es scheint, dass die Erde einen Teil ihres Oberflächenwassers in ihrem Inneren speichern und damit vor dem Verlust ins Weltall bewahren könnte“, ergänzt Lee.

Die Untersuchung hat weitere Implikationen für die Entwicklung der Erde: Da unterirdisches Wasser in geringeren Tiefen ein wesentlicher Treiber für Vulkanismus und Erdbeben ist, werden diese Phänomene auf geologischen Zeitskalen immer seltener, wie Lee betont: „Da sich die Erde immer weiter abkühlt, ist zu erwarten, dass sich der Wassertransport ins Erdinnere auf größere Tiefen ausdehnt und dadurch Erdbeben und Vulkanismus unterdrückt werden.“

Forscherinnen und Forscher der Yonsei-Universität und der Nationaluniversität Seoul in Südkorea, vom Lawrence-Livermore-Labor, dem Argonne-Labor und der Universität Chicago in den USA, vom Zentrum für Hochdruck-Forschung und -Technologie in China, der Ehime-Universität in Japan und von DESY haben zu dieser Arbeit beigetragen. Die Studie ist Teil des „Early Science“-Programms am Zentrum für Molekulare Wasserforschung CMWS, das zurzeit bei DESY aufgebaut wird, und verbunden mit einem Langzeitprojekt von Yongjae Lee an der Messstation für Extrembedingungen P02.2 an PETRA III.

DESY zählt zu den weltweit führenden Teilchenbeschleuniger-Zentren und erforscht die Struktur und Funktion von Materie – vom Wechselspiel kleinster Elementarteilchen, dem Verhalten neuartiger Nanowerkstoffe und lebenswichtiger Biomoleküle bis hin zu den großen Rätseln des Universums. Die Teilchenbeschleuniger und die Nachweisinstrumente, die DESY an seinen Standorten in Hamburg und Zeuthen entwickelt und baut, sind einzigartige Werkzeuge für die Forschung: Sie erzeugen das stärkste Röntgenlicht der Welt, bringen Teilchen auf Rekordenergien und öffnen neue Fenster ins Universum. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.

Wissenschaftliche Ansprechpartner:
Dr. Hanns-Peter Liermann, DESY, +49 40 8998-95722, hanns-peter.liermann@desy.de
Prof. Yongjae Lee,Yonsei-Universität, yongjaelee@yonsei.ac.kr

Originalpublikation:
Originalveröffentlichung:
„The stability of subducted glaucophane with the Earth’s secular cooling“; Yoonah Bang, Huijeong Hwang, Taehyun Kim, Hyunchae Cynn, Yong Park, Haemyeong Jung, Changyong Park, Dmitry Popov, Vitali B. Prakapenka, Lin Wang, Hanns-Peter Liermann, Tetsuo Irifune, Ho-Kwang Mao and Yongjae Lee; „Nature Communications“, 2021; DOI: https://dx.doi.org/10.1038/s41467-021-21746-8

Weitere Informationen:
https://www.desy.de/aktuelles/news_suche/index_ger.html?openDirectAnchor=2034&am… – Pressemitteilung im Netz

(nach oben)


Virus-Varianten in der Pandemie schneller aufspüren

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Forschende weltweit fordern eine bessere Integration von Virusgenetik, Bioinformatik und Gesundheitswesen, um Pandemien besser zu bekämpfen zu können. Zu den Vorteilen aus Schweizer Sicht äussern sich in der Fachzeitschrift Nature Emma Hodcroft der Universität Bern und vom SIB Swiss Institute of Bioinformatics, und Christophe Dessimoz von der Universität Lausanne und vom SIB.

«Was Forschende in einem Jahr seit der Entdeckung eines brandneuen Virus erreicht haben, ist wirklich bemerkenswert», sagt Emma Hodcroft vom Institut für Sozial- und Präventivmedizin (ISPM) der Universität Bern, Erstautorin des Kommentars. «Aber die Werkzeuge, die Forschende einsetzen um zu untersuchen, wie SARS-CoV-2 sich entwickelt und ausbreitet, waren nie für die einzigartigen Belastungen oder Datenmengen dieser Pandemie ausgelegt.»

SARS-CoV-2 ist heute einer der am meisten sequenzierten Erreger aller Zeiten, mit über 600’000 Vollgenom-Sequenzen, die seit Beginn der Pandemie generiert wurden, und über 5’000 neuen Sequenzen, die jeden Tag aus der ganzen Welt eintreffen. Die heute verwendeten Analyse- und Visualisierungstools (einschliesslich Nextstrain, das von Richard Nehers Gruppe am SIB und der Universität Basel mitentwickelt wurde) waren jedoch nie für die Menge und Geschwindigkeit der heute generierten Sequenzen vorgesehen – ebensowenig, dass sie in einem solchen Ausmass für Massnahmen des öffentlichen Gesundheitswesens herangezogen werden. «Überall auf der Welt beruht die genomische Überwachung auf der Initiative von Forschenden, um wesentliche Antworten zu finden. Die Entscheidungsfindung im Gesundheitswesen würde von einem nachhaltigeren Rahmen für die Zusammenarbeit profitieren», sagt Christophe Dessimoz vom SIB und der Universität Lausanne.

Was eine verbesserte Sequenzierung ermöglichen würde
Die genetischen Sequenzen von SARS-CoV-2 enthalten wertvolle Informationen, um effektive Pandemiemassnahmen umzusetzen und dem Virus einen Schritt voraus zu bleiben. Mutationen in verschiedene Probe zu vergleichen, ermöglicht es Forschenden zum Beispiel, die Übertragung des Virus zu verfolgen – und hilft dabei, Super-Spreading-Ereignisse und die internationale Ausbreitung zu identifizieren. Im Moment ist es jedoch schwierig, diese genetischen Informationen mit anderen Schlüsselvariablen zu kombinieren – etwa wer an einem Ereignis teilgenommen hat und wann die Symptome aufgetreten sind – was dazu beitragen könnte, diese Methoden noch aussagekräftiger zu machen.

Der «R-Wert» hat sich im letzten Jahr von einem wissenschaftlichen Konzept zu einem Alltagsbegriff entwickelt – er misst die durchschnittliche Anzahl Personen, die eine infizierte Person ansteckt. Auch hier können Sequenzierungen helfen, importierte Fälle von lokalen Übertragungen zu unterscheiden. Dies ermöglicht eine genauere Schätzung, erfordert aber ein hohes Mass an Sequenzierungen und komplexe Analysen, die derzeit nicht in grossem Umfang durchgeführt werden.

Letztlich ist die Sequenzierung die einzige Möglichkeit, die vielen Mutationen, die bei SARS-CoV-2 auftreten, zu identifizieren und zu verfolgen. Während Mutationen zum Virus gehören, müssen die Forschenden wissen, welche Variationen harmlos sind und welche die Übertragbarkeit des Virus oder den klinischen Verlauf verändern könnten. Die Kombination von Sequenzierung, Laborarbeit und computergestützten Vorhersagen könnte ein besseres Verständnis der Auswirkungen von Mutationen ermöglichen, aber es gibt kaum einen Rahmen, der die Zusammenarbeit dieser verschiedenen Fachgebiete unterstützt. «Die Daten zum Virus – Sequenzen und zugehörige Metadaten – müssen dank stabiler Infrastrukturen, die mit den Prinzipien von Open Data kompatibel sind, ermittelt, gesammelt und harmonisiert werden, um den wissenschaftlichen Austausch zu erleichtern», sagt Christophe Dessimoz von der Universität Lausanne und SIB, Letztautor des Kommentars.

Vorteile für die Schweiz
«In der Schweiz könnte die Bevölkerung von einer systematischeren und repräsentativeren Sequenzierung profitieren, zum Beispiel durch besseres Contact Tracing, gezielte Isolierung und Quarantäne von kleineren Regionen, und der Steuerung Schulschliessunge und -öffnungen basierend auf dem Auftreten bestimmter Varianten», erklärt Emma Hodcroft. Auch die Harmonisierung von Gesundheitsdaten ist ein kritisches Thema. Die Schweiz unternimmt bereits viele Anstrengungen auf nationaler Ebene durch das Swiss Personalized Health Network (SPHN).

Die Forschenden sind überzeugt, dass das Potenzial der Schweiz in Bezug auf Expertise und Infrastruktur nur darauf wartet, zum Wohle der öffentlichen Gesundheit genutzt zu werden. «Die Tools sind vorhanden, die Forschenden haben sich selbst organisiert und den ersten Schritt getan – aber um diese Bemühungen aufrecht zu erhalten und Forschung und Gesundheitswesen zusammenzubringen, sind wir auf eine nachhaltige öffentliche Finanzierung angewiesen», sagt Christophe Dessimoz.

Institut für Sozial- und Präventivmedizin (ISPM) der Universität Bern
Das Institut für Sozial- und Präventivmedizin (ISPM) bietet eine Ausbildung auf Bachelor- und Masterstufe an und betreibt interdisziplinäre Forschung auf den Gebieten der sozialen und verhaltensbezogenen Gesundheit, der klinischen Epidemiologie und Biostatistik sowie der internationalen und umweltbezogenen Gesundheit. Es bietet auch ein breites Spektrum an Ausbildungen auf Doktorandenstufe, um Studierende zu herausragenden Public-Health-Forschenden auszubilden. In diesem Jahr feiert das ISPM sein 50-jähriges Bestehen.

Swiss Institute of Bioinformatics
Das SIB Swiss Institute of Bioinformatics ist eine international anerkannte Non-Profit-Organisation, die sich der biologischen und biomedizinischen Datenwissenschaft widmet. Die Forschenden arbeiten mit Leidenschaft an der Erschliessung von Wissen und der Lösung komplexer Fragen in vielen Bereichen, von Biodiversität und Evolution bis hin zur Medizin. Sie stellen wesentliche Datenbanken und Software-Plattformen sowie bioinformatische Expertise und Dienstleistungen für akademische, klinische und industrielle Gruppen zur Verfügung. Das SIB vereint die Gemeinschaft der Schweizer Bioinformatik von rund 800 Wissenschaftlerinnen und Wissenschaftlern und fördert die Zusammenarbeit und den Wissensaustausch.

Das Institut trägt dazu bei, die Schweiz an der Spitze der Innovation zu halten, indem es den Fortschritt in der biologischen Forschung fördert und die Gesundheit verbessert.

Datenwissenschaftler für das Leben
http://www.sib.swiss

Wissenschaftliche Ansprechpartner:
Emma Hodcroft, PhD Institut für Sozial- und Präventivmedizin (ISPM), Universität Bern Telefon: +41 31 631 56 97 / emma.hodcroft@ispm.unibe.ch

Prof. Christophe Dessimoz SIB Swiss Institute of Bioinformatics und Universität Lausanne Telefon: +41 79 537 92 77 / christophe.dessimoz@unil.ch

Originalpublikation:
Emma B. Hodcroft, Nicola De Maio, Rob Lanfear, Duncan R. MacCannell, Bui Quang Minh, Heiko A. Schmidt, Alexandros Stamatakis, Nick Goldman & Christophe Dessimoz: Want to track pandemic variants faster? Fix the bioinformatics bottleneck. Nature Comment, 1 March 2021, doi: https://doi.org/10.1038/d41586-021-00525-x

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2021/medi…

Anhang
Medienmitteilung UniBE

(nach oben)


Energiewende der Schweiz

Dr. Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
Kann die Schweiz ihre Kohlendioxid-Emissionen wie geplant bis im Jahr 2050 auf null senken? Forschende des Paul Scherrer Instituts PSI haben in einer Studie untersucht, welche Massnahmen dafür notwendig wären und wie viel das pro Kopf kosten könnte.

Der Schweizer Bundesrat hat im August 2019 ein ehrgeiziges Ziel zur Begrenzung des Klimawandels beschlossen: Ab dem Jahr 2050 soll die Schweiz unter dem Strich keine Treibhausgasemissionen mehr ausstossen. Damit entspricht die Schweiz dem international vereinbarten Ziel, die globale Klimaerwärmung auf maximal 1,5 °C gegenüber der vorindustriellen Zeit zu begrenzen.

Welche Möglichkeiten zur Erreichung dieses Zieles im Energiesektor bestehen, lotet nun eine Studie des Paul Scherrer Instituts aus, die im Rahmen der Joint Activity «Scenarios and Modelling» der 8 Swiss Competence Centers for Energy Research (SCCER) durchgeführt wurde.

«Das Ziel, im Jahr 2050 Netto-Null-Kohlendioxid-Emissionen zu erreichen, erfordert einschneidende Transformationen bei der Bereitstellung und dem Verbrauch von Energie in beinahe allen Bereichen», fasst Tom Kober, Leiter der PSI-Forschungsgruppe Energiewirtschaft und einer der Hauptautoren der Studie, zusammen.

Bei ihren Analysen berücksichtigten die Forscher energiebedingte Kohlendioxid-Emissionen sowie Kohlendioxid-Emissionen aus industriellen Prozessen. Diese Emissionen stellen heute etwa 80 % des gesamten Schweizer Treibhausgasinventars dar. Nicht in die Berechnungen flossen ein: Emissionen aus dem internationalen Luftverkehr, der Landwirtschaft – mit Ausnahme der Emissionen aus der Kraftstoffverbrennung –, der Landnutzung, Landnutzungsänderung und Forstwirtschaft sowie Abfall – ausser Emissionen aus der Abfallverbrennung. Auch waren die Emissionen im Ausland, die im Zusammenhang mit dem Güterkonsum in der Schweiz stehen, nicht Gegenstand der Untersuchung.

Strom aus Photovoltaik muss sich mindestens jedes Jahrzehnt verdoppeln
Zentrale Schlussfolgerungen der Studie sind: Die installierte Kapazität von Photovoltaikanlagen muss sich mindestens jedes Jahrzehnt bis 2050 verdoppeln, sodass sich Photovoltaikanlagen mit 26 Terawattstunden Produktion im Jahr 2050 neben der Wasserkraft (circa 38 Terawattstunden im Jahr 2050) zur zweitgrössten Technologiegruppe entwickeln. Weiterhin tragen Kraftwerke mit Kraft-Wärme-Kopplung sowie Windkraftwerke, Wasserstoff-Brennstoffzellen und Stromimporte dazu bei, die Stromnachfrage zu decken. Im Hauptszenario zur Erreichung des Netto-Null-Emissionsziels steigt insgesamt die Stromerzeugung aus Kraftwerken und Speicheranlagen in der Schweiz gegenüber dem gegenwärtigen Niveau um etwa ein Fünftel auf 83 Terawattstunden im Jahr 2050 an. Die Studie unterstellt, dass die Schweizer Kernkraftwerke bis zum Jahr 2045 ausser Betrieb genommen werden. Die private Autoflotte müsste bis 2050 grösstenteils auf elektrischen Antrieben basieren. Bis 2030 müsste demnach jede dritte Neuzulassung ein vollständig elektrisch betriebenes Auto sein. Zusätzlich müsste der Einsatz von Wärmepumpen im Dienstleistungs- und Wohnbereich deutlich beschleunigt werden, sodass bis 2050 fast drei Viertel des Heizungs-und Warmwasserbedarfs dadurch gedeckt werden. Gleichzeitig wäre es notwendig, deutliche Energieeinsparungen durch beschleunigte Renovierungen von Wohngebäuden zu erzielen.

Will die Schweiz das Netto-Null-Emissionsziel erreichen, muss mit einem deutlichen Anstieg des Stromverbrauchs gerechnet werden. So könnte im Jahr 2050 der Stromverbrauch um 20 Terawattstunden über dem heutigen Niveau liegen. Ein wesentlicher Treiber für dieses Wachstum ist die Verwendung von Strom für den Antrieb von Autos, Bussen und Lastkraftwagen, entweder direkt über batterieelektrische Fahrzeuge oder indirekt über Wasserstoff oder sogenannte E-Fuels, also synthetische Kraftstoffe, die unter anderem mittels Strom aus Wasserstoff und Kohlendioxid (CO2) hergestellt werden. In den stationären Sektoren wird Strom zunehmend durch die vermehrt eingesetzten Wärmepumpen verbraucht werden. Dieser erhöhte Stromverbrauch kann allerdings kompensiert werden, wenn die notwendigen Effizienzgewinne bei Heizung und Warmwasserbereitstellung erreicht werden. Dann könnten die stationären Sektoren einen nahezu gleichbleibenden Stromverbrauch erzielen.

Neben elektrischer Energie werden weitere Energieformen eine Rolle spielen. So bieten beispielsweise der Fern- und Güterverkehr sowie die energieintensive Industrie Perspektiven für neue Wasserstoffanwendungen. Um den dafür benötigten Wasserstoff emissionsarm oder -frei zu produzieren, wäre eine erhebliche Menge an nachhaltig erzeugtem Strom (9 Terawattstunden in 2050) notwendig.

Ohne CO2-Abscheidung wird es wohl nicht gehen
«Wenn die Schweiz das Null-Emissions-Ziel bis 2050 erreichen will, dann müssen die CO2-Emissionen in Zukunft im Durchschnitt jedes Jahr um eine bis anderthalb Millionen Tonnen gegenüber dem Vorjahr verringert werden», sagt Evangelos Panos, Hauptautor der Studie. «Veränderungen der CO2-Emissionen in dieser Grössenordnung haben wir im Zeitraum 1950 bis 1980 gesehen – allerdings in die umgekehrte Richtung – damals haben sie massiv zugenommen.» Um die Emissionsminderung kostengünstig umzusetzen, sollte deshalb auch der Einsatz von Technologien mit der sogenannten CO2-Abscheidung in Betracht gezogen werden. So könne man sogar in Teilbereichen auf eine negative Bilanz beim CO2-Ausstoss kommen. Das sei beispielsweise dann der Fall, wenn man Biomasse als Energieträger nutze und bei der Energiegewinnung entstehendes CO2 nicht emittiere, sondern abfange und unterirdisch speichere. Falls das in der Schweiz nicht möglich sei – beispielsweise aufgrund der Ablehnung durch die Bevölkerung oder aufgrund begrenzter CO2 Speicherstätten –, könne die internationale Vernetzung und die Speicherung im Ausland einen Ausweg bieten. Insgesamt gehen die Forschenden in ihrer Studie für das Jahr 2050 von knapp 9 Millionen Tonnen CO2 aus, die in der Schweiz abgetrennt würden.

«Mehr als zwei Drittel der für das Netto-Null-Emissionsziel notwendigen Emissionsreduktionen sind mit Technologien erreichbar, die bereits kommerziell verfügbar sind oder sich in der Demonstrationsphase befinden», resümiert Panos. Das dekarbonisierte Energiesystem der Zukunft sei erreichbar, erfordere aber kohlenstofffreie Energieträger, zum Beispiel entsprechend erzeugten Strom, Biokraftstoffe und E-Fuels, Zugang zur entsprechenden Transport- und Verteilungsinfrastruktur sowie die Möglichkeit, saubere Brennstoffe und Elektrizität zu importieren.

Kosten sind schwer abschätzbar
In puncto Kosten geben sich die Energiesystemforscher zurückhaltend. «Die Kosten sind sehr schwer abschätzbar, weil dabei enorm viele Komponenten eine Rolle spielen», so Kober. In dem in der Studie angenommenen Netto-Null-Hauptszenario würden sich für den Zeitraum bis 2050 die durchschnittlichen diskontierten Mehrkosten des Klimaschutzszenarios gegenüber dem Referenzszenario mit moderatem Klimaschutz (-40 % CO2-Emissionen im Jahr 2050 gegenüber 1990) in der Schweiz auf etwa 330 CHF pro Person und Jahr (Basis: 2010) belaufen. Betrachtet man alle untersuchten Szenarien, so sieht man eine Bandbreite der durchschnittlichen Kosten zwischen 200 und 860 CHF pro Jahr und Kopf, was letztendlich unterschiedliche Entwicklungen der Energietechnologien, der Ressourcenverfügbarkeit, der Marktintegration, bei der Akzeptanz von Technologien und bei den Präferenzen zur Versorgungssicherheit widerspiegelt. Der Verlauf der Kosten zeigt vor allem eine langfristige Zunahme, sodass vergleichsweise hohe Kosten auch nach 2050 zu erwarten sind.

Die Studie stützt sich auf die Berechnungen mit dem Schweizer TIMES Energiesystemmodell (STEM) des PSI, welches das gesamte Energiesystem der Schweiz mit den verschiedenen Wechselwirkungen zwischen den Technologien und Sektoren abbildet. STEM verbindet einen langfristigen Zeithorizont mit einer hohen unterjährigen zeitlichen Auflösung und berechnet für verschiedene zukünftige Rahmenannahmen die kostenminimalen Konfigurationen des Energiesystems und der Erreichung verschiedener energie- und klimapolitischer Ziele. Das Modell wurde im Rahmen des Forschungsprojektes massgeblich weiterentwickelt, vor allem hinsichtlich der Optionen zur Erreichung von Netto-Null-CO2-Emissionsszenarien. Das Modell wird zur Berechnung von Szenarien eingesetzt, die keinesfalls als Vorhersagen zu verstehen sind, sondern vielmehr Einblicke in die vielfältigen Wechselwirkungen im Energiesystem geben und somit einen Beitrag zur Entscheidungsunterstützung in Politik, Industrie und der Gesellschaft leisten. Konkret wurden in dieser Studie drei Hauptszenarien untersucht, welche neben dem Referenzszenario ein Netto-Null-CO2-Emissionsminderungsszenario umfasst und ein Szenario, welches die Ziele der Schweizer Energiestrategie 2050 unterstellt, ohne explizit ein CO2-Minderungsziel vorzugeben. Zudem wurden sieben verschiedene Varianten der Hauptszenarien analysiert, wie zum Beispiel eine Variante mit hohem technologischen Innovationspotenzial und eine Variante zur Verringerung der Energieimportabhängigkeit.

An der Zusammenarbeit im Rahmen der SCCER Joint Activity Scenarios and Modelling sind neben dem PSI folgende Institutionen beteiligt: Empa, EPFL, ETH Zürich, Hochschule Luzern, Universität Basel, Universität Genf und WSL. Finanziert wurde die Studie durch Innosuisse – Swiss Innovation Agency.

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 400 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.

Wissenschaftliche Ansprechpartner:
Dr. Tom Kober
Leiter der Gruppe Energiewirtschaft
Labor für Energiesystemanalysen
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 26 31
E-Mail: tom.kober@psi.ch [Deutsch, Englisch]

Originalpublikation:
Panos, E.; Kober, T.; Ramachandran, K.; Hirschberg, S. (2021): Long-Term Energy Transformation Pathways – Integrated Scenario Analysis with the Swiss TIMES Energy systems Model; Report of the Joint Activity Scenarios and Modelling of the Swiss Competence Centers for Energy Research. (siehe Link zur PDF-Version unter Weiterführende Informationen)

Weitere Informationen:
http://psi.ch/de/node/44193 – Darstellung der Mitteilung auf der Webseite des PSI und Bildmaterial
https://sccer-jasm.ch/JASMpapers/JASM_results_stem.pdf – Download der PDF-Version der Studie

(nach oben)


2019 gingen weniger Beschäftigte vorzeitig in Rente

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Die Zahl der Verrentungen wegen verminderter Erwerbsfähigkeit erreichte 2019 mit fast 162.000 Fällen (161.534) einen neuen Tiefstand in Deutschland. Ihre Zahl sank im Vergleich zum Vorjahr um knapp 4 Prozent (3,8 %). Dabei stehen „Psychische und Verhaltensstörungen“ mit rund 42 Prozent (41,7 %) nach wie vor an erster Stelle als Ursache für Frühverrentung. Obwohl mit 42,4 Millionen Erwerbstätigen in Deutschland ein neuer Höchststand bei der Beschäftigung erreicht wurde, sank die Zahl der meldepflichtigen Arbeitsunfälle um rund 12.000 (11.853) auf etwa 937.000 (937.456). Damit liegt die Unfallquote je 1.000 Vollarbeiter bei 21,9.

Diese und weitere Ergebnisse enthält der Bericht „Sicherheit und Gesundheit bei der Arbeit – Berichtsjahr 2019“ (SuGA), den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jährlich im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS) erstellt.

Die Zahl der Verrentungen wegen verminderter Erwerbsfähigkeit erreichte 2019 mit fast 162.000 Fällen (161.534) einen neuen Tiefstand in Deutschland. Ihre Zahl sank im Vergleich zum Vorjahr um knapp 4 Prozent (3,8 %). Dabei stehen „Psychische und Verhaltensstörungen“ mit rund 42 Prozent (41,7 %) nach wie vor an erster Stelle als Ursache für Frühverrentung. Obwohl mit 42,4 Millionen Erwerbstätigen in Deutschland ein neuer Höchststand bei der Beschäftigung erreicht wurde, sank die Zahl der meldepflichtigen Arbeitsunfälle um rund 12.000 (11.853) auf etwa 937.000 (937.456). Damit liegt die Unfallquote je 1.000 Vollarbeiter bei 21,9. Diese und weitere Ergebnisse enthält der Bericht „Sicherheit und Gesundheit bei der Arbeit – Berichtsjahr 2019“ (SuGA), den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jährlich im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS) erstellt.

Zwar weist die Statistik 2019 mit 626 tödlichen Arbeitsunfällen einen Anstieg zum Vorjahr aus. Jedoch flossen Nachmeldungen von 84 Unfällen aus den Jahren 2000 bis 2005 ein, nachdem Strafverfahren abgeschlossen waren. Damit blieb das Arbeitsunfallgeschehen auch 2019 auf einem insgesamt niedrigen Niveau mit leicht abnehmender Tendenz. Durch Arbeitsunfähigkeit fielen 2019 schätzungsweise etwa 712 Millionen Arbeitstage aus. Davon entfielen 159 Millionen Ausfalltage auf „Krankheiten des Muskel-Skelett-Systems“ (22,3 %), 117 Millionen Ausfalltage auf „Psychische und Verhaltensstörungen“ (16,5 %) und 93 Millionen Ausfalltage auf „Krankheiten des Atmungssystems“ (13,1 %). Das Arbeitsunfähigkeitsgeschehen führte insgesamt zu einem geschätzten Produktionsausfall anhand der Lohnkosten von rund 88 Milliarden Euro. Wird der Verlust an Arbeitsproduktivität berücksichtigt, gingen der deutschen Volkswirtschaft rund 149 Milliarden Euro an Bruttowertschöpfung verloren.

Auch 2019 gab es einen leichten Anstieg bei den Anzeigen auf Verdacht einer Berufskrankheit (84.853; +2,7 %). 2.581 Menschen starben als Folge einer Berufskrankheit. Fast zwei Drittel der Todesfälle lassen sich nach wie vor auf asbestbedingte Berufskrankheiten zurückführen (66,1 %).

Über das umfangreiche statistische Material hinaus ergänzen Analysen zu Arbeitsbedingungen und der Verbreitung bestimmter Arbeitsmittel und Technologien vor dem Hintergrund des digitalen Wandels den SuGA–Bericht Sicherheit und Gesundheit bei der Arbeit. Berichte zentraler Arbeitsschutzakteure, wie der Gemeinsamen Deutschen Arbeitsschutzstrategie (GDA), der Arbeitsschutzbehörden der Länder, der Unfallversicherungsträger oder der Initiative Neue Qualität der Arbeit (INQA), komplettieren den breiten Überblick über den Arbeits- und Gesundheitsschutz im coronafreien Deutschland im Jahr 2019.

„Sicherheit und Gesundheit bei der Arbeit – Berichtsjahr 2019“, Unfallverhütungsbericht Arbeit; 1. Auflage; Dortmund: Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020; 216 Seiten; ISBN 978-3-88261-736-8; doi:10.21934/baua:bericht20201215. Den Bericht gibt es im PDF-Format zum Herunterladen im Internetangebot der BAuA unter http://www.baua.de/suga.

Direkter Link: http://www.baua.de/dok/8852834

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 750 Beschäftigte.
http://www.baua.de

(nach oben)


BLUE PLANET Berlin Water Dialogues – Virtuelle Vernetzungsmöglichkeiten mit der internationalen Wasserbranche

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)
„Smart Water for Resilient Cities“ – unter diesem Dachthema geht die BLUE PLANET Berlin Water Dialogues Veranstaltungsreihe am 25. Februar 2021 in die nächste Runde. Mit Claudia Castell-Exner, Präsidentin der europäischen Vereinigung der nationalen Verbände in der Wasserver- und Abwasserentsorgung sowie Paul Fleming, Leiter des globalen Wasserprogramms bei Microsoft Nordamerika konnten hochrangige internationale VertreterInnen für die Veranstaltung gewonnen werden.

Seit 10 Jahren ist die BLUE PLANET Berlin Water Dialogues-Konferenzreihe die Anlaufstelle für die deutsche und internationale Wasserwirtschaft, in der VertreterInnen aus Politik, Forschung und Industrie über konkrete Lösungsoptionen zu weltweiten Herausforderungen der globalen Wasserwirtschaft ins Gespräch kommen. Am 25. Februar 2021 wird die Veranstaltung erstmalig digital stattfinden. Die Ausgabe steht unter dem Motto „Smart Water for Resilient Cities“. Hochkarätige internationale VertreterInnen renommierter Unternehmen und Institutionen wie EurEau, Microsoft, Berliner Wasserbetriebe, IBM, KWR Water Research Institute, UN-Habitat’s Global Water Operators‘ Partnerships Alliance (GWOPA) sowie weiterer werden in ihren Beiträgen Wege und Möglichkeiten zu digitalen Technologien und deren Anwendung für zukunftsfähige Städte vorstellen. Themen wie Digitalisierung, Automatisierung und künstliche Intelligenz in der Wasser- und Abwasserinfrastruktur bilden dabei die Schwerpunkte der Diskussion.
Die Veranstaltung bietet in diesem Jahr ein interaktives Erlebnis der digitalen Vernetzung, mit einer Eventplattform, die ganz auf die Bedürfnisse der TeilnehmerInnen ausgerichtet ist. Einen Nachmittag lang haben Gäste die Möglichkeit, sich in Projektpräsentationen und Plenardiskussionen zu innovativen Asset-Management-Prozessen sowie nachhaltiger Wasserversorgung in Metropolen zu informieren, in digitalen Break-Out-Sessions auszutauschen und in themenfokussierten virtuellen Netzwerkräumen zu vernetzen. Auch die Verabredung zu Einzelgesprächen ist möglich.
Über 600 TeilnehmerInnen aus 30 Ländern haben sich bereits registriert. Die Veranstaltung richtet sich an ein internationales Publikum und findet auf Englisch statt. Das detaillierte Programm und die Online-Anmeldung sowie weitere Informationen erhalten Sie unter www.blueplanetberlin.de.

Über BLUE PLANET Berlin Water Dialogues
Mit den BLUE PLANET Berlin Water Dialogues hat sich in den vergangenen Jahren ein qualifiziertes englischsprachiges Forum zum Wissens-, Ideen-, Konzept- und Erfahrungsaustausch zwischen VertreterInnen aus Politik, Wasserwirtschaft, Wissenschaft und Nicht-Regierungsorganisationen etabliert. Hier werden gemeinsam globale Herausforderungen diskutiert sowie deutsche Kompetenzen und Lösungsansätze vorgestellt und mit internationalen Ansätzen abgeglichen. Der Schwerpunkt liegt darauf, Synergien im Bereich Forschung und Entwicklung zwischen Unternehmen und wissenschaftlichen Einrichtungen nachhaltig zu fördern, um praxisnahe Innovationen, etwa aus den Bereichen nachhaltige Entwicklung und künstliche Intelligenz in der Wasserwirtschaft oder Umweltschutz durch ressourceneffiziente Technologien, voranzutreiben. Die BLUE PLANET Berlin Water Dialogues 2020/2021 werden von den Berliner Beratungsunternehmen T-Base Consulting GmbH und eclareon GmbH zusammen mit dem Kompetenzzentrum Wasser Berlin und German Water Partnership e.V. organisiert.

Gefördert wird das Event durch das Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit und die Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe. Weitere Unterstützer sind die Unternehmen Wilo und KSB als Industriepartner sowie die Berliner Wasserbetriebe als fachlicher Partner.

Weitere Informationen:
https://blueplanetberlin.de/

(nach oben)


70 Prozent weniger Darmkrebs-Todesfälle nach Vorsorge-Darmspiegelung

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Um die Wirksamkeit der Vorsorge-Darmspiegelungen in Deutschland möglichst genau zu beurteilen, haben Wissenschaftler des Deutschen Krebsforschungszentrums gemeinsam mit dem Krebsregister des Saarlands über 17 Jahre hinweg mehr als 9000 Studienteilnehmer beobachtet. Das Resultat, auf das die Wissenschaftler nun anlässlich des Damkrebsmonats März hinweisen: Bei Personen, die eine Vorsorge-Darmspiegelung in Anspruch genommen hatten, traten nahezu 60 Prozent weniger Darmkrebs-Neuerkrankungen auf als bei Teilnehmern, die auf die Untersuchung verzichtet hatten. Das Risiko, an Darmkrebs zu versterben, lag in der Screening-Gruppe sogar um 70 Prozent niedriger.

Dickdarmkrebs entwickelt sich in der Regel über viele Jahre hinweg aus Vorstufen, die bei einer Darmspiegelung entdeckt und sogleich entfernt werden können. Deutschland zählt zu den Ländern, die diese Untersuchung bereits frühzeitig in das gesetzliche Krebsfrüherkennungsangebot aufgenommen haben: Seit 2002 haben Menschen ab dem 55. Lebensjahr Anspruch auf zwei so genannte Koloskopien im Abstand von zehn Jahren. Seit 2019 gibt es dieses Angebot für Männer schon ab 50 Jahren.

Inzwischen ist seit der Einführung des Koloskopie-Screenings ausreichend Zeit vergangen, um präzise zu analysieren, wie effizient dieses Vorsorge-Angebot Krebsneuerkrankungen und Krebssterblichkeit zurückdrängt. Dazu werteten die DKFZ-Epidemiologen nun die Daten von über 9000 Teilnehmern aus, die zwischen 2000 und 2002 in die ESTHER-Studie* rekrutiert worden waren. Die Studienteilnehmer wurden in regelmäßigen Abständen nach ihrem Befinden und ihrem Lebensstil gefragt, ihre Behandlungs- und Krebsregisterdaten wurden erfasst. Nach einer Beobachtungszeit von rund 17 Jahren waren unter den Studienteilnehmern 268 Fälle von Darmkrebs aufgetreten, 98 Teilnehmer waren an Darmkrebs verstorben.

Diejenigen ESTHER-Teilnehmer, die eine Vorsorge-Koloskopie wahrgenommen hatten, hatten ein um 60 Prozent niedrigeres Risiko einer Darmkrebsdiagnose als Studienteilnehmer, die das Vorsorge-Angebot nicht genutzt hatten. Das Risiko, an Darmkrebs zu sterben, war in der Screening-Gruppe in den 10 Jahren nach der Koloskopie sogar um 75 Prozent niedriger.

„Die Teilnehmer unsere Studie bilden einen Querschnitt der Bevölkerung ab. Sie nutzen das normale Vorsorgeangebot ihrer Region und werden nicht in speziellen Zentren untersucht. Daher können wir nun erstmals in einer Langzeitstudie aus Deutschland quantifizieren, welchen Beitrag die Vorsorge-Koloskopie im echten Leben zur Krebsprävention leistet“, erklärt Hermann Brenner. Bislang gab es dazu weltweit nur sehr wenige Studien, die zudem fast ausschließlich aus den USA stammen, wo die Koloskopie bereits früher in größerem Umfang eingesetzt wurde.

Neben der Vorsorge-Koloskopie werden in Deutschland alternativ auch immunologische Tests auf Blut im Stuhl zur Darmkrebs-Früherkennung angeboten (im Alter von 50 bis 54 Jahren jährlich, danach alle 2 Jahre). Fällt ein solcher Test positiv aus, muss er anschließend auch durch eine Koloskopie abgeklärt werden.

Brenners Fazit: „Unsere Ergebnisse beziffern, welchen enormen Beitrag die Vorsorge-Koloskopie zur Krebsprävention leisten kann. Aber die beste Früherkennungsuntersuchung nutzt wenig, wenn sie nicht ausreichend wahrgenommen wird. Noch immer sterben in Deutschland jedes Jahr fast 25.000 Menschen an Darmkrebs. Die meisten dieser Todesfälle wären durch die Darmkrebs-Vorsorge vermeidbar. Wir müssen noch Wege finden, mehr Menschen zu motivieren, die potenziell lebensrettenden Früherkennungsuntersuchungen für Darmkrebs zu nutzen.“

Feng Guo, Chen Chen, Bernd Holleczek, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Strong reduction of colorectal cancer incidence and mortality after screening colonoscopy: prospective cohort study from Germany
The American Journal of Gastroenterology, 2021, DOI: 10.14309/ajg.0000000000001146

*ESTHER ist eine landesweit im Saarland durchgeführte Studie. Mehr Information dazu: http://esther.dkfz.org/esther/

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
http://www.dkfz.de

Originalpublikation:
Feng Guo, Chen Chen, Bernd Holleczek, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Strong reduction of colorectal cancer incidence and mortality after screening colonoscopy: prospective cohort study from Germany
The American Journal of Gastroenterology, 2021, DOI: 10.14309/ajg.0000000000001146

(nach oben)


Die Mikroplastik-Belastung der Ostsee: Neue Ansätze für Monitoring und Reduktionsmaßnahmen

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Um die Belastung der Meere durch Mikroplastik zu erfassen, muss man dessen Menge und sein Verhalten kennen. Bislang ist dies nur unzureichend gegeben. Ein hoher analytischer Aufwand behindert die Bestimmung. Nun liegen Kalkulationen zu den Einträgen aus urbanen Quellen für die gesamte Ostsee vor sowie Modellsimulationen zum Verhalten von Mikroplastik im Meer. Die Ergebnisse zeigen, wie die Belastung der Ostsee mit Mikroplastik in einem regelmäßigen Monitoring effizient beobachtet werden kann. Zudem geben sie Einblick, wie eine Reduktion des Gesamteintrages an Mikroplastik erreicht werden könnte. Auf Platz 1 der effektiven Maßnahmen in unseren Städten: die Reduzierung von Abwasserüberläufen.

Kunststoffpartikel, die kleiner als 5 mm sind, werden als Mikroplastik bezeichnet. Es ist in den Fokus der Umweltforschung und -politik geraten, nachdem es überall auf der Erde, auch in den entlegensten Gegenden, nachgewiesen wurde. Und Mikroplastik verschwindet nicht mehr aus der Umwelt, wenn es einmal eingetragen ist. Es zerfällt nur in immer kleinere Teilchen und reichert sich so ständig an, wenn die Eintragspfade nicht geschlossen werden. Als zentrale Quellen für Mikroplastik im Meer gelten besiedelte Gebiete. Aus diesen urbanen Quellen fließen Abwässer aus Kläranlagen, Trennkanalisation, Regenwasserüberläufen sowie in Form ungeklärter Abwässer in Richtung Meer.

Auf der Basis existierender Daten für 3525 Kläranlagen und zusätzlichen Literaturangaben aus dem gesamten Ostseeraum hat ein internationales Team von Umwelt-wissenschaftler:innen um den Warnemünder Gerald Schernewski berechnet, wie viele Partikel der am häufigsten genutzten Kunststoffe der Größe zwischen 0,02-0,5 mm aus diesen Quellen in die Ostsee gelangen und wie sie sich dort verhalten. Sie benutzten dafür Simulationen auf der Basis von dreidimensionalen Strömungsmodellen, die ihnen außerdem die Verweildauer der Teilchen im Meer anzeigten und die Regionen identifizierten, in denen die Mikroplastiklast hauptsächlich abgelagert wird.
Insgesamt kann von einem Eintrag von rund 67 Billionen Mikroplastik-Partikeln ausgegangen werden, die aus urbanen Quellen pro Jahr in die Ostsee gelangen. Das Wissenschaftlerteam fand aber auch heraus, dass die Verweilzeit mit rund 14 Tagen relativ gering ist. Innerhalb dieses Zeitraumes landet der Großteil des Mikroplastiks an den Küsten in der Nähe der Einleitungen, zum Beispiel von Flussmündungen. Hier kann die jährliche Belastung der Strände auf 1 Mrd. Partikel pro Meter Küstenlinie anwachsen. Im Durchschnitt gehen die Autor:innen von 1 Mio. Partikel aus, die jährlich pro Meter an allen Ostseestränden landen.

Für Gerald Schernewski, Leiter der Arbeitsgruppe Küsten- und Meeresmanagement des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW), bieten die Ergebnisse gute Ansätze für ein effizientes Monitoring: „An den Küsten in der Nähe der Emissionsquellen ist die höchste Verschmutzung zu finden. Das bedeutet, dass wir hier auch am ehesten mit einem regelmäßigen Monitoring den Belastungszustand der Ostsee mit Mikroplastik erfassen können.“ Aber das Modell lieferte noch konkretere Ergebnisse: „Die höchsten Partikelansammlungen fanden sich an den Ufern von Fjorden, Buchten und Lagunen. Es scheint, dass diese Küstenformen das Mikroplastik besonders effektiv zurückhalten und so die offene Ostsee vor Verschmutzung schützen. Wir empfehlen daher, diese Systeme bei der Auslegung von Monitoring-Strategien zu priorisieren.“

In einer weiteren Studie untersuchten die Wissenschaftler:innen mithilfe unterschiedlicher Modellszenarien, welchen Gesamteffekt die Reduktionen an einzelnen Quellen bringen würden. Sie fanden heraus,
• dass der größte Effekt durch die Etablierung von Trennkanalisation mit Retentionseinheiten zu erreichen wäre: die Gesamtmenge des Eintrages von Mikroplastik aus urbanen Quellen in die Ostsee halbierte sich, wenn der Anteil der jährlichen Abwässer, die über die Regenwasserüberläufe in die Ostsee gelangen, von derzeit 1,5 auf 0,3 % gedrosselt würden.
• dass sich der Gesamteintrag um weitere 14 % reduzierte, wenn alle Abwässer an Klärwerke mit einer dritten Reinigungsstufe angeschlossen würden. Allein die Nachrüstung aller Klärwerke in den osteuropäischen Flusseinzugsgebieten um eine dritte Reinigungsstufe würde die Menge an von dort eingetragenen Partikeln um 50% reduzieren.

Die Arbeit wurde durch das Projekt BONUS MicroPoll (03A0027A) finanziell unterstützt. Dieses Projekt wurde mit Mitteln aus dem Programm BONUS (Art 185) gefördert, das gemeinsam aus dem 7. Forschungsrahmenprogramm der Europäischen Union und nationalen Fördereinrichtungen aus dem Ostseeraum, zum Beispiel das deutsche Bundesministerium für Bildung und Forschung (BMBF), finanziert wurden.

Kontakt Pressestelle:
Dr. Kristin Beck: +49 381 5197 135| kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch: +49 381 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, die 96 eigenständige Forschungs-einrichtungen miteinander verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftler*innen. Das Finanzvolumen liegt bei 1,9 Milliarden Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Gerald Schernewski, Arbeitsgruppe Küsten- und Meeresmanagement
Leibniz-Institut für Ostseeforschung Warnemünde
Tel.: 0381 5197 207.| gerald.schernewski@io-warnemuende.de

Originalpublikation:
Schernewski, G., H. Radtke, R. Hauk, C. Baresel, M. Olshammar, R. Osinski and S. Oberbeckmann (2020). Transport and behavior of microplastics emissions from urban sources in the Baltic Sea. Front. Environ. Sci. 8: 579361, doi: 10.3389/fenvs.2020.579361

Schernewski, G., Radtke, H., Hauk, R., Baresel, C., Olshammar, M., Oberbeckmann, S. (2021): Urban microplastics emissions: effectiveness of retention measures and consequences for the Baltic Sea. Front. Mar. Sci., doi: 10.3389/fmars.2021.594415

(nach oben)


kompetenzz-Studie zeigt: Partnerschaftliche Teilung der Arbeit im Haushalt – Frauen wollen sie, Männer auch

Christina Haaf M.A. Pressestelle
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Wenn ein wichtiges Fachkräftepotenzial im demografischen Wandel in Deutschland bei den Frauen liegt, ist die Arbeitsteilung im Haushalt einer der Schlüsselfaktoren. Frauen wollen mehr Parität bei der Arbeit im Haushalt, Männer auch. Wie groß dieser Wunsch nach einer Gleichverteilung ist, verdeutlicht die neue Studie „(Digital) arbeiten 2020: Chancengerecht für alle? – Im Fokus: Partnerschaftliche Aufteilung“ des Kompetenzzentrums Technik-Diversity-Chancengleichheit e. V.

Aber: Selbst in der Krise setzen sich paritätische Lebens- und Arbeitsmodelle nicht durch. Auch wenn in partnerschaftlichen Beziehungen die Männer angeben, sich im ersten Lockdown der Corona-Pandemie bedingt durch das verordnete Homeoffice deutlich öfter um Kinder und Haushalt, Einkauf und Organisation zu kümmern, fühlen sich insbesondere Mütter durch die pandemiebedingten Maßnahmen wie Homeoffice zusätzlich zum Homeschooling stärker belastet.

„Das Ideal der Gleichverteilung von Aufgaben, wie Hausarbeit und Kinderversorgung, ist noch viel zu weit vom gelebten Alltag entfernt – aus Frauen – und auch aus Männersicht“, sagt Lore Funk, Co-Autorin der Studie. „Das Potenzial in Form der Orientierung an einem paritätischen Ideal ist also vorhanden, jedoch sind effektive Weichenstellungen noch zu selten Teil des gesellschaftlichen und betrieblichen Alltags.“

Die Studie von kompetenzz zeigt: Zu oft behindern stereotype Rollenvorstellungen den Bruch mit traditionellen Lebens- und Arbeitsmodellen. Sehr deutlich wird die stärkere psychosoziale Belastung von Eltern, insbesondere Müttern. „Die zeigt sich ganz stark bei der Frage nach der Versorgung der Kinder. Unsere Ergebnisse zeigen, dass Paare die Freizeit mit Kindern häufiger gleich auf Mütter und Väter verteilen als die Versorgung der Kinder“, sagt Lore Funk. Bei der Kinderversorgung ist die Diskrepanz zwischen tatsächlicher und idealer Aufgabenteilung auffällig. Der Abstand zum paritätischen Ideal ist hier am größten.

„Der individuelle Wunsch nach einer gerechten Arbeits- und Aufgabenteilung allein reicht nicht aus. Wir müssen Vereinbarkeit, insbesondere im Kontext der Digitalisierung, gesellschaftlich neu denken“, sagt Prof. Barbara Schwarze, Vorsitzende von kompetenzz und Co-Autorin der Studie. „Aufgrund des hohen Fachkräftebedarfs in unserem Land sollten wir schon jetzt die Nach-Corona-Zeiten und den anstehenden Mix von digitalen Arbeitsformen und Arbeit in Präsenz planen. Die Neuverteilung der Arbeit im Haushalt ist eine Voraussetzung für das Gelingen der „neuen“ Arbeit.“

Noch ist die Diskrepanz zwischen der faktischen und der idealen Aufgabenteilung zu groß, wie die Studie zeigt. „Der Rückzug ins Homeoffice könnte eine Chance sein für eine Neuaufteilung der Arbeit im Haushalt. Diese Chance ist aber (noch) nicht ausreichend genutzt worden. Jetzt ist gesellschaftspolitische Unterstützung nötig, damit aus paritätischen Idealen Realität wird”, betont die Geschäftsführerin von kompetenzz, Sabine Mellies.

Studiensteckbrief
Um ein möglichst differenziertes Bild über Rahmenbedingungen, Einstellungen und Praktiken rund um Arbeit im Jahr 2020 zu erhalten, wurden alle Personen, die aktuell in Deutschland erwerbstätig sind, aufgerufen, ihre Erfahrungen zu Homeoffice, digitaler Ausstattung, Weiterbildung und Arbeitsteilung in der Partner*innenschaft zu teilen. Mehr als 1.000 Männer und Frauen haben vom 8. bis 30 Juni 2020 an der Befragung teilgenommen. Erste Ergebnisse mit dem Fokus auf „Wissen und Qualifizierung“ im Homeoffice wurden im Dezember 2020 veröffentlicht, die aktuelle Studie bildet den zweiten Teil.

http://www.kompetenzz.de/arbeiten2020
#arbeiten2020 #EqualCare

Über kompetenzz
Das Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V. fördert bundesweit die Chancengleichheit von Frauen und Männern sowie Vielfalt als Erfolgsprinzip in Wirtschaft, Gesellschaft und technologischer Entwicklung. http://www.kompetenzz.de

Pressekontakt:
Britta Zachau
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Presse- und Öffentlichkeitsarbeit
Tel: +49 521 106 7321
Fax: +49 521 106 7171
presse@kompetenzz.de
Twitter: @kompetenzz_ev

Weitere Informationen:
http://www.kompetenzz.de/arbeiten2020

(nach oben)


Golfstrom-System schwächer als je zuvor im vergangenen Jahrtausend

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Noch nie in über 1000 Jahren war die Atlantische Meridionale Umwälzströmung (AMOC), auch als Golfstrom-System bekannt, so schwach wie in den letzten Jahrzehnten: Dies ist das Ergebnis einer neuen Studie von Wissenschaftlerinnen und Wissenschaftlern aus Irland, Großbritannien und Deutschland.

„Das Golfstrom-System funktioniert wie ein riesiges Förderband, das warmes Oberflächenwasser vom Äquator nach Norden transportiert und kaltes, salzarmes Tiefenwasser zurück in den Süden schickt. Es bewegt fast 20 Millionen Kubikmeter Wasser pro Sekunde, etwa das Hundertfache des Amazonasstroms“, erklärt Stefan Rahmstorf, Forscher am Potsdam-Institut für Klimafolgenforschung PIK und Initiator der Studie, die in Nature Geoscience veröffentlicht wird. Frühere Studien von Rahmstorf und Kolleginnen und Kollegen zeigten eine Verlangsamung der Meeresströmung um etwa 15 Prozent seit Mitte des 20. Jahrhunderts und brachten dies mit der vom Menschen verursachten globalen Erwärmung in Verbindung. Ein belastbares Bild über die langfristige Entwicklung fehlte jedoch bisher – das liefern die Forschenden mit ihrer Übersichtsstudie, welche die Ergebnisse bisheriger Proxy-Daten-Studien vergleicht.

„Wir haben zum ersten Mal eine Reihe von früheren Studien kombiniert und festgestellt, dass sie ein konsistentes Bild der AMOC Entwicklung über die letzten 1600 Jahre liefern“, so Rahmstorf. „Die Studienergebnisse legen nahe, dass die AMOC Strömung bis zum späten 19. Jahrhundert relativ stabil war. Mit dem Ende der kleinen Eiszeit um 1850 begann die Meeresströmung schwächer zu werden, wobei seit Mitte des 20. Jahrhunderts ein zweiter, noch drastischerer Rückgang folgte.“ Bereits im Sonderbericht über den Ozean des Weltklimarats (IPCC) von 2019 wurde mit mittlerem Vertrauensniveau zudem geschlussfolgert, ‘dass die atlantische meridionale Umwälzströmung im Vergleich zu 1850-1900 schwächer geworden ist.’ „Die neue Studie liefert weitere unabhängige Belege für diese Schlussfolgerung und stellt sie in einen längerfristigen paläoklimatischen Kontext“, so Rahmstorf weiter.

Von Temperatur zu Strömungsgeschwindigkeit: Die Kunst, Klimaveränderungen in der Vergangenheit zu rekonstruieren
Da langfristige direkte AMOC-Messungen erst seit 2004 durchgeführt werden, wendeten die Forschenden einen indirekten Ansatz an. Sogenannte Proxydaten halfen ihnen dabei, mehr über die langfristige Entwicklung der AMOC herauszufinden. Diese Zeugen der Vergangenheit werden aus natürlichen Umweltarchiven gewonnen, wie zum Beispiel Baumringen, Eisbohrkernen, Ozeansedimenten und Korallen sowie aus historischen Daten, z.B. Schiffslogbüchern.

„Wir haben eine Kombination aus drei verschiedenen Datentypen verwendet, um Informationen über die Ozeanströmungen zu erhalten: die Temperaturänderungen im Atlantik, die Verteilung der Wassermassen und die Korngrößen der Tiefsee-Sedimente, wobei die einzelnen Archive von 100 bis ca. 1600 Jahre zurückreichen. Während einzelne Proxydaten bei der Darstellung der AMOC-Entwicklung unvollkommen sind, ergab die Kombination aller drei ein robustes Bild der Umwälzzirkulation“, erklärt Levke Caesar, Teil des Irish Climate Analysis and Research Units an der Maynooth University und Gastwissenschaftlerin am PIK.

Proxy-Datensätze sind im Allgemeinen mit Unsicherheiten behaftet. Diese berücksichtigte die Statistikerin Niamh Cahill von der Maynooth University in Irland bei ihren Tests der Robustheit der Ergebnisse. Sie fand heraus, dass in 9 der 11 betrachteten Datensätze die moderne AMOC-Schwächung statistisch signifikant ist: „Wenn wir annehmen, dass die mit den Proxy-Datensätzen gemessenen Prozesse Änderungen in der Strömung widerspiegeln, liefern sie ein konsistentes Bild – und das trotz der Tatsache, dass die Daten an unterschiedlichen Orten aufgenommen wurden und verschiedene Zeitskalen repräsentieren. Die Abschwächung der Strömung ist seit mehr als 1000 Jahren beispiellos”, so Cahill.

Warum schwächelt AMOC?
Eine Verlangsamung der Zirkulation wird von Klimamodellen seit langem als Reaktion auf die durch Treibhausgase verursachte globale Erwärmung vorhergesagt – und einer Reihe von Studien zufolge ist dies wahrscheinlich der Grund für die beobachtete Abschwächung. Die atlantische Umwälzung wird durch die von Wissenschaftlerinnen und Wissenschaftler bezeichnete Tiefenkonvektion angetrieben, verursacht durch die Dichteunterschiede im Ozean: Warmes und salzhaltiges Oberflächenwasser bewegt sich von Süden nach Norden, wobei es abkühlt und dadurch dichter wird. Wenn es schwer genug ist, sinkt das Wasser in tiefere Ozeanschichten ab und fließt zurück in den Süden. Die globale Erwärmung stört diesen Mechanismus: Durch vermehrte Niederschläge und das verstärkte Abschmelzen des grönländischen Eisschildes wird dem nördlichen Atlantik Süßwasser zugeführt. Dadurch sinkt dort der Salzgehalt und damit die Dichte des Wassers, was das Absinken hemmt und so die Strömung der AMOC Zirkulation schwächt.
Die Abschwächung wird auch mit einer einzigartigen deutlichen Abkühlung des nördlichen Atlantiks in den letzten hundert Jahren in Verbindung gebracht. Diese sogenannte „Kälteblase“ wurde von Klimamodellen als Folge einer sich abschwächenden AMOC vorhergesagt, welche weniger Wärme in diese Region transportiert.

Die Folgen der AMOC-Abschwächung könnten für die Menschen auf beiden Seiten des Atlantiks vielfältig sein, wie Levke Caesar erklärt: „Die nordwärts fließende Oberflächenströmung der AMOC führt zu einer Ablenkung von Wassermassen nach rechts, weg von der US-Ostküste. Dies ist auf die Erdrotation zurückzuführen, die bewegte Objekte wie Strömungen auf der Nordhalbkugel nach rechts und auf der Südhalbkugel nach links ablenkt. Wenn sich die Strömung verlangsamt, schwächt sich dieser Effekt ab und es kann sich mehr Wasser an der US-Ostküste aufstauen. Das kann zu einem verstärkten Meeresspiegelanstieg führen.“ In Europa könnte eine Verlangsamung der AMOC zu mehr extremen Wetterereignissen führen, z.B. durch eine Veränderung der Zugbahn sowie mögliche Verstärkung von Winterstürmen über dem Atlantik. Andere Studien nennen extreme Hitzewellen oder eine Abnahme der Sommerniederschläge als mögliche Folgen. Wie genau sich weitere Konsequenzen gestalten, ist Gegenstand der aktuellen Forschung; die Wissenschaftlerinnen und Wissenschaftler wollen auch im Detail klären, welche Teile der AMOC sich wie und aus welchen Gründen verändert haben.

„Wenn wir die globale Erwärmung auch künftig vorantreiben, wird sich das Golfstrom-System weiter abschwächen – um 34 bis 45 Prozent bis 2100, gemäß der neuesten Generation von Klimamodellen“, folgert Rahmstorf. „Das könnte uns gefährlich nahe an den Kipppunkt bringen, an dem die Strömung instabil wird.“

Artikel: L. Caesar, G. D. McCarthy, D. J. R. Thornalley, N. Cahill, S. Rahmstorf (2020): Current Atlantic Meridional Overturning Circulation weakest in last millennium. Nature Geoscience [DOI: 10.1038/s41561-021-00699-z].

Wissenschaftliche Ansprechpartner:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
http://www.pik-potsdam.de

Originalpublikation:
L. Caesar, G. D. McCarthy, D. J. R. Thornalley, N. Cahill, S. Rahmstorf (2020): Current Atlantic Meridional Overturning Circulation weakest in last millennium. Nature Geoscience [DOI: 10.1038/s41561-021-00699-z].

(nach oben)


Lerntechnologien und Mathematikdidaktik gemeinsam entwickeln

Axel Kölling Presse- und Öffentlichkeitsarbeit
Technologie-Zentrum Informatik und Informationstechnik
Algebra lernen mit allen Sinnen: Dies ermöglicht ein System, das Informatiker*innen und Mathematikdidaktiker*innen der Universität Bremen gemeinsam entwickelt haben. Viele Erkenntnisse lassen sich auf andere Lernbereiche übertragen.

Das „Rechnen mit Unbekannten“ – die elementare Algebra – ist ein besonders wichtiger Baustein auf dem Weg zum erfolgreichen Schulabschluss: Fast alle folgenden mathematischen Konzepte bauen darauf auf. Da die Algebra vielen Schülerinnen und Schülern jedoch erhebliche Probleme bereitet, haben Mathematikdidaktiker*innen und Informatiker*innen der Universität Bremen gemeinsam ein System entwickelt, das den Lernprozess neu gestaltet.

Im Verbundprojekt „Multimodal Algebra Lernen“ (MAL) wurden unter Federführung des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen
neueste Erkenntnisse aus der Mathematikdidaktik mit technischen Innovationen zusammengeführt. „Ziel des Projekts war es, ein Lernsystem zu entwickeln, das Konzepte der Algebra interaktiv und körperlich erfahrbar vermittelt“, erklärt TZI-Direktor Prof. Rainer Malaka. Eine Besonderheit dabei war, dass die Entwicklung des Demonstrators von Beginn an disziplinübergreifend erfolgte und die zukünftigen Nutzergruppen – Lehrer*innen und Schüler*innen – regelmäßig mit einbezog.

Systeme für zu Hause und für den Klassenraum
Ebenfalls ungewöhnlich war das Ziel, ein skalierbares System zu entwickeln, das an verschiedene Nutzungsszenarien angepasst werden kann. Das Resultat ist ein Demonstrator, der verschiedene Interaktionsmöglichkeiten anbietet. Beispielsweise unterstützt das mobile MAL-System auf einem mobilen Endgerät die Einzelnutzung zuhause oder unterwegs, während im schulischen Umfeld auch die Schultisch-Variante eingesetzt werden kann – sie besteht aus einem Tablet-PC und physischen Objekten in verschiedenen geometrischen Formen, die für bestimmte Werte oder Variablen stehen können und eine Gleichung somit handlungsorientierter lösbar machen. Diese Objekte sind auch als „Smart Objects“ in elektronischer Form entwickelt worden. Sie können automatisch kleine Hilfestellungen leisten, beispielsweise durch farbiges Lichtfeedback. Smart Objects lassen sich am besten mit einem Multi-Touch-Tisch kombinieren, also einem Tisch mit interaktiver Oberfläche. So können etwa mathematische Operationen durch passende Gesteninterkationen körperlich erfahrbar und Aufgaben auch kollaborativ bearbeitet werden. Um die Attraktivität des Lernsystems für Schülerinnen und Schüler weiter zu erhöhen, setzt MAL auf „Gamification“ – die spielerische Vermittlung der Inhalte.

Didaktische Erkenntnisse auf andere Projekte übertragbar
Die AG Mathedidaktik der Universität Bremen hat die didaktischen Grundlagen des MAL-Systems entwickelt und die Einbettungsmöglichkeiten in den Unterricht gemeinsam mit dem Westermann-Verlag, der ebenfalls am Projekt beteiligt war, untersucht. Prof. Angelika Bikner-Ahsbahs und ihr Team haben dabei das Zusammenwirken von Technologie, Design und Aufgabenstellung konkret für das Algebra-Lernen betrachtet – mit Ergebnissen, die sich auf andere Anwendungsfelder übertragen lassen. Dazu gehören beispielsweise wichtige Erkenntnisse zur Präsentation von Feedback: „Wir haben gelernt, dass leistungsstarke Schülerinnen und Schüler das Feedback oft ignorieren“, berichtet Bikner-Ahsbahs. „Leistungsschwache Schülerinnen und Schüler müssen dagegen erst lernen, Feedback zu verstehen und umzusetzen.“ Ein wichtiges Ergebnis war darüber hinaus die Entwicklung eines Schichtenmodells des Lernprozesses, das in vier Schritten vom Erlernen des Systems bis zur Emanzipierung von ihm führt.

Schülerinnen und Schüler begeistert
Die Entwicklung des Systems wurde von zahlreichen Evaluationsstudien begleitet und in einer abschließenden Gesamtevaluation von Mathematik-Lehrkräften online bewertet, unter anderem auf Basis von Videos. „Die Rückmeldungen waren fast durchgehend signifikant positiv“, so Bikner-Ahsbahs. Nur die Frage nach der kognitiven Belastung der Lernenden sei differenzierter beantwortet worden – Schülerinnen und Schüler mit Förderbedarf könne das MAL-System in seiner aktuellen Form beim Denken auch belasten anstatt zu entlasten. „Schulgruppen, die das System ausprobiert haben, waren bis jetzt aber stets begeistert“, berichtet sie. Um das MAL-System tatsächlich in den Unterricht zu bringen, werde nun ein Unternehmen benötigt, das die kommerzielle Weiterentwicklung der Prototypen übernimmt.

Förderung durch das BMBF
Neben den genannten Partnern waren auch Wissenschaftler*innen des Kompetenzzentrums für Klinische Studien der Universität Bremen und des ifib – Institut für Informationsmanagement Bremen GmbH sowie die Firmen xCon/Ubimax und Westermann Verlag an dem interdisziplinären Projekt beteiligt. Das Bundesministerium für Bildung und Forschung förderte MAL im Rahmen des Förderschwerpunkts „Erfahrbares Lernen“ mit knapp 1,4 Millionen Euro; das gesamte Projektvolumen belief sich auf 1,8 Millionen Euro.

Weitere Informationen:
http://mal-projekt.de/ Projektwebsite

(nach oben)


Report: Energiewende-Projekt Ariadne diskutiert mit Menschen aus ganz Deutschland zur Strom- und Verkehrswende

Sarah Messina Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Welche Vorstellungen und Ziele haben Menschen bei der Energiewende und wie können ihre Perspektiven besser in der Politikberatung berücksichtigt werden? Quer durch die Bundesrepublik haben fast 90 Bürgerinnen und Bürger im Kopernikus-Projekt Ariadne über den Ausbau Erneuerbarer Energien und die Mobilität der Zukunft diskutiert. Vom öffentlichen Nahverkehr bis hin zum Netzausbau, von Stromkosten zu Jobs: Die Ergebnisse dieser Fokusgruppen legen jetzt den Grundstein für einen außergewöhnlichen Lernprozess zwischen Wissenschaft, Politik und Gesellschaft, der dazu beitragen soll, die verschiedenen Wertvorstellungen besser als bisher in Politikoptionen zu übertragen.

Bürgerbeteiligung startet mit Fokusgruppen und reicht bis zum großen Bürgergipfel
Die Energiewende betrifft im Alltag alle Menschen. Für die Politik ist das eine Herausforderung, denn in jeder Entscheidung drücken sich auch unterschwellig Werte und Prioritäten zu den Themen aus. In welcher Breite diese von den zufällig ausgewählten Teilnehmenden bei Strom- und Verkehrswende diskutiert wurden, aber auch welche Probleme und Bedürfnisse sie zu den Themen der Energiewende haben, zeigen die im neuen Ariadne-Report zusammengefassten Ergebnisse.

„Die Menschen hat zum Beispiel die Frage bewegt, wer sich dafür verantwortlich fühlen soll, dass wir das gesetzte Klimaziel erreichen und wie Belastungen sozial gerecht verteilt werden können“, erklärt Arwen Colell, Mit-Autorin des Berichts und Politik-Analystin am Mercator Research Institute on Global Commons and Climate Change (MCC Berlin), das Teil des Ariadne-Konsortiums ist. „In den Diskussionen wurden ganz unterschiedliche Ziele formuliert, welche die Rolle des Staates betreffen, aber auch das Spannungsfeld von individueller Verantwortung und persönlicher Freiheit.“ Mehr Mitspracherecht bei der Auswahl neuer Technologien und der Lastenverteilung erwarteten sich die Teilnehmenden zum Beispiel bei der Stromwende. Ging es dagegen um Mobilität, scheint aus ihrer Sicht eher die Politik dafür verantwortlich, dass Infrastrukturen geschaffen werden, damit etwa der Umstieg vom Auto auf öffentliche Verkehrsmittel attraktiver wird.

Bürger geben Empfehlungen? Ariadne verfolgt einen integrativen Ansatz
Anders als etwa beim Bürgerrat zur Rolle Deutschlands in der Welt oder dem französischen Klima-Bürgerrat, werden die Sichtweisen von Bürgerinnen und Bürgern und die wissenschaftliche Forschung zur Energiewende im Kopernikus-Projekt Ariadne schrittweise zusammengebracht. Die Ariadne-Fachleute haben damit ein ganz neues Vorgehen im Sinn: Kontinuierlich sollen Erkenntnisse zu Werten und Zielen der Bürgerinnen und Bürger in Forschung und Modellierung von Szenarien eingebunden und analysiert werden, um der politischen Entscheidungsebene gewissermaßen einen 360-Grad-Blick auf Auswirkungen von Optionen und Instrumente zu ermöglichen.

Dass dabei mehr als eine Lösung zielführend sein kann und auch Spannungsfelder offenbleiben, ist für die Forschenden in diesem Zusammenhang wichtig festzustellen. „Ariadne will niemanden überreden oder von einer bestimmten Option überzeugen, sondern vielmehr bei der Entwicklung von umsetzbaren Zukunftspfaden alle Perspektiven der Gesellschaft miteinfließen lassen“, erläutert Martin Kowarsch, Gruppenleiter am MCC Berlin und als Ariadne-Experte für die Bürgerdeliberation ebenfalls Autor des Berichts. „Wenn es unserem Forschungsprojekt gelingt, Menschen aus unterschiedlichen Hintergründen mit- und ernst zu nehmen, können Deliberationsprozesse am Ende einen Beitrag zu einer sachlichen, gemeinwohlorientierten Debatte leisten“, so Kowarsch.

Werte-Landkarten helfen bei der Orientierung der Handlungspfade
Die Ergebnisse der Fokusgruppenarbeit, die wegen der Corona-Pandemie in Videokonferenzen stattfand und gemeinsam mit Kolleginnen und Kollegen der Strategieberatung ifok organisiert und ausgewertet wurden, geben wichtige und richtungsweisende Hinweise für die weitere wissenschaftliche Auseinandersetzung. In verschiedenen Landkarten werden die Aussagen der Menschen nach Werten, Argumenten und Zusammenhängen geordnet, um anhand der so entstandene Kartierung von Handlungspfaden die Entwicklung von möglichen Klimaschutzinstrumenten in der Zukunft zu erleichtern.

Der Ariadne-Report bildet erst den Auftakt des Deliberationsprozesses, der sich durch den gesamten Projektzeitraum ziehen wird. Neben Workshops und Bürgerkonferenzen arbeitet Ariadne als Höhepunkt unter anderem auf einen großen Bürgergipfel zu, bei dem in etwa zwei Jahren Erkenntnisse des Projekts von Bürgerinnen und Bürgern im Dialog mit Politik, Wirtschaft und Wissenschaft diskutiert werden.

Weitere Informationen:
Mareike Blum, Arwen Colell, Julia Hoffmann, Karoline Karohs, Martin Kowarsch, Maren Krude, Miriam Saur, Holger Thiel (2021): Was ist uns wichtig bei Verkehrs- und Stromwende? Bürgerinnen und Bürger sprechen über Herausforderungen und Ziele. Ariadne-Report.

Weblink zum Report: https://ariadneprojekt.de/media/2021/02/2021_Februar_Ariadne-Report_Fokusgruppen…

Weblink zum Projekt Ariadne: https://ariadneprojekt.de/

Kontakt für weitere Informationen:
Sarah Messina
Leitung Kommunikation Ariadne
Potsdam-Institut für Klimafolgenforschung (PIK)
Telefon: +49 (0)331 288 2544
Email: ariadne-presse@pik-potsdam.de

Maria Bader
Kommunikationsmanagerin Ariadne
Mercator Research Institute on Global Commons and Climate Change (MCC)
Telefon: +49 (0)30 3385537 365
E-Mail: ariadne-presse@pik-potsdam.de

Wer ist Ariadne? In der griechischen Mythologie gelang Theseus durch den Faden der Ariadne die sichere Navigation durch das Labyrinth des Minotaurus. Dies ist die Leitidee für das Kopernikus-Projekt Ariadne. Im Konsortium von mehr als 25 wissenschaftlichen Partnerorganisationen führt Ariadne durch einen gemeinsamen Lernprozess mit Politik, Wirtschaft und Gesellschaft, erforscht Optionen zur Gestaltung der Energiewende und erarbeitet Orientierungswissen für Entscheider.

Wir sind Ariadne:
adelphi| Brandenburgische Technische Universität Cottbus – Senftenberg (BTU) | Deutsche Energie-Agentur (dena) | Deutsches Institut für Wirtschaftsforschung (DIW) | Deutsches Zentrum für Luft- und Raumfahrt (DLR) | Ecologic Institute | Fraunhofer Cluster of Excellence Integrated Energy Systems (CINES) | Guidehouse Germany | Helmholtz-Zentrum Geesthacht | Hertie School | Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen (HfWU) | ifok | Institut der deutschen Wirtschaft Köln | Institut für Klimaschutz, Energie und Mobilität | Institute For Advanced Sustainability Studies (IASS) | Mercator Research Institute on Global Commons and Climate Change (MCC) | Öko-Institut | Potsdam-Institut für Klimafolgenforschung (PIK) | RWI – Leibniz-Institut für Wirtschaftsforschung | Stiftung 2° – Deutsche Unternehmer für Klimaschutz | Stiftung Umweltenergierecht | Technische Universität Darmstadt | Technische Universität München | Universität Hamburg | Universität Münster | Universität Potsdam | Universität Stuttgart – Institut für Energiewirtschaft und Rationelle Energieanwendung (IER) | ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung

Über die Kopernikus-Projekte:
Die Kopernikus-Projekte bilden eine der größten deutschen Forschungsinitiativen zum Thema Energiewende. Ihr Ziel ist es, eine klimaneutrale Bundesrepublik mit einer sauberen, sicheren und bezahlbaren Stromversorgung im Jahr 2050 zu ermöglichen. Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) entwickeln sie ganzheitliche Lösungen zum Erreichen der Klimaziele: In den Projekten arbeiten Vertreter aus Wirtschaft, Wissenschaft und Zivilgesellschaft zusammen. Über zehn Jahre erarbeiten sie klimafreundliche Lösungen bis zur Anwendbarkeit im industriellen Maßstab und zur Umsetzung im politischen System.

Mehr zu den Kopernikus-Projekten auf http://www.kopernikus-projekte.de.

Wissenschaftliche Ansprechpartner:
Dorothe Ilskens
Leitung Ariadne-Geschäftsstelle
Potsdam-Institut für Klimafolgenforschung
E-Mail: ilskens@pik-potsdam.de
http://www.pik-potsdam.de

Originalpublikation:
https://ariadneprojekt.de/media/2021/02/2021_Februar_Ariadne-Report_Fokusgruppen…

Weitere Informationen:
https://ariadneprojekt.de/ Weblink zum Projekt Ariadne
http://www.kopernikus-projekte.de Mehr zu den Kopernikus-Projekten

(nach oben)


Cyanobakterien könnten die Plastikindustrie revolutionieren

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen
Klimaneutral und schnell abbaubar: Mikrobiologen der Universität Tübingen ermöglichen Produktion von klimafreundlichem Bioplastik

Als Nebenprodukt der Fotosynthese stellen Cyanobakterien Plastik auf natürlicher Basis her – und das nachhaltig und umweltschonend. Forscherinnen und Forschern der Universität Tübingen ist es nun erstmals gelungen, den Stoffwechsel der Bakterien so zu verändern, dass sie den Naturstoff in Mengen produzieren, die eine industrielle Nutzung ermöglichen. Das natürliche Plastik könnte dem umweltschädlichen Kunststoff auf Erdölbasis Konkurrenz machen. Die Forschungsgruppe unter Leitung von Professor Karl Forchhammer vom Interfakultären Institut für Mikrobiologie und Infektionsmedizin legte ihre Ergebnisse vor kurzem in mehreren Studien vor, die in den Fachjournals Microbial Cell Factories und PNAS erschienen.

„Die industrielle Relevanz dieser Form von Bioplastik kann kaum überschätzt werden“, sagte Forchhammer. Rund 370 Millionen Tonnen Kunststoffe werden derzeit pro Jahr produziert. Laut Prognosen wird die weltweite Plastikproduktion im nächsten Jahrzehnt um weitere 40 Prozent zunehmen. Zwar ist Kunststoff vielfältig einsetzbar und preisgünstig, beispielsweise als Verpackung von Lebensmitteln. Andererseits ist er Ursache für zunehmende Umweltprobleme. Immer mehr Plastikmüll landet in der Natur, wo die Kunststoffe zum Teil die Meere verschmutzen oder in Form von Mikroplastik in die Nahrungskette gelangen. Zudem wird Plastik überwiegend aus Erdöl hergestellt, was bei der Verbrennung zusätzliches CO2 in die Atmosphäre freisetzt.

Eine Lösung für diese Probleme könnte in einem Stamm von Cyanobakterien mit überraschenden Eigenschaften liegen. Cyanobakterien der Gattung Synechocystis stellen Polyhydroxybutyrat (PHB) her, eine natürliche Form von Plastik. PHB ist ähnlich einsetzbar wie der Kunststoff Polypropylen aber in der Umwelt schnell sowie schadstofffrei abbaubar. Allerdings ist die von diesen Bakterien produzierte Menge normalerweise sehr gering. Der Tübinger Forschungsgruppe gelang es, in den Bakterien ein Protein zu identifizieren, das den Kohlenstofffluss in Richtung PHB innerhalb der Bakterienzelle drosselt. Nach Entfernen des entsprechenden Regulators sowie weiteren genetischen Veränderungen stieg die von den Bakterien produzierte PHB-Menge enorm an und machte schließlich über 80 Prozent der Gesamtmasse der Zelle aus. „Wir haben regelrechte Plastikbakterien erschaffen“, sagt Dr. Moritz Koch, Erstautor der in Microbial Cell Factories veröffentlichten Studie.

Cyanobakterien, die auch als Mikroalgen oder Blaualgen bezeichnet werden, gehören zu den unscheinbarsten und doch mächtigsten Akteuren auf unserem Planeten. Es waren Blaualgen, die vor etwa 2,3 Milliarden Jahren durch Fotosynthese unsere Atmosphäre sowie die vor UV-Strahlung schützende Ozonschicht schufen. „Cyanobakterien sind gewissermaßen die Hidden Champions unseres Planeten“, betonte Koch: „Das unterstreicht das enorme Potenzial, das diese Lebewesen mitbringen.“ Da die blaugrünen Bakterien lediglich Wasser, CO2 und Sonnenlicht brauchen, sind sie nach Einschätzung der Forscherinnen und Forscher optimale Akteure für eine klimaschonende und nachhaltige Produktion. „Einmal in der Industrie etabliert könnte die gesamte Kunststoffproduktion revolutioniert werden“, sagte Koch. Langfristiges Ziel sei, den Einsatz der Bakterien zu optimieren und so weit zu skalieren, dass ein großtechnischer Einsatz möglich werde.

Weiteres Bildmaterial erhalten Sie unter: http://www.pressefotos.uni-tuebingen.de/20210202_Plastik_aus_Algen.zip.
Quellenangabe: Fotos: Karl Forchhammer / Universität Tübingen

Wissenschaftliche Ansprechpartner:
Professor Dr. Karl Forchhammer
Universität Tübingen
Interfakultäres Institut für Mikrobiologie und Infektionsmedizin
Telefon: +49 7071 29-72096
karl.forchhammer@uni-tuebingen.de

Originalpublikation:
Tim Orthwein, Jörg Scholl, Philipp Spät, Stefan Lucius, Moritz Koch, Boris Macek, Martin Hagemann, Karl Forchhammer. The novel PII-interactor PirC identifies phosphoglycerate mutase as key control point of carbon storage metabolism in cyanobacteria. PNAS February 9, 2021 118 (6) e2019988118; https://doi.org/10.1073/pnas.2019988118

Koch M., Bruckmoser J., Scholl J., Hauf W., Rieger B., Forchhammer K. Maximizing PHB content in Synechocystis sp. PCC 6803: a new metabolic engineering strategy based on the regulator PirC. Microb Cell Fact 19, 231 (2020). https://doi.org/10.1186/s12934-020-01491-1

(nach oben)


Klimawandel spielte womöglich wichtige Rolle bei der Entstehung vom SARS-CoV-2

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Globale Treibhausgasemissionen haben im Laufe des letzten Jahrhunderts den wahrscheinlichen Ursprungsort von SARS-CoV-2 in Südchina zu einem Hotspot für Coronaviren gemacht, die von Fledermäusen übertragen werden. Klimatische Veränderungen in dieser Region haben das Wachstum von Waldgebieten befördert, die Fledermäusen geeignete Habitate bieten. Dies ist das Ergebnis einer neuen Studie von Wissenschaftlern der Universität Cambridge, des Potsdam-Instituts für Klimafolgenforschung (PIK) und der Universität Hawai’i-Manoa.

Die heute in der Zeitschrift Science of the Total Environment veröffentlichte Studie liefert einen Mechanismus, der dem Klimawandel eine direkte Rolle bei der Entstehung von SARS-CoV-2 zuweisen könnte – dem Virus, das die COVID-19-Pandemie verursachte.
Die Studie beschreibt große klimawandelbedingte Veränderungen der natürlichen Vegetation in der südchinesischen Yunnan Provinz und benachbarten Gebieten in Myanmar und Laos im letzten Jahrhundert – weg von tropischem Buschland, hin zu tropischer Savanne und Laubwald. Dieser Prozess hat die Ausbreitung zahlreicher neuer Fledermausarten ermöglicht, durch die rund 100 neue Arten von Coronaviren in die Region kamen. Genetische Daten legen nahe, dass SARS-CoV-2 in genau dieser Region erstmals in Fledermäusen aufgetreten ist.

„Im letzten Jahrhundert hat der Klimawandel im wahrscheinlichen Ursprungsort von SARS-CoV-2 den Lebensraum für Fledermäuse deutlich attraktiver gemacht – und damit auch für die vielen Coronaviren, die diese Tiere in sich tragen,“, sagt Dr. Robert Beyer, der seit kurzem im Rahmen eines europäischen ‘Marie Curie’ Stipendiums am PIK tätig ist und zuvor an der Universität Cambridge geforscht hat. Im Zuge der Studie rekonstruierten die Forscher mittels klimatischer Daten die weltweite natürliche Vegetation am Beginn des letzten Jahrhunderts. Auf Grundlage davon ermittelten sie die damalige globale Verteilung von Fledermausarten. Ein Vergleich mit der heutigen Verteilung zeigte, wo sich die Anzahl der verschiedenen Fledermausarten weltweit verändert hat.

„Durch den Klimawandel haben sich die Lebensräume von Fledermäusen verschoben. Die Tiere breiteten sich in neue Gebiete aus – und brachten ihre Viren mit. Das veränderte nicht nur, wo die Viren vorkommen, sondern ermöglichte auch neue Interaktionen mit anderen Tieren, durch die schädliche Erreger übertragen wurden oder sich weiterentwickelten“, erklärt Beyer. Camilo Mora, Professor an der Universität Hawai’i-Manoa und Initiator der Studie, fügt hinzu: „Wir wissen, dass der Klimawandel die Übertragung von Viren in Wildtieren auf den Menschen beschleunigt. Das sollte uns dringend dazu veranlassen, Maßnahmen zur Reduktion von Emissionen zu verbessern“.

In der südchinesischen Yunnan Provinz sind auch sogenannte Schuppentiere heimisch, die wahrscheinlich als Zwischenwirte für SARS-CoV-2 fungierten. Man nimmt an, dass das Virus von Fledermäusen auf diese Tiere übergesprungen ist, die dann später auf einem Wildtiermarkt in Wuhan gehandelt wurden – wo sich erstmals Menschen mit SARS-CoV-2 infizierten. Weltweit tragen Fledermäuse schätzungsweise über 3.000 verschiedene Coronaviren in sich. Die meisten davon können nicht ohne weiteres auf Menschen überspringen. Andere hingegen schon – neben SARS-CoV-2 etwa auch SARS-CoV-1 und MERS, die ebenfalls große Epidemien verursachten.

Artikel: Beyer, Robert M., Manica Andrea, Mora Camilo (2021): ‘Shifts in global bat diversity suggest a possible role of climate change in the emergence of SARS-CoV-1 and SARS-CoV-2.’ Science of the Total Environment. [DOI: 10.1016/j.scitotenv.2021.145413]

Wissenschaftliche Ansprechpartner:
Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
http://www.pik-potsdam.de

Originalpublikation:
Weblink zum Artikel: https://doi.org/10.1016/j.scitotenv.2021.145413

(nach oben)


Erhöhter Wasserverbrauch in Zeiten des Lockdowns. Was bedeuten veränderte Routinen für die Versorgungssicherheit?

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
In der zweiten Märzhälfte 2020 kam es durch die Maßnahmen zur Bekämpfung der Covid-19-Pandemie in Deutschland zu ungekannten Veränderungen in nahezu allen Lebensbereichen. Mit dem Lockdown im Frühjahr standen auch die Wasserversorger vor einer neuen Situation: Der Wasserverbrauch veränderte sich, sowohl in öffentlichen und betrieblichen Einrichtungen als auch im häuslichen Wohnraum. In ihrer Studie zum Wasserbrauch in einer norddeutschen Versorgungsregion konnten Wasserexpert*innen des ISOE – Institut für sozial-ökologische Forschung einen Verbrauchsanstieg in Folge veränderter Alltagsroutinen im ersten Lockdown um mehr als 14 Prozent errechnen.

Für ihre Studie, die im Journal „Water“ in der Januarausgabe 2021 erschienen ist, haben Wasserexpert*innen des ISOE tägliche und stündliche Wasserverbrauchsmengen in der ersten Welle der Corona-Pandemie untersucht. Ziel war es, den Effekt der Lockdown-Maßnahmen auf den Wasserverbrauch wissenschaftlich fundiert zu analysieren und ihn in Abgrenzung zu anderen Einflüssen sichtbar zu machen. Hierfür werteten die Wissenschaftler*innen Daten aus dem knapp tausend Quadratkilometer großen Versorgungsgebiet des Wasserbeschaffungsverbands WBV Harburg aus. In diesem Gebiet am Rande der Metropolregion Hamburg südlich der Elbe werden mehr als 180.000 Menschen mit Trinkwasser versorgt.

Um die Wirkung der sozioökonomischen und soziokulturellen Restriktionen in der ersten Welle der Pandemie auf den Wasserverbrauch erfassen zu können, bereinigten die Wissenschaftler*innen die Verbrauchszahlen von anderen Effekten. Ein erhöhter Wasserkonsum infolge von Hitze etwa wurde mithilfe eines linearen gemischten Modells herausgerechnet. „Im Vergleich mit den Wasserverbrauchszahlen der Vorjahre in der suburbanen Untersuchungsregion nahe Hamburg ergab sich für das Jahr 2020 ein Anstieg von 14,3 Prozent. Wir führen diesen Anstieg auf veränderte Alltagsroutinen im Lockdown zurück“, sagt Deike Lüdtke, Erstautorin der Studie „Increase in Daily Household Water Demand during the First Wave of the Covid-19 Pandemic in Germany“. Auch veränderte Freizeitaktivitäten – etwa Baden in privaten Pools oder eine verstärkte Gartenpflege – seien als Ursachen für erhöhte Wasserverbräuche anzunehmen.

Alltagsroutinen verstehen, um Versorgungssicherheit zu gewährleisten 
Die veränderten Routinen während der ersten Welle der Corona-Pandemie machten sich vor allem am Morgen und am Abend bemerkbar. „Veränderungen im Tagesverbrauch sind für Wasserversorgungsbetriebe nicht trivial“, sagt Lüdtke. Die Wasserunternehmen seien auf präzise Vorhersagen angewiesen. „Plötzliche Verhaltensänderungen der Verbraucher*innen können die Versorgungssicherheit der Wasserbetriebe gefährden. Deshalb ist es entscheidend, dass Alltagsroutinen von Verbraucher*innen besser verstanden und in den Wasserbedarfsprognosen berücksichtigt werden.“ 

Die ISOE-Wissenschaftler*innen gehen davon aus, dass bestimmte Bedarfsmuster, die auf die Verhaltensveränderungen während des ersten Lockdowns zurückzuführen sind, auch für künftige Wasserbedarfsrechnungen relevant bleiben werden. „Die Nachfragemuster über den Tag hinweg mit einer zeitlichen Verschiebung der Nachfragespitzen am Morgen und höheren Verbräuchen am Abend lassen auf neue Alltagspraktiken zum Beispiel im Bereich des mobilen Arbeitens schließen, die über die Pandemie hinaus beibehalten werden könnten“, so Lüdtke. Wasserversorger sollten sich deshalb mithilfe möglichst präziser Bedarfsprognosen auf Anpassungen an den Wasserverbrauch einstellen – wobei sich Anpassungen an den künftigen Verbrauch darüber hinaus auch durch sich verändernde Nutzungsmuster in den hochsommerlichen Dürrezeiten ergeben. 

Wasserbedarfsprognosen gestalten sich immer schwieriger
„Eine realistische Planung des künftigen Wasserverbrauchs gestaltet sich immer schwieriger, weil sehr viele Einflüsse auf den Bedarf berücksichtigt werden müssen“, sagt Mitautor Stefan Liehr. Neben klimatischen Bedingungen seien auch demografische Entwicklungen entscheidend, ebenso wie Wirtschaftsstrukturen, die sich besonders in Krisenzeiten verändern. Dadurch kommt es immer auch zu räumlichen Bedarfsverschiebungen, etwa von Gewerbegebieten hin zu Wohngebieten. Für präzise Vorhersagen sei es darüber hinaus unerlässlich, die Gewohnheiten unterschiedlicher Nutzergruppen zu untersuchen. 

Die aktuelle Untersuchung des ISOE in einem Versorgungsgebiet bestätige das: „Je besser wir das Alltagsverhalten unterschiedlicher Nutzergruppen empirisch untersuchen, umso besser können wir vorhersagen, welche Konsequenzen Veränderungen in den Alltagsroutinen für die Versorgungssicherheit haben können“, so Liehr. Als Leiter des Forschungsschwerpunktes Wasserversorgung und Landnutzung hat Stefan Liehr am ISOE bereits mehrere Prognosemodelle für den Wasserbedarf mitentwickelt, die die komplexen Einflüsse in einem Versorgungsgebiet verlässlich und kleinräumig abbilden können.

Wissenschaftliche Ansprechpartner:
Dr. Stefan Liehr 
+49 69 707 6919-36
liehr@isoe.de
http://www.isoe.de

Originalpublikation:
Lüdtke, Deike U./Robert Lütkemeier/Michael Schneemann/Stefan Liehr (2021): Increase in Daily Household Water Demand during the First Wave of the Covid-19 Pandemic in Germany. Water 13 (3), 260
https://doi.org/10.3390/w13030260

Weitere Informationen:
http://www.isoe.de

(nach oben)


Der Meeresspiegel an Nord- und Ostseeküste steigt

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung
Weltweit steigt der Meeresspiegel durch den Klimawandel an. Oft werden damit Schicksale von Menschen weit entfernter Regionen assoziiert. Doch wie sieht es an unseren Küsten aus? Wie stark ist der Meeresspiegel in den letzten 100 Jahren an Nord- und Ostsee angestiegen? Steigt er immer schneller? Und was bringt die Zukunft? Diese Fragen beantwortet der neu entwickelte Meeresspiegel-Monitor (www.meeresspiegel-monitor.de) unter Berücksichtigung aktueller Wasserstandsdaten.

„Durch die regelmäßige Aktualisierung der Auswertungen können wir nun früh erkennen, ob der Meeresspiegelanstieg auch bei uns an Fahrt aufnimmt und wo uns ein ,Weiter so‘ hinführen könnte“, sagt Küstenforscherin Insa Meinke, die den Monitor zusammen mit ihren Kollegen am Helmholtz-Zentrum Geesthacht (HZG) entwickelt hat. Der Monitor ist frei verfügbar unter www.meeresspiegel-monitor.de. Er richtet sich an alle Menschen, die an der Küste wohnen, entscheiden und langfristig planen.

Anstieg ist auch bei uns feststellbar
In Norddeutschland ist der Anstieg des mittleren Meeresspiegels eine der deutlichsten bereits messbaren Folgen des Klimawandels. Er lässt sich an allen acht Pegeln nachvollziehen, die Gegenstand des Meeresspiegel-Monitorings sind. So zeigen die Auswertungen der Wasserstandsdaten, dass der mittlere Meeresspiegel an unseren Küsten in den letzten hundert Jahren (1921 bis 2020) um etwa 15 bis 20 Zentimeter gestiegen ist. Das entspricht ungefähr dem globalen mittleren Meeresspiegelanstieg im selben Zeitraum. An den meisten Pegeln zählt der aktuelle mittlere Meeresspiegel zu den höchsten seit Beginn der Datenverfügbarkeit.

Bei uns bisher keine ungewöhnliche Beschleunigung
Für die vergangenen Jahrzehnte dokumentiert der Weltklimarat (IPCC) eine Beschleunigung des globalen mittleren Meeresspiegelanstiegs. An den Pegeln der deutschen Küsten steigt der Meeresspiegel aktuell zwar schneller als im langjährigen Durchschnitt, eine systematische Beschleunigung lässt sich jedoch bisher nicht nachweisen. Als feste Standorte, deren frühere und aktuelle Pegelstände dem Meeresspiegel-Monitoring zu Grunde liegen, wählten die Wissenschaftler an der Nordsee Husum, Helgoland, Cuxhaven und Norderney sowie an der Ostsee Flensburg, Kiel, Travemünde und Warnemünde.

Früherkennung kritischer Entwicklungen
Die 2019 veröffentlichten Klimaszenarien des IPCC weisen darauf hin, dass der globale mittlere Meeresspiegel künftig immer schneller steigen kann. So ist bei anhaltend hohem Ausstoß von Treibhausgasen bis 2100 ein Anstieg von etwa 60 bis 110 Zentimetern plausibel. Gelingt es, Treibhausgasemissionen nennenswert zu reduzieren, muss bis 2100 trotzdem mit einem globalen mittleren Meeresspiegelanstieg von 30 bis 60 Zentimetern gerechnet werden. Da verschiedene Studien vermitteln, dass sich der Anstieg an unseren Küsten nur unwesentlich vom globalen Mittel unterscheiden wird, zeigt der Monitor an, ob die aktuellen Werte bereits Vorboten der IPCC-Szenarien sind: „Schreibt man den bisherigen Meeresspiegelanstieg an unseren Küsten bis 2100 fort, so zeichnet sich das beschriebene Worst Case Szenario des IPCC bisher bei uns nicht ab“, sagt Insa Meinke. Dies könnte sich aber ändern. Das fortlaufende Monitoring des aktuellen Meeresspiegelanstiegs im Hinblick auf die IPCC-Szenarien ermöglicht die Früherkennung kritischer Entwicklungen. So können rechtzeitig notwendige Maßnahmen ergriffen werden.

Wissenschaftliche Ansprechpartner:
Dr. Insa Meinke
Leiterin des Norddeutschen Küsten- und Klimabüros
Helmholtz-Zentrum Geesthacht
insa.meinke@hzg.de

Weitere Informationen:
https://www.meeresspiegel-monitor.de/ Der neue Meeresspiegel-Monitor des HZG

(nach oben)


Ein neuer Master-Studiengang Biotechnologie

Dr. Corinne Benzing Öffentlichkeitsarbeit
Technische Hochschule Bingen
Die TH Bingen möchte die Biotechnologie weiter ausbauen. Der SPD-Bundestagsabgeordnete Dr. Joe Weingarten informierte sich zu dem geplanten Master-Studiengang.

Der Bad Kreuznacher Bundestagsabgeordnete Dr. Joe Weingarten besuchte die Technische Hochschule (TH) Bingen. Mit Abstand und unter strengen Hygieneauflagen informierte sich der SPD-Politiker über die Biotechnologie an der Hochschule. Mit der Medizinischen Biotechnologie ist es der TH Bingen im vergangenen Jahr gelungen, einen zweiten Standort in Bad Kreuznach zu eröffnen. Die Bad Kreuznacher wiederum dürfen – dank der Stiftungsprofessur der Sparkasse und der Unterstützung der Stadt – ihre Stadt als Hochschulstandort bezeichnen.

Die Binger denken inzwischen schon weiter und wollen die Studierenden bis zum Master für die Biotech-Region Rhein-Nahe ausbilden. „Ich sehe hier große Entwicklungspotenziale“, betont der Präsident der Hochschule, Prof. Dr.-Ing. Klaus Becker. „Zwischen Rhein und Nahe siedeln bereits zahlreiche namhafte Firmen. Deren rasante Entwicklung während der Pandemie ist ein wichtiges Indiz, dass zukünftig gerade in unserer Region ein verstärkter und nachhaltiger Bedarf an Fachkräften zu erwarten ist.“

Weingarten besuchte die TH Bingen zum zweiten Mal und sagte: „Die Hochschule hat einen großen Einfluss auf die Biotechnologie an Rhein und Nahe. Wir möchten deshalb den Standort und seine Pläne unterstützen. Denn im internationalen Wettbewerb können wir nur mit exzellent ausgebildeten Fachkräften mithalten.“

Im Gespräch mit Prof. Dr. Maik Lehmann vom Studiengang Medizinische Biotechnologie erläutert dieser, wie sich die Binger die Zukunft auf dem Campus in Büdesheim vorstellen: „Der geplante Master ‚Synthetische Biotechnologie‘ ist eine hervorragende Ergänzung. Zwei große Schwerpunkte werden die Künstliche Intelligenz und die Bioprozesstechnik sein. Langfristig benötigen wir den Ausbau dieser Disziplin, damit die Bachelor-Studierenden eine weiterführende Perspektive an der Hochschule haben. Nur so können wir sie auch in der Region halten“, so Lehmann. „Wir haben bereits jetzt zahlreiche Kooperationspartner im Land und darüber hinaus. Sei es für die Medizinische Biotechnologie oder unseren Bachelor Biotechnologie. Sie alle sind sehr daran interesssiert, dass unsere Absolvent*innen den höherwertigen Master in der Tasche haben, wenn sie sich bei ihnen bewerben.“

Doch die Mittel sind wie immer knapp. „Wir hoffen bei dem Master Biotechnologie auf finanzielle Unterstützung“, sagt TH-Präsident Becker mit einem Blick in Richtung Landeshauptstadt. „Es stellt wohl niemand in Frage, dass man hier auf junge Menschen setzt, die eine Zukunftstechnologie studieren und die Innovationen in unserem Land vorantreiben. Es ist in diesen Zeiten sicher eine sehr gute Investition, die sich auszahlen wird.“

(nach oben)


Schnellere und richtigere Diagnosen

UR Präsidialabteilung, Bereich Kommunikation & Marketing
Universität Regensburg
Mathematikdidaktiker:innen aus Regensburg und Mediziner:innen des Klinikums der Ludwig-Maximilians-Universität München haben herausgefunden, dass diagnostische Urteile mithilfe von natürlichen Häufigkeiten und Häufigkeitsbäumen nicht nur öfter korrekt, sondern sogar schneller erfolgen können. Darüber informieren die Forscher:innen nun in einem Artikel in Advances in Health Sciences Education.

Statistische Aussagen korrekt zu lesen will gelernt sein. US-Präsident Trump verkündete etwa im Oktober 2020, dass sich 85% der Menschen, die eine Maske tragen, mit Corona infizieren. „Bei dieser Aussage handelte es sich um eine Verwechslung bedingter Wahrscheinlichkeiten“, sagt Mathematikdidaktikerin Dr. Karin Binder. Tatsächlich habe der frühere US-Präsident die beiden bedingten Wahrscheinlichkeiten „Wie wahrscheinlich ist es, dass ein Maskenträger Corona bekommt?“ vs. „Wie wahrscheinlich ist es, dass ein Corona-Infizierter Maske getragen hat?“ verwechselt. Ähnliche Verwechslungen passieren auch Medizinstudierenden und sogar Ärztinnen und Ärzten. Solche Verwechslungen – und wie man diesen vorbeugen kann – haben die Mathematikdidaktiker*innen Dr. Karin Binder und Professor Dr. Stefan Krauss von der Universität Regensburg zusammen mit den Ärzt:innen und Medizindidaktiker:innen Professor Dr. Ralf Schmidmaier und Dr. Leah Braun vom Klinikum der LMU München untersucht.

Hierzu legen sie Versuchspersonen beispielsweise die folgenden Informationen zum Mammographie-Screening zur Brustkrebsfrüherkennung vor: Eine Frau ist symptomfrei und möchte gerne am Screening teilnehmen. In ihrer Altersklasse liegt die Wahrscheinlichkeit für Brustkrebs bei einem Prozent. Durch das Screening wird die Erkrankung mit einer Wahrscheinlichkeit von 80 Prozent erkannt, wenn die Frau Brustkrebs hat. Wenn die Frau hingegen völlig gesund ist, erhält sie mit einer Wahrscheinlichkeit von etwa 9,6 Prozent fälschlicherweise ein positives Testergebnis. Nun sollten die Medizinstudierenden in der Studie die folgende Frage beantworten: Wie wahrscheinlich ist es, dass eine Frau tatsächlich an Brustkrebs erkrankt ist, wenn Sie ein positives Ergebnis in der Mammographie erhält? Die richtige Lösung kann beispielsweise mithilfe der Formel von Bayes errechnet werden und beträgt knapp 8 Prozent.
Wie bereits aus früheren Studien bekannt war, zeigte sich einerseits, dass Medizinstudierende die statistischen Informationen besser verstehen, wenn diese als sogenannte natürliche Häufigkeiten (z. B. „80 von 100 erkrankten Frauen erhalten ein positives Ergebnis in der Mammographie“) statt in Form von Wahrscheinlichkeiten (z. B. „80% der erkrankten Frauen erhalten ein positives Ergebnis in der Mammographie“) kommuniziert werden. Eine zusätzliche Visualisierung mit Häufigkeitsbäumen (siehe Abbildung) kann ebenfalls dazu beitragen, dass Medizinstudierende die korrekte Lösung finden: Insgesamt erhalten 80 Frauen mit Brustkrebs und 950 Frauen ohne Brustkrebs ein positives Testergebnis – das sind 1.030 Frauen mit einem positivem Testergebnis in der Mammographie. Von diesen 1.030 Frauen sind jedoch nur 80 erkrankt, was dem Prozentsatz von etwa acht Prozent entspricht.

In ihrem Artikel, der jetzt in Advances in Health Sciences Education publiziert wurde, zeigten die Forscher:innen nun, dass natürliche Häufigkeiten und Häufigkeitsbäume nicht nur zu einem höheren Anteil korrekter Diagnosen führen, sondern dass diese auch schneller erfolgten. Da sowohl Korrektheit als auch Schnelligkeit von Diagnosen im Alltag eines Arztes oder einer Ärztin äußerst wichtig sind, wurde der Anteil richtiger Antworten und die Zeitspanne, die für die Beantwortung jeder Aufgabe benötigt wird, zu einem gemeinsamen Maß, der „Diagnoseeffizienz“, zusammengefasst. Die berechnete Diagnoseeffizienz kann anschaulich wie folgt interpretiert werden:
„Stellen Sie sich zwei Schlangen von Medizinstudierenden vor“, sagt Karin Binder. In der linken Schlange müssen die Studierenden die Aufgabe in Wahrscheinlichkeiten und ohne Baum lösen. Die Studierenden rechts erhalten die Informationen in Form natürlicher Häufigkeiten und einem Baumdiagramm. Nun müssen die Studierenden nacheinander die Aufgabe lösen. Sobald sie eine Antwort niedergeschrieben haben, ist der nächste Student in der Schlange dran … so lange, bis die erste richtige Antwort kommt.
In der Variante mit Wahrscheinlichkeiten ohne Baum dauert das über eine Stunde und 16 Minuten, denn erst etwa der/die 17. Medizinstudierende kann für die Aufgabe eine korrekte Lösung angeben. In der Variante mit Häufigkeiten und Baum ist die erste richtige Antwort schon nach knapp fünf Minuten auf dem Tisch, denn hier lösen ca. 60% der Versuchspersonen die Aufgabe richtig und benötigen dafür durchschnittlich knapp drei Minuten. Die Erkenntnisse sollen bei der Weiterentwicklung medizinischer Curricula helfen und zur Verbesserung der Ausbildung von Medizinstudierenden führen.

Wissenschaftliche Ansprechpartner:
Dr. Karin Binder
Universität Regensburg
Fakultät für Mathematik
Telefon +49 941 943-2786
karin.binder@ur.de

Originalpublikation:
https://link.springer.com/article/10.1007/s10459-020-10025-8
https://doi.org/10.1007/s10459-020-10025-8

Weitere Informationen:
https://www.uni-regensburg.de/mathematik/didaktik-mathematik/team/karin-binder/i…

(nach oben)


Perspektiven-Papier zeigt Forschungsbedarf zur unterirdischen Wasserstoffspeicherung

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Team von GEO*8 und Uni Edinburgh analysiert Herausforderungen und Wissenslücken bei der Speicherung von Wasserstoff in porösen Gesteinsreservoiren – als Voraussetzung für eine globale Wasserstoffwirtschaft.

Grüner Wasserstoff, erzeugt mit regenerativen Energien, soll zu einer tragenden Säule werden, um die Klimaziele zu erreichen. So hat es die Bundesregierung in ihrer Nationalen Wasserstoffstrategie 2020 beschlossen. In dieser Woche wurde auf der Deutschen Wasserstoffvollversammlung der Entwicklungsstand von Technologie, Produkten und Projekten diskutiert. Ein jetzt im Journal Energy & Environmental Sciences erschienenes Perspektiven-Papier nimmt die Herausforderungen und Wissenslücken bei der unterirdischen Speicherung von Wasserstoff in großem Maßstab in den Blick. Sie ist nach Ansicht der Autor*innen unerlässlich, wenn Wasserstoff sein Potenzial zum Erreichen von Netto-Null-Emissionen voll ausschöpfen soll. Verfasst wurde das Papier in Kooperation von GEO*8, einem Zusammenschluss führender europäischer geowissenschaftlicher Forschungsorganisationen, darunter auch das Deutsche GeoForschungsZentrum Potsdam, mit dem schottischen Projekt HyStorPor. Die Autor*innen sehen einen dringenden Bedarf an disziplinenübergreifender Forschung, um die sichere und effiziente unterirdische Speicherung von Wasserstoff zu realisieren.

Potenzial von Wasserstoff
Wasserstoff steht international im Fokus der Aufmerksamkeit, weil er dazu beitragen kann, Bereiche wie Verkehr, Heizung und energieintensive Industrien wie die Chemie- und Stahlindustrie zu dekarbonisieren. Vor allem ist er ein Schlüssel, um einen entscheidenden Nachteil der erneuerbaren Energieerzeugung zu mildern: ihre Unbeständigkeit. Überschüssige erneuerbare Energie kann durch Elektrolyse in Wasserstoff umgewandelt (grüner Wasserstoff) und so für die Nutzung in Zeiten hohen Energiebedarfs gespeichert werden.

Speicherung in unterirdischen Reservoiren
Um die Versorgung mit Wasserstoff in einer Größenordnung zu ermöglichen, die für eine kohlenstofffreie Zukunft erforderlich ist, müsse er in unterirdischen porösen Gesteinsformationen gespeichert werden, etwa in salzhaltigen Aquiferen und erschöpften Öl- und Erdgasreservoiren, heißt es in dem Papier. Trotz der beträchtlichen Möglichkeiten, die eine solche Speicherung bietet, ist sie noch weitgehend unerprobt und mit zahlreichen Unsicherheiten und Herausforderungen verbunden. Das liege, so die Autor*innen der Studie, vor allem an einer bislang unzureichenden systematischen Erforschung.

Wichtige Fragen offen
„Das Papier wertet den aktuellen Stand der Forschung zur Wasserstoffspeicherung aus und identifiziert die wichtigsten Herausforderungen, die angegangen werden müssen, um einen globalen Einsatz zu ermöglichen“, sagt Niklas Heinemann, HyStorPor-Forscher an der Universität Edinburgh und Erstautor der Studie. Dazu gehören das Fließverhalten von Wasserstoff in unterirdischen Lagerstätten, geochemische Reaktionen, die durch das Einbringen von Wasserstoff ausgelöst werden, biotische Reaktionen, die durch das Vorhandensein von überschüssigem Wasserstoff ermöglicht werden, und die geomechanische Reaktion des Untergrunds auf die Wasserstoffspeicherung.

Die Risiken, die von diesen Prozessen ausgehen, können schwerwiegende wirtschaftliche und sicherheitstechnische Folgen für den Speicherbetrieb haben. Die diskutierten Prozesse und ihre gekoppelten Einflüsse bilden die grundlegende Basis für Modelle auf Reservoir-Skala, um die Auswirkungen der saisonalen Wasserstoffspeicherung genau zu bewerten und vorherzusagen. Diese Vorhersagen können den Weg zu einer fundierten Entscheidungsfindung in Bezug auf Betriebsstrategien weisen, um eine sichere und effiziente Implementierung solcher Lagerstätten zu gewährleisten.

Vielfältige Forschung nötig
„Wir brauchen multidisziplinäre Forschung, um den sicheren, effizienten und dringend benötigten großtechnischen Einsatz der unterirdischen Speicherung zu realisieren“, sagt Jens Kallmeyer, Leiter des Labors für Aquatische Geochemie und Mitarbeiter der Sektion Geomikrobiologie am GFZ. „Dazu gehören Lagerstättentechnik, Chemie, Geologie und Mikrobiologie. Die Erkenntnisse aus der Methan- oder CO2-Speicherung lassen sich nur zu einem sehr geringen Teil auf die Wasserstoffspeicherung übertragen.“

Die vorliegende Studie geht zurück auf einen GEO*8-Workshop, der 2019 am GFZ abgehalten wurde.

Link:
https://media.gfz-potsdam.de/gfz/wv/pm/21/11413_Skizze_Wasserstoffspeicherung_He…

Wissenschaftliche Ansprechpartner:
Dr. Jens Kallmeyer
Sektion Geomikrobiologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28785
E-Mail: jens.kallmeyer@gfz-potsdam.de

Originalpublikation:
N. Heinemann, J. Alcalde, J. M. Miocic, S. J. T. Hangx, J. Kallmeyer, C. Ostertag-Henning, A. Hassanpouryouzband, E. M. Thaysen, G. J. Strobel, M. Wilkinson, C. Schmidt-Hattenberger, K. Edlmann, M. Bentham, R. S. Haszeldine, R. Carbonell and A. Rudloff, Enabling large-scale hydrogen storage in porous media – the scientific challenges, Energy Environ. Sci., 2021. DOI: 10.1039/D0EE03536J

Weitere Informationen:
https://geo8.eu/
https://blogs.ed.ac.uk/hystorpor/

(nach oben)


BAuA-Arbeitszeitbefragung: Arbeitszeitgeschehen zeigt positive Trends bei hoher Stabilität

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Zwischen 2015 und 2019 haben sich Länge, Lage und Flexibilität der Arbeitszeit in Deutschland kaum verändert. Dies zeigt ein Vergleich der BAuA-Arbeitszeitbefragungen 2015, 2017 und 2019, den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jetzt veröffentlicht hat. Dennoch offenbart die Längsschnittstudie einige Trends, die auch vor dem Hintergrund der herrschenden Corona-Epidemie an Bedeutung gewinnen. So zeigt sich beispielsweise bereits im Zeitraum vor der Epidemie ein Anwachsen von Telearbeit und Homeoffice sowie ein Anstieg bei den Arbeitszeitkonten.

Die Befragten berichten insgesamt über einen größeren Einfluss auf ihre Arbeitszeit. Gleichzeitig wünschen immer mehr Beschäftigte in Vollzeit eine Verkürzung ihrer Arbeitszeit. Der Bericht „BAuA-Arbeitszeitbefragung: Vergleich 2015 – 2017 – 2019“ betrachtet dabei auch die versorgungsrelevanten Berufe, die im Schnitt ungünstigere Arbeitszeitbedingungen aufzeigen. Zudem werden auch erste Befunde und Hypothesen zu langfristigen Auswirkungen der Corona-Krise diskutiert

Die BAuA-Arbeitszeitbefragung ist als Panelstudie angelegt und begann 2015 mit der Befragung von rund 20.000 abhängig Beschäftigten. 2017 und 2019 folgten Befragungen von jeweils etwa 10.000 Beschäftigten. Dabei wurden Informationen unter anderem zur Arbeitszeit, zu Arbeitsbedingungen und zur Gesundheit abgefragt.

Während die vereinbarte Arbeitszeit in Vollzeit nahezu konstant bei 38,7 Stunden liegt, hat sich die Arbeitszeit der Teilzeitkräfte im Betrachtungszeitraum kontinuierlich verlängert (2015:22,4 h / 2019:23,8 h). Insgesamt nahm die Dauer der geleisteten Überstunden um etwa 30 Minuten auf 3,4 Stunden pro Woche in 2019 ab. Auch der Wunsch nach Verkürzung nahm bei den Befragten über die Jahre hinweg zu, insbesondere bei den vollzeitbeschäftigten Männern.

Rund 40 Prozent der Beschäftigten arbeiten am Wochenende, etwa jeder fünfte Befragte zu atypischen Arbeitszeiten, außerhalb des Zeitfensters von 7 bis 19 Uhr. Während die Beschäftigten durchschnittlich mehr Einfluss auf ihre Arbeitszeit, wie Beginn, Ende oder Pausengestaltung, gewonnen haben, gingen die Anforderungen an ihre Flexibilität, wie Rufbereitschaft oder Bereitschaftsdienst, zurück. Zudem stieg der Anteil der Beschäftigten mit Arbeitszeitkonten um fünf Prozentpunkte auf 66 Prozent in 2019. Seit 2015 nahm der Anteil der Telearbeit kontinuierlich zu. So hatten 2019 etwa 16 Prozent der Beschäftigten mit ihrem Arbeitgeber eine Vereinbarung zum Homeoffice getroffen.

In einem Exkurs befasst sich der Bericht mit den „versorgungsrelevanten Berufen“. Ein knappes Drittel (30,2 %) der Beschäftigten arbeitet in Bereichen, wie dem Gesundheitssystem, Transport und Verkehr oder in der Lebensmittelversorgung. Um Dienstleistungen oder die Betreuung von Infrastrukturen zu gewährleisten, ist hier die Arbeit zu atypischen Zeiten stark verbreitet. Unvorhergesehene Ereignisse fordern von den Beschäftigten häufig eine hohe Flexibilität. Zudem haben sie einen geringeren Einfluss auf die eigene Arbeitszeit und seltener die Möglichkeit zur Telearbeit. Häufigere verkürzte Ruhezeiten erschweren die Erholung. Insgesamt sind hier langfristig negative Auswirkungen auf Gesundheit und Work-Life-Balance deshalb wahrscheinlicher.

Der Bericht verdeutlich jedoch insgesamt eine hohe Stabilität des Arbeitszeitgeschehens in Deutschland. Mit der vierten Befragungswelle wird in diesem Jahr die Arbeitszeitberichterstattung der BAuA fortgesetzt. Dabei werden die Folgen der SARS-CoV-2-Epidemie auf die Arbeitszeitrealitäten besonders betrachtet werden.

„BAuA-Arbeitszeitbefragung: Vergleich 2015 – 2017 – 2019“; Nils Backhaus, Anne Marit Wöhrmann, Anita Tisch; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020; 105 Seiten; ISBN 978-3-88261-734-4; doi:10.21934/baua:bericht20201217. Den Bericht gibt es im PDF-Format im Internetangebot der BAuA unter http://www.baua.de/dok/8851216.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 750 Beschäftigte.
http://www.baua.de

(nach oben)


Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Saurer Regen gehört eigentlich der Vergangenheit an, doch noch immer steigen die Sulfatkonzentrationen in vielen Binnengewässern weltweit. Forschende unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der dänischen Universität Aarhus geben in einer neuen Studie einen Überblick, aus welchen Quellen das Sulfat heute stammt und welche Folgen es hat. Sie weisen darauf hin, dass die negativen Folgen für Ökosysteme und Trinkwassergewinnung bisher nur regional wahrgenommen werden und empfehlen, Sulfat stärker in rechtlichen Umweltstandards zu berücksichtigen.

„Saurer Regen“ war ein Phänomen der 1980er Jahre, als bei der Verbrennung fossiler Brennstoffe große Mengen an Schwefel in die Atmosphäre gelangten. Nachdem Kraftwerke in Nordamerika und Europa zur Rauchgasentschwefelung nachgerüstet wurden, schien die Gefahr zunächst gebannt. In Deutschland sanken die atmosphärischen Schwefeleinträge um 90 Prozent. In Binnengewässern blieben die Konzentrationen an Sulfat, das aus Schwefel gebildet wird, in den letzten Jahrzehnten dennoch nahezu unverändert; in einigen Regionen stiegen sie sogar. Für die Forschenden ein klares Zeichen dafür, dass andere Quellen an Bedeutung gewonnen haben.

Entwässerung, Kunstdünger und Braunkohletagebau zählen zu den Hauptursachen:
Gelöstes Sulfat entsteht in Binnengewässern natürlicherweise durch die Verwitterung von Mineralien, bei Vulkanismus oder beim Abbau von organischem Material. Doch vor allem menschliche Aktivitäten lassen die Konzentrationen von Sulfat im Wasser deutlich ansteigen. Neben den atmosphärischen Einträgen sind dafür insbesondere die Entwässerung von Mooren, die Absenkung des Grundwasserspiegels für den Braunkohletagebau, Düngerauswaschungen aus landwirtschaftlich genutzten Böden sowie Abwässer aus Landwirtschaft und Industrie verantwortlich. Weltweit macht der landwirtschaftliche Einsatz von schwefelhaltigen Substanzen rund 50 Prozent des jährlich in die Umwelt eingetragenen Schwefels aus. So gelangt in einigen Regionen der Welt heute mehr Schwefel in Böden und Gewässer als zum Höhepunkt des sauren Regens.

Der Klimawandel verschärft die Situation:
Die Folgen des Klimawandels tragen zu einer Verschärfung bei: „Zunehmender Starkregen spült schwefelhaltige Böden und Dünger in Gewässer; größere Flächen von Feuchtgebieten fallen trocken; durch steigende Meeresspiegel gelangt sulfatreiches Salzwasser ins Grundwasser und in Flüsse, wo es die Sulfatkonzentrationen erheblich erhöhen kann“, fasst Dr. Dominik Zak von der dänischen Universität Aarhus die Prognosen zusammen, die er und seine Mitautor*innen in der Übersichtsstudie zusammengetragen haben.

Negative Folgen für Mensch und Ökosysteme:
Die Spree ist ein Beispiel für Flüsse, in denen die Sulfatkonzentrationen als Folge des Braunkohletagebaus angestiegen sind. In einigen Abschnitten überschreitet sie schon heute den Trinkwassergrenzwert von 250 Milligramm pro Liter. „Das ist problematisch, da diese Gewässer als Trinkwasserquelle genutzt werden – typischerweise über Grundwasserentnahme und durch Uferfiltration. Nach wie vor spielt der Braunkohleabbau in vielen Regionen der Welt eine bedeutende Rolle, und überall dort sind Sulfatbelastungen in Gewässern und dem Trinkwasser ein Thema. Auch wenn wir in Deutschland den Ausstieg aus der Braunkohleförderung beschlossen haben, werden uns die Sulfateinträge in unsere Gewässer als Umweltproblem längerfristig erhalten bleiben“, prognostiziert IGB-Forscher Dr. Tobias Goldhammer, einer der Autoren der Studie.

Sulfat beeinträchtigt nicht nur die Trinkwasserqualität, es beeinflusst auch die Stoffkreisläufe von Kohlenstoff, Stickstoff und Phosphor. Das steigert unter anderem den Nährstoffgehalt in Gewässern und damit das Pflanzen- und Algenwachstum sowie das Nahrungsangebot für aquatische Organismen. Die Folge ist ein Sauerstoffmangel im Wasser, der die weitere Freisetzung von Phosphat aus dem Sediment fördert – ein Teufelskreis. Sulfat und seine Abbauprodukte – insbesondere Sulfid – können zudem giftig auf aquatische Lebewesen wirken.

Renaturierte Moorflächen binden Schwefel:
Die biologische Sanierung mithilfe lebender Organismen wie Prokaryonten, Pilzen oder Pflanzen ist eine Möglichkeit, um Schadstoffe aus Ökosystemen zu entfernen. Pflanzenkläranlagen, Bioreaktoren und durchlässige reaktive Barrieren können auch die Sulfatbelastungen in Gewässern mindern. Viel versprechen sich die Wissenschaftler*innen dabei von der Renaturierung von Mooren: Durch die flächendeckende Trockenlegung von Feuchtgebieten wurden Schwefel und schwefelhaltige Eisenverbindungen freigesetzt. Die Wiedervernässung dieser Flächen kann die Freisetzung stoppen und sogar Schwefel speichern: Gelangt dann mit Sulfat angereichertes Wasser über Grund- oder Oberflächenwasser in diese Feuchtgebiete, wird es dort gefiltert.

Sulfat ist ein globales Umweltproblem:
„Es besteht großer Handlungsbedarf, die Sulfatkonzentrationen in Gewässern zu verringern. Da die Probleme im Zusammenhang mit hohen Sulfateinträgen bisher vor allem regional wahrgenommen werden, sind die Auswirkungen auf Binnengewässer noch nicht als global aufkommendes Umweltproblem erkannt. So haben viele Länder dafür keine Umweltstandards definiert. Wir möchten mit unserer Studie auf die Problematik aufmerksam machen, den derzeitigen Stand zur Sulfatbelastung aufzeigen und gleichzeitig auf die noch zahlreichen Wissenslücken hinweisen“, fasst Dominik Zak zusammen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von sieben natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/

Wissenschaftliche Ansprechpartner:
Dr. Tobias Goldhammer
Leiter der IGB-Forschungsgruppe „Nährstoffkreisläufe und chemische Analytik“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: goldhammer@igb-berlin.de

Dr. Dominik Zak
Department of Bioscience
Aarhus University, Dänemark
Email: doz@bios.au.dk

Originalpublikation:
Zak D, Hupfer M, Cabezas A, Jurasinski G, Audet J, Kleeberg A, McInnes R, Munch Kristiansen S, Petersen RJ, Liu H, Goldhammer T (2020) Sulphate in freshwater ecosystems: A review of sources, biogeochemical cycles, ecotoxicological effects and bioremediation. Earth Science Reviews doi:10.1016/j.earscirev.2020.103446

Weitere Informationen:
https://www.igb-berlin.de/news/saurer-regen-war-gestern

(nach oben)


Wärmere Winter führen zu weniger Heringsnachwuchs in der westlichen Ostsee

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Forschende vom Thünen-Institut für Ostseefischerei zeigen, dass vor allem die Erwärmung des Meerwassers im Winter zu massivem Rückgang der Heringslarven führt / Veröffentlichung in Frontiers in Marine Science erschienen

Der Rückgang des Nachwuchses beim Hering der westlichen Ostsee ist eine direkte Folge der Erwärmung des Meeres und der Verschiebung der Jahreszeiten. Erstmals ist es Forschenden am Thünen-Institut für Ostseefischerei in Rostock gelungen, einen solchen Nachweis für eine kommerziell genutzte Fischart zu führen. Die Ergebnisse der Forschergruppe um Dr. Patrick Polte, Leiter der Arbeitsgruppe Heringsrekrutierung am Thünen-Institut, sind jetzt in einem Fachartikel in der Zeitschrift Frontiers in Marine Science publiziert worden.

„Wir beobachten die Laichtätigkeit des Herings im Greifswalder Bodden und Strelasund seit fast 30 Jahren, nehmen jede Woche über den gesamten Laichzeitraum an vielen Stellen Proben. Der sogenannte Rügen-Heringslarvensurvey ist damit die längste zusammenhängende und hochaufgelöste Datenserie zur frühen Lebensgeschichte eines kommerziell genutzten Fischbestands“, sagt Patrick Polte.

Der Greifswalder Bodden ist so etwas wie die Kinderstube des Heringsbestandes der westlichen Ostsee. Im Winter sammeln sich die Tiere, von ihren Sommergründen in Kattegat und Skagerrak kommend, im Öresund zwischen Dänemark und Schweden. Von dort aus machen sie sich auf den Weg in ihre Laichgebiete an der Südküste der westlichen Ostsee und laichen im Frühjahr an Wasserpflanzen im Flachwasser – ein Automatismus, der seit Jahrtausenden funktioniert. Doch seit 15 Jahren geht die Anzahl der Jungheringe signifikant zurück.

Das Rostocker Team hat seither systematisch nach den Ursachen gesucht. In einer Kombination aus Feldforschung und Zeitreihenanalyse habe sich schließlich gezeigt, dass die Heringe früher in den Bodden schwimmen als noch vor 15 Jahren, so Polte. Die Wissenschaftler können dies auf die schwächeren und verspäteten Kälteperioden in der Ostsee zurückführen. Außerdem entwickeln sich die Eier bei höheren Temperaturen schneller. „Daher schlüpfen die Larven rund 14 Tage früher als noch vor 30 Jahren“, erläutert Patrick Polte. Das Problem: Nach wenigen Tagen haben die Heringslarven ihren Dottersack aufgezehrt und brauchen dann winzigen Zooplankton-Nachwuchs als Futter. Das allerdings, so erste Ergebnisse weiterer Studien, scheint zu diesem frühen Zeitpunkt noch nicht in ausreichendem Maße vorhanden zu sein, weil es – anders als die Heringslarven – lichtgesteuert entsteht. Die Folge: Die Larven verhungern, die Zahl erwachsener und damit laichbereiter Heringe geht von Jahr zu Jahr zurück.

Aufgrund des kleiner werdenden Bestandes wurde die von den EU-Fischereiministern festgesetzte Fangmenge für Hering in der westlichen Ostsee immer weiter reduziert, allein seit 2017 um 94 Prozent. In diesem Jahr dürfen nur noch 1.575 Tonnen Hering gefangen werden. „Das kommt einer Schließung der Heringsfischerei sehr nahe“, sagt Dr. Christopher Zimmermann, Leiter des Thünen-Instituts für Ostseefischerei. „Mit unserer Studie wird auch klar, dass der Klimawandel bereits heute wirtschaftlich erhebliche Auswirkungen hat, nicht erst in 30 Jahren: Der Bestand ist nur noch halb so produktiv wie vor 30 Jahren. Trotzdem könnten noch 20.000 Tonnen Hering aus der westlichen Ostsee gefischt werden, wenn der Bestand in gutem Zustand wäre“, so Zimmermann weiter. Eine Erholung und nachhaltige Nutzung sei jedoch innerhalb von 5-6 Jahren möglich, wenn die Fangmengen niedrig blieben. Ein kalter Winter könnte die Erholung zudem beschleunigen – der ist aber nicht in Sicht.

Wissenschaftliche Ansprechpartner:
Dr. Patrick Polte
Thünen-Institut für Ostseefischerei, Rostock
Tel.: +49 381 66099 103
E-Mail: patrick.polte@thuenen.de

Originalpublikation:
Reduced Reproductive Success of Western Baltic Herring (Clupea harengus) as a Response to Warming Winters. Front. Mar. Sci., 2021
http://www.frontiersin.org/articles/10.3389/fmars.2021.589242/full?&utm_source=Email_to_authors_&utm_medium=Email&utm_content=T1_11.5e1_author&utm_campaign=Email_publication&field=&journalName=Frontiers_in_Marine_Science&id=589242
https://doi.org/10.3389/fmars.2021.589242

(nach oben)


Ganzheitliches Aktivkohleverfahren beseitigt Spurenstoffe in Kläranlagen

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Kläranlagen greifen zur Reinigung unseres Abwassers auf eine Reihe von wirk-samen und etablierten Verfahren zurück, doch eine einheitlich anerkannte, ideale Methode zur Entfernung von Spurenstoffen gibt es bisher nicht. Forschende des Fraunhofer-Instituts für Umwelt-, Sicherheits- und Energietechnik UMSICHT wollen dies ändern. Mit »ZeroTrace« haben sie einen ganzheitlichen Ansatz mit selbstentwickelten Komposit-Aktivkohlen und einem neuen elektrischen Regenerationsverfahren geschaffen, der Effizienz, Massentauglichkeit und Nachhaltigkeit verspricht.

Öffnet man in Deutschland den Wasserhahn, hat das herausströmende Wasser in der Regel beste Trinkwasserqualität. Dies liegt nicht zuletzt an den vielen Kläranlagen, die unser Abwasser mit mechanischen, biologischen und chemischen Verfahren erfolgreich säubern und verunreinigende Bestandteile wirksam entfernen. Spurenstoffe, wie Arzneimittelrückstände, Haushaltschemikalien oder Röntgenkontrastmittel lassen sich damit bisher jedoch kaum entfernen. Doch gerade diese können Mensch und Tier bereits in sehr geringen Mengen gefährlich werden.

Um diesem Problem zu begegnen, werden Kläranlagen zunehmend mit einer weiteren Reinigungsstufe nachgerüstet, die Spurenstoffe entfernen soll. Neben chemisch-oxidativen Maßnahmen, bei denen problematische Beiprodukte entstehen können, wird hierbei vor allem auf Aktivkohlen gesetzt. Diese haben wegen ihrer porösen Grundstruktur eine enorm große innere Oberfläche – schon bei vier Gramm Aktivkohle entspricht sie in etwa der Fläche eines Fußballfeldes – und können andere Stoffe in Abhängigkeit von deren Ladung adsorbieren, also ähnlich wie ein Schwamm in sich aufsaugen.

Stärkere Berücksichtigung von Nachhaltigkeitsaspekten
Doch obwohl Spurenstoffe so in der Regel wirksam aus dem Ablauf entfernt werden können, hat das Verfahren in der Praxis häufig einen Haken, erklärt Ilka Gehrke, Abteilungsleiterin Umwelt und Ressourcennutzung am Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT in Oberhausen: »Bisher wird meist pulvrige Aktivkohle eingesetzt. Sobald diese voll beladen ist und keine Stoffe mehr adsorbieren kann, wird sie schlichtweg verbrannt. Unter Nachhaltigkeitsaspekten ist das sehr problematisch, zumal Aktivkohle häufig aus nicht-nachwachsenden Rohstoffen, nämlich ganz normaler Steinkohle, hergestellt wird.«

Forschende des Fraunhofer UMSICHT haben es sich daher in Zusammenarbeit mit mehreren Industriepartnern im vom Bundesministerium für Bildung und Forschung geförderten Projekt »ZeroTrace« zum Ziel gesetzt, den Einsatz von Aktivkohlen zur Beseitigung von Spurenstoffen im Abwasser zu optimieren und haben hierfür einen ganzheitlichen Ansatz entwickelt. Begleitet wurde der Prozess durch Forschung im Innovations- und Ressourcenmanagement, die es ermöglichte, sozio-ökonomische sowie ökologische Innovationstreiber und -bremser von Anfang an mit zu berücksichtigen.

Als Ausgangsstoff für ihr Verfahren setzen Gehrke und ihr Team auf Aktivkohlen aus nachwachsenden Materialien wie Holz oder Kokosnuss in granulierter Form. Derartige Pellets können im Gegensatz zu Aktivkohlepulver bei sehr hohen Temperaturen reaktiviert, dadurch von den adsorbierten Stoffen befreit und wiederverwendet werden. Derzeit müssen die Aktivkohlen hierfür jedoch meist erst weit transportiert werden und weil sich die Kohlen beim Durchmischen im Wirbelbett gegenseitig abreiben, gibt es hohe Materialverluste.

Von der passenden Regenerationsmethode zum benötigten Ausgangsprodukt
Ziel der Forschenden war es daher ein Regenerationsverfahren zu entwickeln, das direkt vor Ort am jeweiligen Kläranlagengelände durchgeführt werden kann. »Hierfür nutzen wir die physikalische Wirkung von elektrischen Feldern aus«, erklärt Gehrke. »Diesen Gedanken hatten vor uns bereits andere für den Bereich der Gasreinigung und viele dieser Grundlagen konnten wir für unser Vorhaben auf den Flüssigbereich übertragen. Zu der Zeit waren elektrisch betriebene Verfahren aber sehr teuer und derartige Forschungsprojekte wurden nicht weiter verfolgt. Heute dagegen werden wir uns zunehmend den fluktuierenden Stromanfall von regenerativen Energien zunutze machen können. Hier wird in Zukunft erwartet, dass bei Stromspitzen Strom zu niedrigen Kosten verfügbar ist.«

Die Idee hinter dem neuen Verfahren, basierend auf der sogenannten Electric Field Swing Adsorption (EFSA), ist es, die Kohlen elektrisch so zu erhitzen, dass die Schadstoffe auf den Kohlen desorbieren oder schlichtweg verbrennen. Damit dies funktioniert, müssen sowohl die Aktivkohlen als auch der Reaktor bestimmte Voraussetzungen erfüllen. So müssen die verwendeten Aktivkohlen eine hohe elektrische Leitfähigkeit aufweisen, damit genug Strom durch sie hindurchfließen kann. Trotzdem muss der Materialwiderstand groß genug sein, dass sie sich dabei ausreichend erhitzen. Gehrke und ihr Team entwickelten hierfür eigene Komposit-Aktivkohlen. Dem Grundmaterial Holzkohlenmehl mischten sie Grafit bei und erzielten dadurch eine elektrische Leitfähigkeit, die bei gleichbleibender Adsorptionsfähigkeit dreimal so hoch ist wie bei herkömmlichen Aktivkohlen. Bei der Reaktorkonstruktion bestand die Schwierigkeit darin, diesen so zu bauen, dass er auch hohen Temperaturen von bis zu 650 Grad standhält. In Bezug auf die Funktionsweise setzen Gehrke und ihre Kollegen auf eine kontinuierliche Regeneration: »Die Idee ist, dem Becken laufend über ein Förderband kleine Aktivkohlemengen zu entnehmen, diese zu regenerieren und wieder zurückzuführen. Dazu reicht dann ein verhältnismäßig kleiner Reaktor aus, weil sich nie alle Aktivkohlen gleichzeitig darin befinden und der Regenerationsprozess nur ein paar Minuten dauert. Da sich die Aktivkohlen im Reaktor selbst nicht bewegen, ist der Verschleiß gering und wir rechnen damit, dass wir pro Durchgang mit maximal zehn Prozent neuen Aktivkohlen auffrischen müssen.«

Vielversprechende und anschlussfähige Ergebnisse
Die selbst hergestellten Komposit-Aktivkohlen konnten bei Tests auf der Partnerkläranlage Wuppertal-Buchenhofen bereits erfolgreich mit Spurenstoffen beladen werden. Das Regenerationsverfahren führten die Forschenden an einem Protypenreaktor mit einem Fassungsvermögen von 40 bis 50 Litern außerhalb des Kläranlagengeländes durch und erzielten dabei erfreuliche Ergebnisse. Nach einer fast dreijährigen Projektphase zieht Ilka Gehrke daher ein positives Fazit: »Unsere Tests haben gezeigt, dass unser Verfahren ressourcenschonend und dabei gleichzeitig wirtschaftlich und konkurrenzfähig ist.« Aktuell diskutieren die Beteiligten über mögliche Nachfolgeprojekte mit Umsetzungen im größeren Maßstab direkt vor Ort.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/februar-2021/ganzhe…

(nach oben)


Verborgenes Wissen heben, um Ökovielfalt der Meere zu retten

Sandra Sieraad Medien und News
Universität Bielefeld
Den Schutz der Lebensräume und der Artenvielfalt in den Meeren und an den Küsten in Zukunft effizienter gestalten: Ein neues Verbundprojekt forscht an den Grundlagen dafür. In dem Projekt arbeiten Wissenschaftler*innen aus der Ökonomie und der Ökologie zusammen. Sie beschäftigen sich mit der Frage, wie bessere Entscheidungen im Umwelt- und Artenschutz gefällt werden können, auch unter den Bedingungen von Unsicherheit und unvollständigen Informationen. Für das Forschungsprojekt „Value of Information“ (Informationswerte) kooperiert die Universität Bielefeld mit dem Helmholtz-Institut für Funktionelle Marine Biodiversität an der Universität Oldenburg (HIFMB).

„Der Umwelt- und Artenschutz gehören zu den zentralen Herausforderungen der heutigen Zeit“, sagt Privatdozent Dr. Thorsten Upmann. Der Wirtschaftswissenschaftler forscht sowohl an der Universität Bielefeld als auch am HIFMB und leitet das neue Projekt. „Um die Erderwärmung zu begrenzen und Tier- und Pflanzenarten zu schützen, ist rasches Handeln erforderlich – auf Basis wissenschaftlicher Daten“, sagt Upmann. Um beispielsweise gefährdete Tierarten schützen zu können, ist es nötig, den Lebensraum der jeweiligen Population genau zu kennen und die Zusammenhänge innerhalb dieses Ökosystems zu verstehen. Die Forschung und Datengewinnung ist gerade im Kontext mariner Lebensräume sehr kosten- und zeitintensiv. „Durch den voranschreitenden Klimawandel und das Artensterben steht die Suche nach den besten Lösungen zusätzlich unter Zeitdruck“, sagt Upmann. An dieser Stelle setzt das neue Forschungsprojekt an.

Die richtigen Informationen für zielführende Entscheidungen
Täglich fällen Menschen Entscheidungen. Dabei ist der Ablauf bei den meisten Personen wahrscheinlich ähnlich: Eine Person informiert sich, vergleicht und fragt andere Personen nach ihrer Erfahrung oder Meinung. Anschließend wägt sie die gewonnenen Informationen ab und fällt eine Entscheidung. „Die Frage, welche Informationen als Grundlage für die Entscheidung zur Verfügung stehen, ist für den Entscheidungsprozess von zentraler Bedeutung“, erklärt Thorsten Upmann. Oft fehlen im Alltag jedoch relevante Informationen. Das kann am Zeitdruck liegen oder daran, dass Informationen zunächst nicht verfügbar sind.

Ökosysteme in den Meeren sind komplexe Systeme von Lebewesen
Trotz solcher Beschränkungen treffen Menschen Entscheidungen auf Basis der Informationen und der Wissenslücken, die zum jeweiligen Zeitpunkt bestehen. „Beim Schutz der marinen Biodiversität – also der biologischen Vielfalt in den Meeren und an den Küsten – ist die Situation ähnlich“, sagt Thorsten Upmann. „Wissenschaftler*innen, die die dortigen Ökosysteme erforschen, haben es mit komplexen Systeme zu tun, in denen es zu vielseitigen Wechselwirkungen kommt. Die Forschung kann lediglich eine Momentaufnahme in solch einem dynamischen System festhalten. Die Beobachtungen und damit die gewonnen Daten sind also immer selektiv und unvollständig.“ Zusätzlich sei die Forschung zu den Ökosystemen langwierig und aufwändig. Deswegen könne lediglich eine Auswahl von Forschungsprojekten realisiert werden.

Doch welche Wissenslücken müssen gefüllt werden, um sinnvolle Entscheidungen im Umwelt- und Artenschutz fällen zu können? Welche Forschungsprojekte sind am geeignetsten, um diese Lücken zu füllen? Und in welchen Fällen ist schon genug Wissen vorhanden, um erfolgsversprechende Maßnahmen in der Politik einzuleiten? „Unser Projekt soll dazu beitragen, zielführende Entscheidungen trotz Ungewissheit treffen zu können“, sagt Upmann. Dazu arbeiten Forschende sowohl mit den Methoden der Datenwissenschaft als auch der Modellierung. Durch die Datenwissenschaft können die Forschenden große Datenmengen automatisiert auswerten, während sie durch die Modellierung der Daten die chancenreichsten Maßnahmen zum Schutz der natürlichen Lebensräume und der Artenvielfalt ableiten können. „Auf diese Weise können wir zum Beispiel ermitteln, zu welchen gefährdeten Tierarten umfassend geforscht werden sollte.“

Handlungsempfehlungen für den Schutz der Arten
Thorsten Upmann forscht als Ökonom schon seit Jahren dazu, wie sich die Akteur*innen in einem Wirtschaftssystem regional oder überregional gegenseitig beeinflussen. „Auf die gleiche Art können wir auch modellieren, wie die Lebewesen in maritimen Regionen miteinander interagieren.“ So profitieren die Umweltwissenschaften von den Wirtschaftswissenschaften. In dem Projekt erstellen die Forschenden Modelle, mit denen sie etwa nachvollziehbar machen, wie Pflanzen- und Tierpopulationen in einem bestimmten Küstengebiet zusammenhängen. Aus solchen Modellen der marinen Biodiversität lassen sich Handlungsempfehlungen für den Schutz der jeweiligen Arten ableiten.

Das Projekt „Value of Information“ läuft von Januar 2021 bis Dezember 2023. Auf lange Sicht hoffen die beteiligten Wirtschafts- und Umweltwissenschaftler*innen, ihre Forschung zur marinen Biodiversität auch auf andere Bereiche des Naturschutzes und der Biodiversität ausweiten zu können. Mit dem Projekt startet eine langfristige Zusammenarbeit der Fakultät für Wirtschaftswissenschaften der Universität Bielefeld mit der Universität Oldenburg sowie dem Helmholtz-Instituts für Funktionelle Marine Biodiversität an der Universität Oldenburg (HIFMB). Die Kooperation soll die Stärken beider Partner verbinden: die Expertise der Bielefelder Forschenden in der Modellierung und den Datenwissenschaften mit der Expertise der Forschenden in Oldenburg in der Ökologie, dem Ökosystemmanagement und dem Schutz mariner Lebensräume.

Wissenschaftliche Ansprechpartner:
PD Dr. Thorsten Upmann, Universität Bielefeld
Fakultät für Wirtschaftswissenschaften
Telefon: 0521 106-4862
E-Mail: tupmann@wiwi.uni-bielefeld.de

Weitere Informationen:
https://www.uni-bielefeld.de/fakultaeten/wirtschaftswissenschaften/einrichtungen… Steckbrief des Projekts „Value of Information“

(nach oben)


Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit

Dr. Andreas Bohlen UP Transfer GmbH an der Universität Potsdam
Universität Potsdam
Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit.
Ergebnisse aus Potsdam unterstützen zuverlässigen Test auf SARS-CoV-2.

Am Forschungsstandort Potsdam Science Park in Golm haben die Wissenschaftler Frank Sellrie und Jörg Schenk von der Arbeitsgruppe Immuntechnologie der UP Transfer GmbH an der Universität Potsdam jetzt monoklonale Antikörper zum Nachweis des Coronavirus SARS-CoV-2 einsatzbereit.

Am Forschungsstandort Potsdam Science Park in Golm haben die Wissenschaftler Frank Sellrie und Jörg Schenk von der Arbeitsgruppe Immuntechnologie der UP Transfer GmbH an der Universität Potsdam jetzt monoklonale Antikörper zum Nachweis des Coronavirus SARS-CoV-2 einsatzbereit.

Seit gut einem halben Jahr arbeiten die Wissenschaftler Frank Sellrie und Jörg Schenk von der Arbeitsgruppe Immuntechnologie der UP Transfer GmbH an der Universität Potsdam an einem Projekt zur Generierung monoklonaler Antikörper gegen das Coronavirus SARS-CoV-2. In diesem vom Bundesministerium für Bildung und Forschung im Rahmen des Förderaufrufs zur Erforschung von COVID-19 geförderten Projekt können nun erste Ergebnisse präsentiert werden.

Der Bedarf an SARS-CoV-2 bindenden Antikörpern zum schnellen und sicheren Nachweis der Infektion ist noch immer sehr hoch. Die Wissenschaftler haben einige neue monoklonale Antikörper gegen das Capsidprotein (Hüllprotein) des Virus entwickelt, die inzwischen auch in einem industriellen Maßstab produziert werden können. Am Standort Potsdam-Golm wurde damit bereits ein einfacher Labortest aufgebaut, mit dem Corona-Viruspartikel nachgewiesen werden können.

Auf Basis dieser Daten entwickeln nun die Kooperationspartner der Firma ImmoGnost GmbH aus Göttingen Schnelltests, die in Zukunft auch für den Hausgebrauch einsetzbar sein sollen. Damit könnten dann Besucher und Personal in Pflegeeinrichtungen und Kliniken, Teilnehmer von Veranstaltungen oder Besucher in Kinos, Theatern oder Museen getestet werden oder sich selbst testen, um Ansteckungen mit großer Wahrscheinlichkeit auszuschließen. Durch die geschickte Auswahl des Zielproteins besteht auch keine Gefahr, dass Virusmutationen wie z.B. die Mutanten B.1.1.7. aus Großbritannien oder B1.351 aus Südafrika von den neuen Antikörpern übersehen werden.

Die Entwicklung monoklonaler Antikörper ist in der Regel ein langwieriger Prozess, der durch die Expertise der beiden Potsdamer Immunologen und die enge Zusammenarbeit mit dem Institut für Virologie der Charité beschleunigt werden konnte. So ist die Charakterisierung der Antikörper schon weit fortgeschritten und z.B. eine unerwünschte Kreuzreaktivität mit den bekannten endemischen Coronaviren ausgeschlossen. Projektleiter Frank Sellrie lobt ausdrücklich die Kooperation mit der Charité: „Die Kooperation funktioniert ausgezeichnet, immer wenn wir neue Antikörperkandidaten in der Pipeline hatten, wurden diese unverzüglich auf Realproben getestet und uns somit Entscheidungshilfen geliefert. So wünscht man sich eine vertrauensvolle Zusammenarbeit!“

Auch wissenschaftlich wird das Projekt weitergeführt, indem zusätzliche Informationen über die Antikörper erhoben werden. Hierbei werden die beiden Wissenschaftler durch Forschungsgruppen des Fraunhofer-Instituts für Zelltherapie und Immunologie, Institutsteil Bioanalytik und Bioprozesse (IZI-BB) unterstützt. Analysen zum Bindungsverhalten der Antikörper werden durch die Arbeitsgruppe „Biomolekulare Nanostrukturen und Messtechnik“ durchgeführt und somit wichtige Charakteristika der Moleküle bestimmt.

Sellrie und Schenk sind keine Unbekannten auf dem Gebiet der Antikörperforschung. Seit über 20 Jahren arbeiten sie an der Entwicklung neuer monoklonaler Antikörper und sind mit ihrer vor 10 Jahren gegründeten Firma Hybrotec GmbH auch im Diagnostik Netzwerk Berlin-Brandenburg gut in der Region vernetzt. „Wir freuen uns, neben den Testentwicklungen in der Umwelt- und Lebensmittelanalytik, auch wieder an einem so wichtigen Projekt der Humandiagnostik zu arbeiten“, ergänzt Jörg Schenk. „In der Infektionsdiagnostik waren wir in den letzten Jahren zu Hepatitis E und MERS-CoV, einem anderen Coronavirus, aktiv.“

Selbstverständlich stehen die Antikörper nun auch für weitere interessierte Kooperationspartner zur Verfügung.

Wissenschaftliche Ansprechpartner:
Dr. Frank Sellrie,
UP Transfer GmbH an der Universität Potsdam
Am Neuen Palais 10
14469 Potsdam
Tel.: +49 331 58187231
frank.sellrie@up-transfer.de

Weitere Informationen:
http://www.up-transfer.de

(nach oben)


Studie in Tansania: Traditionelle Ernährung verursacht weniger Entzündungen

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
In den Städten Afrikas ernähren sich die Menschen eher nach westlicher Art, während in ländlichen Gebieten eher eine traditionelle Ernährung üblich ist. Das hat Folgen: Tansanier, die in Städten leben, haben ein stärker aktiviertes Immunsystem im Vergleich zu ihren Mitmenschen auf dem Land. Ein internationales Forscherteam betont in einer aktuellen Studie, dass diese erhöhte Aktivität des Immunsystems zum raschen Anstieg der nicht übertragbaren Krankheiten in städtischen Gebieten in Afrika beitragen könnte. Erkenntnisse, aus denen auch die westliche Welt lernen könnte.

Tansanier, die in Städten leben, haben ein stärker aktiviertes Immunsystem im Vergleich zu ihren Mitmenschen auf dem Land. Eine Erklärung dafür scheint die unterschiedliche Ernährung zu sein: In den Städten ernähren sich die Menschen eher nach westlicher Art, während in ländlichen Gebieten eher eine traditionelle Ernährung üblich ist. Ein Team von Forschern des Radboud university medical center in den Niederlanden, des LIMES-Instituts der Universität Bonn, des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) und des Kilimanjaro Clinic Research Centers in Tansania betont in einer aktuellen Studie, dass diese erhöhte Aktivität des Immunsystems zum raschen Anstieg der nicht übertragbaren Krankheiten in städtischen Gebieten in Afrika beitragen könnte. Die Studie ist in der Fachzeitschrift Nature Immunology erschienen.

Die Untersuchung wurde unter mehr als 300 Tansaniern durchgeführt, von denen einige in der Stadt Moshi und einige auf dem Land leben. Das Team fand heraus, dass die Immunzellen der Teilnehmer aus Moshi mehr entzündliche Proteine produzierten. Die untersuchten Personen hatten keine gesundheitlichen Probleme und waren nicht krank, aber ein aktiviertes Immunsystem kann das Risiko für Zivilisationskrankheiten wie Herz-Kreislauf-Erkrankungen erhöhen.

Die Wissenschaftler nutzten neue Techniken, um die Funktion des Immunsystems und die Faktoren, die seine Aktivität beeinflussen, zu untersuchen. Sie sahen sich aktive RNA-Moleküle im Blut – das sogenannte Transkriptom – und die Zusammensetzung von Stoffwechselprodukten im Blut an.

Große Unterschiede in der Ernährung
Die Analysen zeigten, dass Stoffwechselprodukte aus der Nahrung einen Einfluss auf das Immunsystem haben. Teilnehmer aus ländlichen Gebieten hatten höhere Werte an Flavonoiden und anderen entzündungshemmenden Substanzen im Blut. Die traditionelle ländliche tansanische Ernährung, die reich an Vollkorn, Ballaststoffen, Obst und Gemüse ist, enthält hohe Mengen dieser Substanzen.

„Bei Menschen mit einer städtischen Ernährung, die mehr gesättigte Fette und verarbeitete Lebensmittel enthält, wurden erhöhte Werte von Metaboliten gefunden, die am Cholesterinstoffwechsel beteiligt sind“, sagt Prof. Dr. Mihai Netea, Forscher am LIMES-Institut und Exzellenzcluster ImmunoSensation2 der Universität Bonn und am Radboud university medical center in den Niederlanden. Er und seine Kollegen fanden auch eine saisonale Veränderung in der Aktivität des Immunsystems. In der Trockenzeit, die im Untersuchungsgebiet die Zeit der Ernte ist, hatten die Stadtbewohner ein weniger aktiviertes Immunsystem.

Westliche Länder können von den Ergebnissen lernen
Es ist schon länger bekannt, dass ein westlicher Lebensstil und westliche Ernährungsgewohnheiten zu chronischen Krankheiten führen. Prof. Dr. Joachim Schultze vom DZNE und LIMES-Institut unterstreicht: „Wir haben gezeigt, dass eine traditionelle tansanische Ernährung einen positiven Effekt auf Entzündungen und die Funktion des Immunsystems hat. Das ist wichtig, weil nicht nur in Tansania, sondern auch in anderen Teilen Afrikas eine rasante Verstädterung im Gange ist.“ Die Migration vom Land in die Stadt führe zu Veränderungen in der Ernährung und gehe mit einem rasanten Anstieg von Zivilisationskrankheiten einher, was die lokalen Gesundheitssysteme stark belastet. Die Forscher betonen, dass Prävention wichtig sei, und die Ernährung dabei eine wichtige Rolle spielen könne.

Darüber hinaus sind diese Erkenntnisse aus Afrika auch für westliche Länder relevant. Die Urbanisierung hat in den meisten westlichen Ländern schon vor langer Zeit stattgefunden. Durch die Untersuchung von Populationen in verschiedenen Stadien der Urbanisierung haben die Forscher daher einzigartige Möglichkeiten, ihr Verständnis darüber zu verbessern, wie Ernährung und Lebensstil das menschliche Immunsystem beeinflussen.

Beteiligte Institutionen und Förderung:
Die Studie wurde durch das EU-Rahmenprogramm „Horizon 2020“ über die sogenannte Joint Programming Initiative „A healthy diet for a healthy life“ (JPI-HDHL), den niederländischen Zuschussgeber ZonMw, die Deutsche Forschungsgemeinschaft und die Radboud University gefördert. Die Forschung ist Teil der TransMic-Studie, einem internationalen Projekt über die „Verwestlichung“ der Ernährung und ihre gesundheitlichen Folgen. In diesem Projekt arbeiten die Forscher des Radboud university medical center und des LIMES-Instituts der Universität Bonn mit Kollegen von Universitäten in Italien, Tansania und Burkina Faso zusammen, um die Auswirkungen der Ernährung auf das Immunsystem in verschiedenen Stadien des demografischen Übergangs und der Urbanisierung zu untersuchen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mihai G. Netea
LIMES-Institut der Universität Bonn, Radboud university medical center
Tel.: +31 243618819
E-Mail: Mihai.Netea@radboudumc.nl

Prof. Dr. Joachim L. Schultze
Deutsches Zentrum für Neurogenerative Erkrankungen; LIMES-Institut der Universität Bonn
Tel.: +49 228 43302-410
E-Mail: joachim.schultze@dzne.de

Originalpublikation:
Godfrey S. Temba, Vesla Kullaya, Tal Pecht, Blandina T. Mmbaga, Anna C. Aschenbrenner, Thomas Ulas, Gibson Kibiki, Furaha Lyamuya, Collins K. Boahen, Vinod Kumar, Leo A.B. Joosten, Joachim L. Schultze, Andre J. van der Ven, Mihai G. Netea, Quirijn de Mast: Urban living in healthy Tanzanians is associated with an inflammatory status driven by dietary and metabolic changes. Nature Immunology, DOI: 10.1038/s41590-021-00867-8

Weitere Informationen:
https://www.nature.com/articles/s41590-021-00867-8 Original publication in Nature Immunology

(nach oben)


ACHEMA Pulse – das neue digitale Flagschiff für die Prozessindustrie setzt Segel

Marina Korogodska Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
Die ACHEMA Pulse am 15. und 16. Juni 2021 ist die Premiere für ein brandneues Veranstaltungsformat. Hauptziel der weltweiten virtuellen Live-Veranstaltung ist es, Menschen, Ideen und Technologien zusammenzubringen, um Möglichkeiten der Zusammenarbeit zu erkunden und neue Kontakte zu knüpfen. Ein starker Fokus liegt dabei auf innovativen Matchmaking-Gelegenheiten.

Neue Geschäftskontakte zu knüpfen und aktuelle Entwicklungen mit Industrieexperten aus aller Welt zu diskutieren, wurde in den letzten Monaten schmerzlich vermisst. Die ACHEMA Pulse ist ein neues digitales Format, das ACHEMA und AchemAsia ergänzt und sich an die globale Prozessindustrie richtet. Die zweitägige Veranstaltung bietet das, was Industrieexperten und Entscheidungsträger suchen: Inspirierende Vorträge und Diskussionsrunden, die von Live-Bühnen aus Frankfurt übertragen werden; außerdem ein kompaktes Kongressprogramm, das Trends und Entwicklungen aus allen Bereichen der chemischen und pharmazeutischen Industrie umfassst. Aussteller präsentieren ihre Technologien und Lösungen auf der digitalen Plattform, ergänzt um Videos, Vorträge und Workshops. Das Algorithmen-gestützte Matchmaking ermöglicht den Teilnehmern sowohl, gezielt Experten anzusprechen und zu treffen als auch neue Kontakte auf Basis ihres Profils zu knüpfen. Dank integrierter Kommunikationswerkzeuge lassen sich gemeinsame Interessen einfach, bequem und schnell eruieren. Die Organisatoren möchten mit der ACHEMA Pulse das interaktivste Digital-Event schaffen, das die Prozessindustrie bisher erlebt hat.

Der Geschäftsführer der DECHEMA Ausstellungs-GmbH Dr. Thomas Scheuring ist optimistisch, dass die ACHEMA Pulse einen wertvollen Beitrag zum diesjährigen digitalen Veranstaltungskalender darstellt: „Die ACHEMA Pulse wird getreu dem ganz speziellen Charakter der ACHEMA den treibenden Kräften und Impulsgebern der weltweiten Prozessindustrie innovative Ideen und ein sehr breites Technologie- und Dienstleistungsspektrum vorstellen.“ ACHEMA Pulse ist dank der großen Erfahrung der Organisatoren auf die virtuelle Umgebung zugeschnitten. Der stellvertretende Geschäftsführer und Verantwortliche für die ACHEMA Pulse Dr. Björn Mathes ergänzt: „Die Pulse-Plattform geht weit über die üblichen Limitierungen digitaler Messen hinaus. Unser Ziel ist es, eine einzigartige Lern- und Networking-Umgebung zu schaffen, auf der man gerne und einfach Geschäftsbeziehungen knüpfen kann.“ ACHEMA Pulse setzt besonders auf die Stärken eines Online-Formats. Die zeitlichen Abläufe sind so gestaltet, dass hochrangige Sprecher aus aller Welt ebenso dabei sein können wir ein globales Publikum.

Ungewöhnliche Ansätze sind dabei ausdrücklich willkommen, besonders in den Sessions, die der Innovation gewidmet sind. Dazu gehören das Finale der ACHEMA Innovation Challenge, aber auch die Vorstellung der Finalisten des ACHEMA Gründerpreises.
Die Plattform und ihre Möglichkeiten werden in den nächsten Wochen in mehreren Webcasts vorgestellt. „Eine Woche nach dem offiziellen Auftakt sieht es so aus, als seien wir auf einem guten Weg“, sagt Andreas Konert, Leiter Business Development und Vertrieb.“Die ersten Rückmeldungen von Ausstellern sind sehr ermutigend, und die Plätze in den Informationswebinaren für interessierte Aussteller füllen sich schnell.“
Alle Informationen zu Daten, Anmeldung und sonstigen Fragen unter www.achema.de

Weitere Informationen:
http://www.achema.de

(nach oben)


Wie beeinträchtigt der Biokraftstoff E10 Filtersysteme im Auto?

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Seit rund zehn Jahren können Autofahrer den Biokraftstoff E10 tanken. In ihm sind circa 5 bis 10 Prozent Bioethanol enthalten. Dieser teilweise Ersatz fossiler Kraftstoffe durch Bioethanol verändert die Verhältnisse für die Kraftstoffdampfrückhaltesysteme (KDRS) in den Autos. Welchen Einfluss dies genau hat, untersuchten Forscher*innen des Fraunhofer UMSICHT und der Universität Siegen. Ein wichtiges Ergebnis lautet: Langfristig reduziert E10 die Funktionstüchtigkeit der Filter. Somit müssen diese über den Lebenszyklus eines Fahrzeugs hinweg kontinuierlich überwacht werden.

Für Kraftfahrzeuge mit Ottomotor sind Aktivkohlefilter (sog. Kraftstoffdampfrückhalte-systeme/KDRS) gesetzlich vorgeschrieben, um Benzindämpfe, die beim Stillstand oder während des Betriebes eines Fahrzeugs aus dem Tank entweichen, aufzufangen und in den Motor zu leiten. Die Funktionsweise der Aktivkohlefilter lässt sich vereinfacht in zwei Prozesse unterteilen: Beim Stillstand des Motors verdampft der Kraftstoff und wird mittels Adsorption an der Aktivkohle angelagert, Emissionen werden somit reduziert. Beim laufenden Motor wird die Umgebungsluft vom Motor angesaugt und über die Aktivkohle geführt. Dadurch werden die Kraftstoffkomponenten wieder freigesetzt – Desorption – und dem Motor zugeführt und dort verbrannt.

KDRS-Testanlage beim Fraunhofer UMSICHT
Im Rahmen des Kooperationsprojektes des Fraunhofer UMSICHT und der Universität Siegen wurde eine Anlage (genaue Beschreibung des Aufbaus siehe Fachartikel) entwickelt, mit der das Adsorptionsverhalten der Aktivkohle über viele Zyklen – bestehend aus Ad- und Desorption – messtechnisch begleitet werden kann. Ein Ausschuss aus Automobil-, Aktivkohle-, Aktivkohlefilter-, Bioethanol-Herstellern und Analyselabors begleitete das Projekt.

»Diese Anlage ermöglicht es nun, entsprechend der ‚Lebensdauer‘ eines PKW bis zu 300 Zyklen an kontrolliert konditionierten Aktivkohlen zu untersuchen. Wir analysierten insbesondere den Einfluss von Wasser in der Spül- bzw. Umgebungsluft auf den Filter. Dabei setzten wir einfaches ‚Modell-Benzin‘ (n-Pentan mit einem 10-prozentigen Ethanol-Anteil) ein«, erläutert Eva Schieferstein, Projektleiterin des Fraunhofer UMSICHT.

Regelmäßige Untersuchungen der Filter erforderlich
Derzeit werden KDRS im Rahmen der gesetzlichen Vorschriften mit Modellbenzinen (u.a. E10) bei einer relativen Luftfeuchtigkeit von 50 plus/minus 10 Prozent getestet. Dieser Test wird bisher nur einmalig vor dem Einbau der Systeme durchgeführt. Im Rahmen des Projektes haben vergleichende Versuche ergeben, dass ein Zusatz von Ethanol zu Benzin (hier: E10) in Gegenwart von höheren, realitätsnäheren Luftfeuchtigkeitswerten das Langfrist-Adsorptionsverhaltens der Aktivkohle verschlechtert. Bei steigender Zyklenzahl bzw. zunehmender Einsatzdauer des KDRS nimmt daher dessen Kapazität deutlich ab.

Dieser Effekt kann ohne Ethanol-Zusatz nicht in demselben Maße beobachtet werden. Somit besteht also die Gefahr, dass Biokraftstoff mehr Emissionen verursacht, wenn die Aktivkohlefilter nach langfristigem Einsatz nicht mehr ausreichend adsorbieren. Mit dem zurzeit für KDR-Systeme vorgeschriebenen Prüfverfahren werden deutlich längere Lebensdauern erreicht, da sie den Einfluss der Luftfeuchtigkeit auf das Abscheideverhalten der Aktivkohle nicht realitätsnah abbilden. Dies steht im Einklang mit Untersuchungen des TÜV Nord und des schwedischen TÜV, die gezeigt haben, dass es nach langfristigem Einsatz der Kraftstoffdampfrückhaltesysteme (KDRS) mit Biokraftstoffen vermehrt zu Ausfällen kommen kann.

Das Forschungsteam empfiehlt nun dringend, die Funktionstüchtigkeit der Aktivkohlefilter – beispielsweise im Rahmen der TÜV-Untersuchungen – regelmäßig zu untersuchen. Wichtig wäre zudem, im Prüfprozess die Rahmenbedingungen anzupassen und die relative Feuchtigkeit der Spülluft zu erhöhen. Die Testanlage des Fraunhofer UMSICHT steht nach Projektabschluss auch für externe Untersuchungen zur Verfügung.

Förderhinweis
Das Projekt wurde vom Bundesministerium für Ernährung und Landwirtschaft (BMEL), vertreten durch die Fachagentur Nachwachsende Rohstoffe e.V. (FNR), unter den Förderkennzeichen 22403015 und 22403115 gefördert.

Wissenschaftliche Ansprechpartner:
Eva Schieferstein
eva.schieferstein@umsicht.fraunhofer.de

Weitere Informationen:
https://doi.org/10.1515/teme-2019-0119 Fachartikel
https://www.umsicht.fraunhofer.de/de/kompetenzen/produktentwicklung.html Abteilung Produktentwicklung

(nach oben)


Mit KI den Parkdruck auf der Straße messen

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Wie viele Autos sind auf der Straße geparkt? Reicht der Platz für alle Autos, die dort abgestellt werden, oder wäre es sinnvoll, eine Bewohner-Parkzone einzurichten? Um diese Frage zu beantworten, muss die Kommune viel Zeit in manuelle Zählungen und Beobachtungen vor Ort investieren. In Kooperation mit der Stadt Karlsruhe untersucht das Fraunhofer IAO, wie man mit KI den Parkdruck messen und gestalten kann.

Die Anzahl von parkenden PKWs in Städten steigt und dies hat Auswirkungen auf den öffentlichen Raum. Die Parksituation kann sowohl in Innenstädten wie auch in ruhigeren Wohngebieten für die Bewohner*innen unüberschaubar werden: Immer mehr Fahrzeuge werden auf der Straße abgestellt und es kostet oft Zeit und Nerven, einen Parkplatz zu finden. In solchen Fällen kann die Kommune z.B. Bewohnerparken anordnen, muss dafür aber den Parkdruck durch Gutachten und Parkraumerhebungen nachweisen. Um Aufwand und Kosten in diesem Prozess zu reduzieren, startete das Forschungs- und Innovationszentrum Kognitive Dienstleistungssysteme (KODIS) des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO mit Unterstützung der Stadt Karlsruhe ein Pilotprojekt zur KI-gestützten Analyse des Parkdrucks.

Ein vielversprechendes Tandem aus Drohnen und KI
Bereits die ersten Phasen in der Parkdruckmessung werden erheblich optimiert: Die aufwändige manuelle Datenerfassung wird durch Videoaufnahmen per Drohne ersetzt. Während des Flugs werden mehrere Kamerabilder erstellt, aus denen die Gesamtübersicht des Testgebiets entsteht.
Im nächsten Schritt erfolgt eine Optimierung in der Auswertung der Daten: Statt die Daten mühsam manuell zu analysieren, wird KI eingesetzt. Hierfür wird ein Deep Learning-Algorithmus entwickelt und ein künstliches neuronales Netz trainiert, um alle Fahrzeuge auf den Bildern finden und pixelgenau lokalisieren zu können. Damit der Algorithmus abgestellte Fahrzeuge von fahrenden Autos unterscheiden kann, wird das Testgebiet in bestimmte Parkzonen aufgeteilt und diese mit Geodaten verknüpft. Die KI analysiert nur Bildinhalte in diesem Bereich und markiert anschließend die dort abgestellten Fahrzeuge. Als Ergebnis wird die Anzahl von abgestellten Fahrzeugen zu jeweiligem Zeitpunkt ausgegeben und die Daten über die Auslastung von jeder Parkzone werden berechnet.

Von KI auch im öffentlichen Leben profitieren
Der Einsatz von KI im industriellen Umfeld ist mittlerweile weit verbreitet und allgemein akzeptiert. Die Parkdruckanalyse mit KI ist ein schönes Beispiel dafür, dass Künstliche Intelligenz (KI) auch für Kommunen einen großen Nutzen bringen kann: Dank dem entwickelten Algorithmus kann die Auslastung von Stellplätzen automatisch ausgewertet werden. So werden Zeit und Kosten der manuellen Datenerhebung erheblich reduziert und Parkprobleme in ausgewählten Stadtgebieten können dementsprechend schneller gelöst werden.

Perspektivisch möchte das Fraunhofer IAO die KI-gestützte Parkdruckanalyse als digitalen Cloud-Service für Kommunen anbieten. »Mit unserer automatisierten Analyse von Luftbildern werden Kommunen einen raschen und kostengünstigen Überblick über das Straßenparkverhalten im gesamten Stadtgebiet erhalten«, sagt Dr. Bernd Bienzeisler, Leiter des Forschungs- und Innovationszentrums Kognitive Dienstleistungssysteme am Fraunhofer IAO.

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/mit-ki-den-parkdruc…

(nach oben)


MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich

Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH
Ergänzung vom 27.01.2021
Dass Fachleute in der Corona-Krise eine so starke Rolle spielen und ihre Expertise von der Politik so intensiv nachgefragt wird, hat viel mit der Struktur des Erkenntnisprozesses zu tun: Die Forschungssynthese, die Ergebnisse aus Einzelstudien zusammenträgt, bewertet, resümiert und für Politikberatung verfügbar macht, ist in den Gesundheitswissenschaften besonders gut organisiert; eine Schlüsselrolle spielt hier das 1993 gegründete globale Wissensnetzwerk Cochrane mit Sitz in London. Dieses Erfolgsmodell soll jetzt vom Gesundheitsbereich auf den Bereich der Klimapolitik-Beratung übertragen werden.

Ein Motor dieser Modernisierung ist das Berliner Klimaforschungsinstitut MCC (Mercator Research Institute on Global Commons and Climate Change). „Im Kampf gegen die Klimakrise ist es enorm wichtig, dass sich die Politik auf optimal aufbereitetes Wissen zu Handlungsoptionen stützen kann“, sagt Jan Minx, Leiter der MCC-Arbeitsgruppe Angewandte Nachhaltigkeitsforschung. „Politikberatung sollte so wenig wie möglich auf Basis von Einzelstudien erfolgen – sondern auf Basis von gesicherten Einsichten aus mehreren, unabhängig voneinander erstellten Studien. Wie in der Primärforschung hängt auch bei Forschungssynthese viel an der Nutzung und Weiterentwicklung von leistungsfähigen Methoden. Diesen Prozess wollen wir jetzt für das Feld der Klimapolitik-Lösungen mit der Gründung eines neuen internationalen Netzwerks unter dem Dach der Campbell Collaboration unterstützen.“

Die Campbell Collaboration mit dem Hauptstandort Oslo organisiert die Forschungssynthese im Bereich der Sozialwissenschaften. Minx ist nun Co-Vorsitzender der „Campbell Climate Solutions Coordinating Group“, die sich im vergangenen Jahr formal konstituierte und jetzt ihre Arbeit aufnimmt. Schon länger gibt es Campbell-Koordinierungsgruppen etwa zu Unternehmensführung, Bildung und Kriminalitätsbekämpfung; eine Liste mit 50 frei verfügbaren Forschungssynthesen, die angesichts der Corona-Pandemie für Entscheidungen im Sozialwesen relevant sind, findet sich hier. Die neue Gruppe zu Klimalösungen wird in erster Linie Orientierung schaffen durch die internationale Koordination relevanter Metastudien. Zudem wird sie wissenschaftliche Symposien organisieren und erstmals einen formalen Rahmen für globalen fachlichen Austausch bieten.

„Mit der Errichtung eines solchen Netzwerks wollen wir den Stand der Forschung zu Klima-Lösungen beleuchten“, erklärt Neal Haddaway, Senior Researcher am MCC und ebenfalls Co-Vorsitzender der neuen Gruppe. „Viele Akteure werden davon profitieren, wenn wir sozusagen Landkarten des Forschungswissens erstellen – und dadurch auch Wissenslücken besser erkennbar machen. Zum Beispiel brauchen wir noch besser gesicherte Einsichten darüber, wie gut verschiedene Instrumente der Klimapolitik unter unterschiedlichen ökologischen, sozialen und politischen Rahmenbedingungen jeweils funktionieren.“

Die Literatur zur Klimaforschung wächst rasant, mit aktuell mehreren Zehntausend Studien pro Jahr. Für das MCC als wissenschaftlichen Thinktank ist die Kompetenz zu Forschungssynthese ein zentraler Baustein, wenn es darum geht, der Politik evidenzbasiert Handlungsoptionen aufzuzeigen. Das wird ergänzt durch die ausgeprägte Kompetenz zur wissenschaftlichen Bewertung von konkreten Maßnahmen der Vergangenheit (im Policy Evaluation Lab), und von der Policy Unit wird die Schnittstelle des Instituts zu Politik und Gesellschaft konzeptionell und inhaltlich gestaltet.

Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/minx-jan.html

Originalpublikation:
• Leitartikel zur Gründung der Campbell Climate Solutions Coordinating Group (CSSG):
Berrang-Ford, L., Döbbe, F., Garside, R., Haddaway, N., Lamb, W., Minx, C., Viechtbauer, W., Welch, V., White, H., Editorial: Evidence synthesis for accelerated learning on climate solutions, 2021, Campbell Systematic Reviews
https://doi.org/10.1002/cl2.1128
• Website der CSCG:
https://campbellcollaboration.org/contact/coordinating-groups/climate-solutions….

Weitere Informationen:
https://www.mcc-berlin.net/
https://www.mcc-berlin.net/forschung/policy-evaluation-lab.html
https://www.mcc-berlin.net/politik-dialog/policy-analysis-unit.html

Anhang
MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich

Ergänzung vom 27.01.2021
Die in der PM erwähnte Liste mit 50 frei verfügbaren Campbell-Forschungssynthesen, die angesichts der Corona-Pandemie für Entscheidungen im Sozialwesen relevant sind, findet sich hier: https://onlinelibrary.wiley.com/doi/toc/10.1002/1891-1803.covid-19-reviews

(nach oben)


Wie beeinflusst die Pandemie unser Denken und Fühlen?

Stefan Zorn Stabsstelle Kommunikation
Medizinische Hochschule Hannover
MHH-Forschungsgruppe will mit zweiter deutschlandweiter Corona-Umfrage die Auswirkungen des Lockdowns erfassen

Die Corona-Pandemie dauert an und mit ihr die immer stärkeren Einschränkungen in Berufs- und Privatleben. Bereits zu Beginn der ersten Infektionswelle im vergangenen Jahr haben Wissenschaftlerinnen und Wissenschaftler des Zentrums für Seelische Gesundheit der Medizinischen Hochschule Hannover (MHH) eine der ersten und größten Umfragen zu den Auswirkungen der Krise auf die Psyche erstellt. Dabei konnten sie zeigen, dass das Auftreten der Corona-Pandemie und die zu ihrer Eindämmung getroffenen Maßnahmen vermehrt zu Stress, Angst, depressiven Symptomen, Schlafproblemen, Reizbarkeit, Aggression und häuslicher Gewalt führten. Nun geht die webbasierte Studie in eine zweite Erhebungsphase. Neben dem psychischen Befinden nehmen die Wissenschaftler jetzt verstärkt auch die persönliche Haltung der Menschen in Deutschland in den Blick.

Schwindende Akzeptanz erwartet
„Wir möchten wissen, wie es den Bürgerinnen und Bürgern dieses Landes geht und was sie bewegt“, sagt Professor Dr. Tillmann Krüger, Leiter der Studie. „Außerdem geht es uns darum, die individuellen Hintergründe und Positionen der Menschen in Bezug auf die Pandemie und die getroffenen Maßnahmen zu erfassen.“ Dies sei eine Möglichkeit, die unterschiedlichen Reaktionen besser zu verstehen. Die Wissenschaftler erwarten eine anhaltende psychosoziale Belastung und – abhängig von der individuellen Situation – eine schwindende Akzeptanz der Anordnungen, die den Alltag der Bürger einschneidend verändert haben. Noch in der ersten Erhebung im April vergangenen Jahres gaben 60 Prozent der mehr als 3500 Teilnehmenden an, sehr gut oder gut mit der veränderten Situation und den entsprechenden Maßnahmen klarzukommen. Knapp ein Drittel der Befragten hingegen erklärten, schlecht oder sehr schlecht mit der Situation umgehen zu können. Dabei wiesen Frauen signifikant höhere Depressions- und Angstwerte auf als Männer.

Wie schon die erste Erhebung, beinhaltet auch die aktuelle Umfrage unterschiedliche Fragen zu aktuellem Befinden, Erleben und der jeweiligen Lebenssituation. Die webbasierte systematische Erfassung erfolgt anonym mit Hilfe von Selbstbeurteilungsskalen. Alle Bürgerinnen und Bürger ab 18 Jahren sind unter folgendem Link eingeladen, an der Erhebung teilzunehmen: https://ww2.unipark.de/uc/mhh_covid2021.

Weitere Informationen erhalten Sie bei Professor Dr. Tillmann Krüger, krueger.tillmann@mh-hannover.de, Telefon (0511) 532-3171.

Die Originalarbeit zur ersten Studie „Mental Health, Sense of Coherence, and Interpersonal Violence During the COVID-19 Pandemic Lockdown in Germany” finden Sie unter: https://www.mdpi.com/2077-0383/9/11/3708

Informationen zu den Ergebnissen einer ersten Auswertung der bisher erhobenen Daten finden Sie unter https://corona.mhh.de/corona-news-aus-der-mhh#c22157

(nach oben)


CO2 ist nicht alles: Klimapolitik braucht stärkeren Fokus auf kurzlebige Schadstoffe

Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Bei der Begrenzung des Klimawandels geht nicht nur um CO2. Auch die sogenannten kurzlebigen klimawirksamen Schadstoffe wie Ruß, Methan und bodennahes Ozon haben einen erheblichen Einfluss. Um sie stärker zu regulieren, ist eine bessere Kommunikation über ihre Auswirkungen notwendig.

In der Klimapolitik ist es üblich, alle wärmenden Schadstoffe zusammenzufassen und ihre Gesamtwirkung in Form von CO2-Äquivalenten auszudrücken. Die „Äquivalenz“ basiert dabei auf dem Vergleich der Klimawirkung auf einer 100-Jahres-Zeitskala. Das ist problematisch, wie IASS-Wissenschaftlerin Kathleen Mar in einem neuen Forschungsartikel erläutert: „Tatsächlich sind Klimatreiber nicht einfach ‚äquivalent‘ – ihre Auswirkungen auf das Klima und die Ökosysteme unterscheiden sich. Kurzlebige klimawirksame Schadstoffe haben einen großen Einfluss auf kurzfristige Klimaänderungen, während CO2 das langfristige Klima stärker beeinflusst.“ Die 100-Jahres-Skala führe dazu, dass die Wirkungen der kurzfristigen klimawirksamen Schadstoffe (SLCPs) unterschätzt werden – und in der Folge auch die positiven Auswirkungen ihrer Reduzierung.

Reduzierung von SLCPS bringt Vorteile für Klima, Gesundheit und Ernte
Eine der schädlichsten Eigenschaften von CO2 ist, dass es sich langfristig in der Atmosphäre anreichert. SLCPS haben im Vergleich zu CO2 nur eine kurze Verweildauer. Auf eine Reduzierung reagieren die Atmosphäre und das Klimasystem daher viel schneller.

Aus politischer Sicht sei das ein Vorteil, argumentiert Mar: „Die kurzfristige Klimaerwärmung wird verlangsamt, die Luftverschmutzung reduziert, die Ernteerträge verbessern sich – das sind positive Auswirkungen, die die Bürgerinnen und Bürger heute und in naher Zukunft erfahren können.“ Es gebe auch Hinweise, dass eine rasche Reduzierung der SLCP-Emissionen das Risiko verringere, an kritische Schwellen im Klimasystem zu gelangen – die so genannten Kipppunkte, die zu unumkehrbaren Veränderungen führen. Engagiertes Handeln würde also auch mehr Zeit für Anpassungsmaßnahmen an den Klimawandel gewähren.

Technologien und Praktiken zur Reduzierung von SLCP-Emissionen gibt es bereits, viele sind auch wirtschaftlich, zum Beispiel die Verwertung von Deponiegas zur Energiegewinnung. Um SLCPs weiter zu reduzieren, müssten sich aber auch andere Sektoren umstellen. Die Landwirtschaft und die Abfallwirtschaft müssen ihre Methan- und Rußemissionen reduzieren, die Industrie ihre Verwendung von Fluorkohlenwasserstoffen (HFKWs) als Kältemittel.

Wirksamer Klimaschutz darf SLCPS nicht ignorieren
Als Grundlage für eine engagiertere SLCP-Politik sieht Mar eine klare Kommunikation über die unterschiedlichen Zeithorizonte, die für die CO2- und SLCP-Minderung relevant sind: „Um die Folgen des Klimawandels abzumildern, müssen wir sowohl die kurzfristigen als auch die langfristigen Klimaauswirkungen minimieren. Die Vorteile der Reduzierung von kurzfristigen klimawirksamen Schadstoffen werden aber einfach nicht erfasst, wenn man die 100-Jahre-Zeitskala als einzigen Maßstab für die Bewertung der Klimaauswirkungen verwendet.“

Mehrere Länder haben die Vorteile der SLCP-Reduzierung erkannt und sie zu einem zentralen Element ihrer nationalen Klimastrategien gemacht. Einige, zum Beispiel Chile, Mexiko und Nigeria, haben SLCPs bereits in ihre nationalen Verpflichtungen unter dem Pariser Abkommen aufgenommen. Wenn weitere Regierungen diesem ganzheitlichen Ansatz des Klimaschutzes folgen, so Mar, werde dies ein Gewinn nicht nur für das Klima, sondern auch für Luftqualität, Gesundheit und nachhaltige Entwicklung insgesamt sein.

Wissenschaftliche Ansprechpartner:
Dr. Kathleen Mar
Kathleen.Mar@iass-potsdam.de

Originalpublikation:
Kathleen A. Mar, Putting the brakes on climate change – it’s about more than just CO2, Climanosco Research Articles 3, 14 Jan 2021, https://doi.org/10.37207/CRA.3.1

(nach oben)


Plastik in der Umwelt finden und vermeiden

Alexander Knebel Presse- und Öffentlichkeitsarbeit
Zuse-Gemeinschaft
In der Corona-Krise zeigen Kunststoffe ihren Mehrwert und zugleich auf den Handlungsbedarf beim Kampf gegen Umweltverschmutzung. Denn während Kunststoffe z.B. in Medizinprodukten oder Lebensmittelverpackungen der Gesundheit dienen, werden sie falsch entsorgt als Makro- und Mikroplastik zur Gefahr. Forschende aus der Zuse-Gemeinschaft beschreiten mit innovativen Monitoring- und Analysetools neue Wege bei der Erfassung und Bestimmung solcher Stoffe. Teil 1 unserer Serie zur Vermeidung von Plastik in der Umwelt fokussiert auf großes Mikro- und auf Makroplastik.

Welch große Verantwortung sowohl Verbraucher als auch Handel und Industrie tragen, damit weniger Kunststoff in die Umwelt gelangt, zeigt das aktuelle, vom Bundesforschungsministerium geförderte Projekt InRePlast. In dem Verbundprojekt hat das Forschungsinstitut für Wasser- und Abfallwirtschaft (FiW) in vier Gemeinden im Raum Aachen, vom Dorf bis zur Großstadt, Plastikreste systematisch gesammelt, katalogisiert und klassifiziert. Die Forschenden erfassten Partikel aus großem Mikroplastik (1-5 mm) ebenso wie Makroplastik mit noch sichtbarem ebenso wie mit nicht mehr erkennbarem Produktursprung. „Nach einjähriger Arbeit mit einem Stab von acht Forschenden haben wir rund 165 verschiedene Produkte und Vor-Produkte aus Makro- und großem Mikroplastik im Abwasser identifiziert“, erklärt FiW-Projektleiter Dr. Marco Breitbarth. Untersuchungsorte waren die Kläranlagen der Gemeinden, aber auch Niederschlagsabläufe auf Verkehrswegen. Von den Straßen bringt Niederschlagswasser Fremdstoffe häufig in Gewässer.

In den Kläranlagen überall unter den „Top5“ bei den Kunststoffprodukten zu finden: Zigarettenfilter. Ihr Anteil am vom FiW erfassten Mikro- und Makroplastik reichte dort je nach Standort von 9 bis 28 Prozent. Eine weitere Problemkategorie sind Bestandteile von Hygieneartikeln. Tampon- und Bindenverpackung ebenso wie Wattestäbchen waren an allen vier Kläranlagen unter den „Top20“ der gefundenen und katalogisierten Kunststoffprodukte. Bei den Verbundmaterialien wie auch insgesamt nahm die Kategorie Feucht-/Desinfektionstücher/Küchenpapier die traurige Spitzenposition ein.

Was die Kläranlage nicht stoppt
„All diese Dinge gehören nicht in die Toilette, zumal je nach Wetterlage erhebliche Mengen Schmutzwasser aus der Kanalisation zuweilen nicht in die Klärwerke gelangen. Bei Starkregen werden z.B. häufig Abwasserströme in Überlaufbecken gelenkt, die bei Überschreitung der Kapazitätsgrenzen ungeklärtes Abwasser in die Gewässer einleiten – so dass achtlos weggeworfene Verpackungen und Kunststoffprodukte zum großen Umweltproblem geworden sind“, warnt Breitbarth. Laut Schätzungen des Umweltbundesamtes (UBA) erreichen die nicht in Klärwerken behandelten Abschläge aus der Mischkanalisation in Deutschland jährlich ein Volumen von rd. 1,3 Mrd. Kubikmeter (cbm), während sich die ebenfalls nicht von Klärwerken erfasste Einleitung von Niederschlagswasser auf eine Menge von knapp 4 Mrd. cbm beläuft. Die hingegen in Kläranlagen erfasste Abwassermenge erreicht rd. 9,9 Mrd cbm.

Verhaltensänderung nicht nur bei Verbrauchern notwendig
Nicht nur die Verbraucher müssen ihr Verhalten ändern, wie die Zwischenergebnisse des bis Ende 2021 zusammen mit Verbundpartnern laufenden Projekts deutlich machen. So waren Kügelchen aus der Kunststoffindustrie, so genannte Pellets, an drei der vier Klärwerks-Standorte des Projekts unter den „Top 10“ der vom FiW gefundenen Produkte. Auch an Straßenrändern fanden die Forschenden laut Breitbarth immer wieder Kunststoff-Pellets, die genaue Auswertung steht noch bevor. „Zwar hat die Kunststoffindustrie immer wieder Info-Kampagnen zur Vermeidung von Produktausträgen aufgelegt, doch müssen die Gefahren offenbar noch deutlicher gemacht werden. Angesichts von rund 3.000 klassischen Kunststoffverarbeitern in Deutschland und vielen weiteren Unternehmen, die Kunststoffe nutzen, ist das eine zentrale Aufgabe“, betont der Forscher des FiW, einem Mitglied der Zuse-Gemeinschaft. Eine weitere wichtige Zielbranche zur Vermeidung von Kunststoffeinträgen in die Umwelt ist für ihn die Baubranche, die u.a. beim Umgang mit Dämmmaterialien an Häusern besonders umsichtig sein muss, so bei der Verwendung von Styropor. Bei InRePlast geht es nach der Umwelt-Analyse nun im letzten Projektabschnitt an die Formulierung von Handlungsempfehlungen, u.a. für Kommunen.

Weitere Informationen:
https://www.zuse-gemeinschaft.de/presse/pressemitteilungen

Anhang
PM der Zuse-Gemeinschaft: Mikroplastik finden und vermeiden

(nach oben)


Folgen des Klimawandels an der Küste

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
Forschungsergebnisse aus dem BMVI-Expertennetzwerk zum Einfluss
des Klimawandels auf Seeschifffahrtstraßen – Durch den Klimawandel werden sich äußere Einflüsse auf den Betrieb und die Unterhaltung der Seehafenzufahrten und Seehäfen, wie zum Beispiel der Meeresspiegel oder der binnenseitige Abfluss, ändern. Für strategische und langfristige Investitionsentscheidungen hinsichtlich der Wasserstraßen- und Hafeninfrastruktur entstehen dadurch wichtige Fragen.

Wie werden sich Meeresspiegelanstieg, Abflussänderung und andere klimawandelbedingte Veränderungen auf die Seehäfen auswirken? Kann die Sicherheit und Leichtigkeit des Schiffsverkehrs sowie die Erreichbarkeit der Häfen in Zukunft gewährleistet werden? Welche Anpassungsmaßnahmen sind gegebenenfalls notwendig und nachhaltig?

Auch im Hinblick auf die Umweltverträglichkeitsprüfung geplanter Maßnahmen an den Bundeswasserstraßen ist die Forschung zu Fragen des Klimawandels bedeutend. Im Rahmen der Umweltverträglichkeitsprüfung muss sowohl die Widerstandsfähigkeit des geplanten Vorhabens gegenüber den Folgen des Klimawandels als auch die Rückwirkungen des Vorhabens auf das Klima auf Basis wissenschaftlicher Erkenntnisse untersucht werden. Diese Fragestellungen können nur in interdisziplinärer Zusammenarbeit beantwortet werden. Hierfür bietet das behördenübergreifend angelegte BMVI-Expertennetzwerk die geeigneten Strukturen.

Zum Hintergrund: Internationale Seehäfen, wie zum Beispiel der Hamburger Hafen, bilden wichtige Knotenpunkte in der Verkehrsinfrastruktur. Von hier werden Güter in die ganze Welt verschifft bzw. ankommende Güter auf Schiene, Straße und Wasserstraße weitertransportiert. Die Häfen sind in vielen Fällen über Flüsse mit dem Meer verbunden. Von der Nordsee kommend erfolgt z. B. die Zufahrt zum Hamburger Hafen entlang des Elbeästuars . Als Folge des Klimawandels sind gravierende Auswirkungen sowohl auf die verkehrliche Nutzung der Ästuare als auch auf den Naturraum zu erwarten.

Im Rahmen des BMVI-Expertennetzwerks werden bei der Bundesanstalt für Wasserbau (BAW) mithilfe eines hochaufgelösten dreidimensionalen numerischen Modells der Deutschen Bucht und der Ästuare von Ems, Jade-Weser und Elbe komplexe Prozesse wie die Tidedynamik sowie der Transport von Salz, Wärme und Sediment für heutige und mögliche zukünftige Verhältnisse simuliert. Die bisherigen Untersuchungen haben gezeigt, dass eine hohe Auflösung der küstennahen Topographie im Modell für die Abschätzung der Auswirkungen des Meeresspiegelanstiegs besonders wichtig ist.

Weiterhin zeigen die Modellergebnisse, dass aufgrund des Meeresspiegelanstiegs mit einer Zunahme der Strömungsgeschwindigkeiten während der Flutphase in den Rinnen des Wattenmeers und den Ästuaren zu rechnen ist. Der Flutstrom wird in vielen Bereichen relativ zum Ebbstrom stärker. Vorausgesetzt, dass genügend Sediment vorhanden ist, nimmt der Sedimenttransport in die Ästuare und ins Wattenmeer zu. Für die Ästuare bedeutet dies, dass als Folge des Klimawandels mit erhöhten Baggermengen gerechnet werden muss, falls sich die Wassertiefe aufgrund des erhöhten Sedimentimports und damit verbundener Sedimentation stärker verringert als sie sich durch den Meeresspiegelanstieg vergrößert. Für das Wattenmeer heißt das, die Watten können aufwachsen. Dennoch ist bei einem beschleunigten Meeresspiegelanstieg mit einem Verlust an Wattflächen zu rechnen, da die morphologische Anpassungsfähigkeit begrenzt ist. Die Abschätzung der zukünftigen topographischen Entwicklung der Watten und der Ästuare stellt neben dem Umgang mit anderen mit dem Klimawandel verbundenen Unsicherheiten eine große Herausforderung dar.

Aufgrund ihrer dissipierenden Wirkung auf die Tideenergie haben die Wattgebiete eine hohe Bedeutung. Ein Verlust oder eine Reduzierung der Wattgebiete könnte die Tidedynamik in den Ästuaren verstärken sowie den Küstenschutz beeinträchtigen. Aber auch der einzigartige Lebensraum Wattenmeer wäre bedroht. Aus diesem Grund wird im BMVI-Expertennetzwerk auch an Maßnahmen geforscht, die ein Aufwachsen der Watten bei einem beschleunigten Anstieg des Meeresspiegels fördern.

Das BMVI-Expertennetzwerk ist das verkehrsträgerübergreifende Forschungsformat in der Ressortforschung des BMVI. Unter dem Leitmotiv „Wissen – Können – Handeln“ haben sich sieben Ressortforschungseinrichtungen und Fachbehörden des Bundesministeriums für Verkehr und digitale Infrastruktur 2016 zu einem Netzwerk zusammengeschlossen. Ziel ist es, drängende Verkehrsfragen der Zukunft unter anderem in den Bereichen Klimawandel, Umweltschutz, alternde Infrastruktur und Digitalisierung zu erforschen und durch Innovationen eine resiliente und umweltgerechte Gestaltung der Verkehrsträger zu ermöglichen.

Wissenschaftliche Ansprechpartner:
Dr. rer. nat. Rita Seiffert
rita.seiffert@baw.de

Weitere Informationen:
https://www.bmvi-expertennetzwerk.de/DE/Home/home_node.html

(nach oben)


Höhere Tierwohlstandards lassen Milchpreise steigen

Finja Thiede Pressestelle
Fachhochschule Kiel
In einer Studie untersuchten Forscher*innen des ife Instituts für Ernährungswirtschaft Kiel und der Fachhochschule Kiel erstmals die Kosten höherer Tierwohlstandards bei der Milchproduktion und die daraus resultierenden Preiserhöhungen für Milch im Einzelhandel. Die Berechnungen ergaben, dass eine Preissteigerung von 10 bis 20 Cent pro Liter nötig wäre, um die Mehrkosten für Produzent*innen und Molkereien zu decken. Die Autor*innen sprechen sich für die Einführung eines staatlichen Tierwohllabels aus. Es könnte für mehr Transparenz bei der Milchproduktion sorgen und die Bereitschaft von Verbraucher*innen steigern, mehr für Milch zu bezahlen, die unter höheren Tierwohlstands produziert wird.

Was kostet die Einhaltung höherer Tierwohlstandards bei der Milchproduktion? Wie hoch müsste der Preisaufschlag ausfallen, damit Landwirt*innen und Molkereien ihre Zusatzkosten decken können? Dies haben Forscher*innen des ife Instituts für Ernährungswirtschaft Kiel (ife Kiel) und der Fachhochschule (FH) Kiel in einer gemeinsamen Studie erstmals untersucht. Ihre Ergebnisse sollen vor allem Produzent*innen helfen, die Kosten und langfristigen Folgen einer Umstellung auf Milch mit höheren Tierwohlstandards abschätzen zu können.

Immer mehr Konsument*innen achten beim Kauf tierischer Produkte auf die Einhaltung von Tierwohlstandards. Doch eine generelle Kennzeichnungspflicht gibt es nicht, stattdessen erschweren eine Fülle unterschiedlicher Labels eine Orientierung und Bewertung. In ihrer Studie verglichen die Fachleute des ife Kiel und der FH Kiel zunächst die Anforderungen der unterschiedlichen Labels, erfassten die Präferenzen der Verbraucher*innen hinsichtlich der Einhaltung von Tierwohlstandards und ermittelten die Mehrkosten für die Betriebe und den Aufwand, der für Molkereien durch ein zusätzliches Angebot von Tierwohlmilch entsteht.

Die betrieblichen Mehrkosten erhoben die Forscher*innen durch eine Befragung der Betriebsbedingungen von 235 Milchbetrieben aus acht Bundesländern. Auf deren Basis berechneten sie, welche Investitionen notwendig wären, um höhere Tierwohlstandards zu erreichen. Als Referenz nutzen sie das Tierwohllabel „Für mehr Tierschutz“ vom Deutschen Tierschutzbund e.V., das nach ihrer Analyse die höchsten Standards an die Haltung von Milchkühen setzt und in eine Einstiegs- und eine Premiumstufe unterteilt ist. In der Einstiegsstufe betragen die Mehrkosten für die Betriebe im Durchschnitt 2,28 Cent pro Liter, in der Premiumstufe durchschnittlich 2,64 Cent pro Liter, mit hohen Variationen je nach betrieblicher Ausgangssituation. In den Molkereien belaufen sich die Mehrkosten auf 5,7 bis 18,9 Cent pro Liter.

„Eine nach höheren Standards produzierte Milch müsste im Endeffekt mindestens 10 bis 20 Cent mehr kosten“, sagt Prof. Dr. Holger Thiele (FH Kiel) und fährt fort: „Das wollen aber die wenigsten zahlen, obwohl sie sich höhere Tierwohlstandards wünschen.“ Einen Grund dafür sehen die Forscher*innen in der geringen Bekanntheit einzelner Tierwohllabels. Viele Verbraucher*innen wüssten nicht, woran sie Produkte mit höheren Tierwohlstandards erkennen könnten. Der Mehrwert durch die Einhaltung von Tierwohlstandards müsste klar nachvollziehbar und vertrauenswürdig dargestellt werden. Dies könne zum Beispiel durch ein einheitliches und leicht verständliches staatliches Tierwohllabel erreicht werden. Eine gesetzlich verpflichtende Kennzeichnung aller tierischen Produkte würde außerdem sicherstellen, dass das Label schnell einen hohen Bekanntheitsgrad erlangt.

Wissenschaftliche Ansprechpartner:
Fachhochschule Kiel
Prof. Dr. Holger Thiele
E-Mail: holger.thiele@fh-kiel.de

Weitere Informationen:
http://www.tierschutzlabel.info Hier finden Sie Informationen zu den Anforderungen des Labels „Für mehr Tierschutz“.

Anhang
ife Diskussionspapier_Zusatzkosten in der Milcherzeugung und -verarbeitung unter Einhaltung verschiedener Tierwohlstandards

(nach oben)


Fußball und Inklusion: Auf das richtige Trainingsklima kommt es an

Susann Huster Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig
Fußballspielen kann die Inklusion von Jugendlichen fördern, die nicht aus der vorherrschenden Kultur eines Landes kommen, also von Jugendlichen mit Migrationshintergrund. Entscheidend für das Gefühl, dazuzugehören und angenommen zu werden, ist dabei die Art des Trainings, genauer gesagt das vom Trainer vermittelte Motivationsklima. So eignet sich ein aufgabenorientiertes Training maßgeblich besser als ein leistungs- und wettbewerbsorientiertes Training.

Dies geht aus der aktuellen Studie eines internationalen Wissenschaftlerteams hervor, dem auch Anne-Marie Elbe angehört, Professorin für Sportpsychologie an der Universität Leipzig. Gesellschaftlich bedeutsam ist diese Erkenntnis, da insbesondere Erfahrungen im Jugendalter prägenden Einfluss auf die Einstellungen und Haltungen eines Menschen haben.

Fußballspielen kann die Inklusion von Jugendlichen fördern, die nicht aus der vorherrschenden Kultur eines Landes kommen, also von Jugendlichen mit Migrationshintergrund. Entscheidend für das Gefühl, dazuzugehören und angenommen zu werden, ist dabei die Art des Trainings, genauer gesagt das vom Trainer vermittelte Motivationsklima. So eignet sich ein aufgabenorientiertes Training maßgeblich besser als ein leistungs- und wettbewerbsorientiertes Training. Dies geht aus der aktuellen Studie eines internationalen Wissenschaftlerteams hervor, dem auch Anne-Marie Elbe angehört, Professorin für Sportpsychologie an der Universität Leipzig. Gesellschaftlich bedeutsam ist diese Erkenntnis, da insbesondere Erfahrungen im Jugendalter prägenden Einfluss auf die Einstellungen und Haltungen eines Menschen haben.

Fußball gilt als Mustersport der Inklusion. „Erstaunlicherweise mangelt es nach unserem Kenntnisstand jedoch an Theorie und Forschung in Bezug auf das Inklusionsgefühl Jugendlicher im Teamsport“, schreiben die Autorinnen und Autoren in ihrer Studie. Diese Lücke zu füllen sei wichtig, denn Teamsport habe nicht zwangsläufig Inklusionscharakter.
Für ihre Untersuchung befragte das dänisch-niederländisch-deutsche Wissenschaftlerteam 245 Jungen im Alter von 10 bis 16 Jahren zu ihren Erfahrungen. „Wir haben uns auf diese Altersgruppen konzentriert, weil insbesondere in diesem Zeitfenster positive interkulturelle Kontakterfahrungen zu positiveren Gruppeneinstellungen im Erwachsenenalter führen“, so die Autoren. Die Probanden gehören zu zwei niederländischen Fußballclubs, bei denen sehr diverse Teams trainieren. Die Mehrheit der Studienteilnehmer, das sind 61,6 Prozent, hat einen Migrationshintergrund. Das heißt, der Spieler selbst oder wenigstens ein Elternteil wurde außerhalb der Niederlande geboren.

Inklusion besteht für das Forscherteam dabei aus zwei Komponenten, erläutert Anne-Marie Elbe von der Universität Leipzig: „Wie stark fühle ich mich einer Mannschaft zugehörig? Und wie stark habe ich das Gefühl, dass ich so sein kann, wie ich bin – also authentisch mit beispielsweise meiner anderen kulturellen Herkunft?“ Dieses Inklusionsverständnis stützt sich auf bereits anerkannte Forschungsarbeiten anderer Wissenschaftlerinnen und Wissenschaftler.

„Unsere Annahme in der Studie war, dass das Gefühl von Inklusion damit zusammenhängt, was für ein motivationales Klima in dieser Mannschaft existiert, das heißt, vom Trainer erzeugt wird“, so Elbe weiter. Unterschieden wird dabei zwischen einem leistungsorientierten Motivationsklima auf der einen Seite, wo es gilt, besser zu sein als andere Spieler im eigenen Team, sowie einem aufgabenorientierten Motivationsklima auf der anderen Seite. Bei der Aufgabenorientierung gilt der Blickpunkt dem einzelnen Spieler und der Verbesserung seiner eigenen Fähigkeiten. Es geht um die Motivation eines jeden, hinzuzulernen: Gelingt es ihm, eine Aufgabe gut zu machen beziehungsweise kann er vermeiden, sie schlechter als zuvor zu machen?

Die Wissenschaftlerinnen und Wissenschaftler um Prof. Anne-Marie Elbe konnten nun zeigen, dass ein aufgabenorientiertes Trainingsklima positiv mit dem Inklusionsempfinden der jugendlichen Spieler zusammenhängt, ein wettbewerbsorientiertes Klima hingegen negativ. Wenn beide Trainingsarten nebeneinander angewendet wurden, konnten Spieler ohne Migrationshintergrund noch gut damit umgehen, ohne dass ihr Zugehörigkeitsgefühl zu sehr litt. Bei Spielern mit Migrationshintergrund jedoch war zu beobachten, dass ihr Inklusionsgefühl nur dort stabil war, wo ein hohes Maß an Aufgabenorientierung vorherrschte und der Wettbewerbsansatz innerhalb der eigenen Mannschaft nicht oder nur wenig verfolgt wurde.

„Man kann also nicht per se sagen, dass es positive Auswirkungen hat, Mitglied einer Fußballmannschaft zu sein. Um positive Auswirkungen mit dem Fußballtraining zu erzielen, muss sich der Trainer in einer bestimmten Art und Weise verhalten und ein spezifisches Klima während der Trainingseinheit herstellen. Darin steckt sehr großes Potential, und dies ist von enormer gesellschaftlicher Bedeutung“, sagt Anne-Marie Elbe. „Mit unserer Studie haben wir dazu beigetragen, die quantitative Forschung zu Inklusion und Sport etwas zu erweitern.“

Anne-Marie Elbe war bis 2017 an der Universität Kopenhagen tätig, wo sie die Studie – das Promotionsvorhaben von Silke Dankers – mitbetreute. Das Vorhaben wurde im Rahmen des Zentrums „Team Sports and Health“ der Universität Kopenhagen durchgeführt und durch den Nordea-Fonds gefördert. Die Ergebnisse veröffentlichten die Forscherinnen und Forscher nun in der renommierten Fachzeitschrift „Psychology of Sport and Exercise“.

Originaltitel der Fachveröffentlichung in „Psychology of Sport and Exercise“:
„Perceived inclusion in youth soccer teams: The role of societal status and perceived motivational goal climate“,

Psychology of Sport and Exercise, Volume 53, 2021,
doi: 10.1016/j.psychsport.2020.101882 , ISSN: 1469-0292
Birgit Pfeiffer

Wissenschaftliche Ansprechpartner:
Prof. Dr. Anne-Marie Elbe
Institut für Sportpsychologie und Sportpädagogik
Telefon: +49 341 97-31633
E-Mail: amelbe@uni-leipzig.de

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S1469029220308670
http://www.spowi.uni-leipzig.de/fakultaet/institute-fachgebiete/psychpaed/personal/prof-dr-anne-marie-elbe/

(nach oben)


Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Saurer Regen gehört eigentlich der Vergangenheit an, doch noch immer steigen die Sulfatkonzentrationen in vielen Binnengewässern weltweit. Forschende unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der dänischen Universität Aarhus geben in einer neuen Studie einen Überblick, aus welchen Quellen das Sulfat heute stammt und welche Folgen es hat. Sie weisen darauf hin, dass die negativen Folgen für Ökosysteme und Trinkwassergewinnung bisher nur regional wahrgenommen werden und empfehlen, Sulfat stärker in rechtlichen Umweltstandards zu berücksichtigen.

„Saurer Regen“ war ein Phänomen der 1980er Jahre, als bei der Verbrennung fossiler Brennstoffe große Mengen an Schwefel in die Atmosphäre gelangten. Nachdem Kraftwerke in Nordamerika und Europa zur Rauchgasentschwefelung nachgerüstet wurden, schien die Gefahr zunächst gebannt. In Deutschland sanken die atmosphärischen Schwefeleinträge um 90 Prozent. In Binnengewässern blieben die Konzentrationen an Sulfat, das aus Schwefel gebildet wird, in den letzten Jahrzehnten dennoch nahezu unverändert; in einigen Regionen stiegen sie sogar. Für die Forschenden ein klares Zeichen dafür, dass andere Quellen an Bedeutung gewonnen haben.

Entwässerung, Kunstdünger und Braunkohletagebau zählen zu den Hauptursachen:
Gelöstes Sulfat entsteht in Binnengewässern natürlicherweise durch die Verwitterung von Mineralien, bei Vulkanismus oder beim Abbau von organischem Material. Doch vor allem menschliche Aktivitäten lassen die Konzentrationen von Sulfat im Wasser deutlich ansteigen. Neben den atmosphärischen Einträgen sind dafür insbesondere die Entwässerung von Mooren, die Absenkung des Grundwasserspiegels für den Braunkohletagebau, Düngerauswaschungen aus landwirtschaftlich genutzten Böden sowie Abwässer aus Landwirtschaft und Industrie verantwortlich. Weltweit macht der landwirtschaftliche Einsatz von schwefelhaltigen Substanzen rund 50 Prozent des jährlich in die Umwelt eingetragenen Schwefels aus. So gelangt in einigen Regionen der Welt heute mehr Schwefel in Böden und Gewässer als zum Höhepunkt des sauren Regens.

Der Klimawandel verschärft die Situation:
Die Folgen des Klimawandels tragen zu einer Verschärfung bei: „Zunehmender Starkregen spült schwefelhaltige Böden und Dünger in Gewässer; größere Flächen von Feuchtgebieten fallen trocken; durch steigende Meeresspiegel gelangt sulfatreiches Salzwasser ins Grundwasser und in Flüsse, wo es die Sulfatkonzentrationen erheblich erhöhen kann“, fasst Dr. Dominik Zak von der dänischen Universität Aarhus die Prognosen zusammen, die er und seine Mitautor*innen in der Übersichtsstudie zusammengetragen haben.

Negative Folgen für Mensch und Ökosysteme:
Die Spree ist ein Beispiel für Flüsse, in denen die Sulfatkonzentrationen als Folge des Braunkohletagebaus angestiegen sind. In einigen Abschnitten überschreitet sie schon heute den Trinkwassergrenzwert von 250 Milligramm pro Liter. „Das ist problematisch, da diese Gewässer als Trinkwasserquelle genutzt werden – typischerweise über Grundwasserentnahme und durch Uferfiltration. Nach wie vor spielt der Braunkohleabbau in vielen Regionen der Welt eine bedeutende Rolle, und überall dort sind Sulfatbelastungen in Gewässern und dem Trinkwasser ein Thema. Auch wenn wir in Deutschland den Ausstieg aus der Braunkohleförderung beschlossen haben, werden uns die Sulfateinträge in unsere Gewässer als Umweltproblem längerfristig erhalten bleiben“, prognostiziert IGB-Forscher Dr. Tobias Goldhammer, einer der Autoren der Studie.

Sulfat beeinträchtigt nicht nur die Trinkwasserqualität, es beeinflusst auch die Stoffkreisläufe von Kohlenstoff, Stickstoff und Phosphor. Das steigert unter anderem den Nährstoffgehalt in Gewässern und damit das Pflanzen- und Algenwachstum sowie das Nahrungsangebot für aquatische Organismen. Die Folge ist ein Sauerstoffmangel im Wasser, der die weitere Freisetzung von Phosphat aus dem Sediment fördert – ein Teufelskreis. Sulfat und seine Abbauprodukte – insbesondere Sulfid – können zudem giftig auf aquatische Lebewesen wirken.

Renaturierte Moorflächen binden Schwefel:
Die biologische Sanierung mithilfe lebender Organismen wie Prokaryonten, Pilzen oder Pflanzen ist eine Möglichkeit, um Schadstoffe aus Ökosystemen zu entfernen. Pflanzenkläranlagen, Bioreaktoren und durchlässige reaktive Barrieren können auch die Sulfatbelastungen in Gewässern mindern. Viel versprechen sich die Wissenschaftler*innen dabei von der Renaturierung von Mooren: Durch die flächendeckende Trockenlegung von Feuchtgebieten wurden Schwefel und schwefelhaltige Eisenverbindungen freigesetzt. Die Wiedervernässung dieser Flächen kann die Freisetzung stoppen und sogar Schwefel speichern: Gelangt dann mit Sulfat angereichertes Wasser über Grund- oder Oberflächenwasser in diese Feuchtgebiete, wird es dort gefiltert.

Sulfat ist ein globales Umweltproblem:
„Es besteht großer Handlungsbedarf, die Sulfatkonzentrationen in Gewässern zu verringern. Da die Probleme im Zusammenhang mit hohen Sulfateinträgen bisher vor allem regional wahrgenommen werden, sind die Auswirkungen auf Binnengewässer noch nicht als global aufkommendes Umweltproblem erkannt. So haben viele Länder dafür keine Umweltstandards definiert. Wir möchten mit unserer Studie auf die Problematik aufmerksam machen, den derzeitigen Stand zur Sulfatbelastung aufzeigen und gleichzeitig auf die noch zahlreichen Wissenslücken hinweisen“, fasst Dominik Zak zusammen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von sieben natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/

Wissenschaftliche Ansprechpartner:
Dr. Tobias Goldhammer
Leiter der IGB-Forschungsgruppe „Nährstoffkreisläufe und chemische Analytik“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: goldhammer@igb-berlin.de

Dr. Dominik Zak
Department of Bioscience
Aarhus University, Dänemark
Email: doz@bios.au.dk

Originalpublikation:
Zak D, Hupfer M, Cabezas A, Jurasinski G, Audet J, Kleeberg A, McInnes R, Munch Kristiansen S, Petersen RJ, Liu H, Goldhammer T (2020) Sulphate in freshwater ecosystems: A review of sources, biogeochemical cycles, ecotoxicological effects and bioremediation. Earth Science Reviews doi:10.1016/j.earscirev.2020.103446

Weitere Informationen:
https://www.igb-berlin.de/news/saurer-regen-war-gestern

(nach oben)


Neue Untersuchungen bestätigen Munitionsbelastung in der Ostsee erneut

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Schon seit einigen Jahren wird die Belastung der Ostsee durch Kampfmittelaltlasten intensiv untersucht. Auf einer im Herbst 2020 unter der Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel durchgeführten Expedition konnten unter Anwendung neuer Verfahren große mit Munition belastete Flächen untersucht werden. Im Jahr 2021 soll das Thema mit einer Reihe neuer Projekte und Veranstaltungen vertieft werden, um nun rasch vom Wissen zum Handeln zu kommen.

Der Meeresboden der westlichen Ostsee ist in großen Gebieten durch Altmunition belastet, die insbesondere nach Ende des 2. Weltkrieges dort versenkt wurde. Bei einer im Herbst 2020 unter der Leitung der GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel durchgeführten Expedition (AL548) wurden die munitionsbelasteten Gebiete in der westlichen Ostsee erneut untersucht. Ähnlich wie schon im Oktober 2018 wurden von Bord des Forschungsschiffes ALKOR umfangreiche Wasserproben genommen, um die Belastung mit krebserregenden Sprengstoffsubstanzen zu ermitteln. Hierbei kam erstmals auch ein Echtzeit-Analysesystem zum Einsatz, das im Rahmen des EU-finanzierten Projektes ExPloTect am GEOMAR entwickelt wird (www.explotect.eu). Darüber hinaus hatte die Fahrt das Ziel, Methoden zur Objekt-Verifizierung mittels autonomer Unterwasserfahrzeuge (AUVs) zu testen. Um große Ansammlungen von Minen und versenkten Munitionskisten sichtbar zu machen, wurden Meeresboden-Fotomosaike von mehreren 1000 m² Größe generiert. Zudem wurden an Verdachtspunkten gezielt magnetische Messungen durchgeführt. Beides erwies sich als sehr erfolgreich, wobei die zügige und erfolgreiche Implementierung der magnetischen Sensoren auf dem AUV LUISE selbst die im Projekt BASTA (www.basta-munition-eu) arbeitenden Forscher überraschte: „Das wir so schnell eine Implementierung ohne störende Einflüsse durch die Antriebe des AUVs hinbekommen haben und aussagekräftige Messungen machen konnten, hat uns sehr gefreut“, so Projektmitarbeiter Dr. Marc Seidel vom GEOMAR. Hierbei wurde das Projekt durch eine Leihgabe von Magnetometern der Firma Sensys GmbH unterstützt.

„Die Fahrt AL548 war für die technologischen Ziele der beiden Projekte BASTA und ExPloTect sehr erfolgreich“, sagte Fahrtleiter Professor Dr. Jens Greinert. „Zudem haben wir insbesondere in der Lübecker Bucht erhebliche Mengen an Munition gefunden, die außerhalb bekannter Belastungsflächen liegt. Damit konnten wir erneut nachweisen, dass die auf Seekarten vermerkten Gebiete nicht vollständig sind“, so Greinert weiter. Zur Ausfahrt AL548 und den dabei erzielten ersten Ergebnissen sendet ARTE am 19. Januar 2021 um 19:40 eine Reportage.

Wie geht es nun weiter? Derzeit werden am GEOMAR weitere Projektanträge zum Thema Munition im Meer vorbereitet. So befinden sich die Anträge ProBaNNt (KI-basierte Evaluation von Räummethoden) und AMMOTRACE (In-situ Sprengstoffanalyse) in der finalen Bewilligungsphase. Ein Antrag zur Entwicklung eines Räum- und Zwischenaufbewahrungssystems wird in Kürze unter dem Namen CLEAR mit der SeaTerra GmbH in Seevetal eingereicht. Ziel ist es, eine umweltverträgliche Technologie für die Räumung von Munitionsversenkungsgebieten zu entwickeln. „Wenn der Antrag bewilligt wird, sind wir zuversichtlich in zwei Jahren mit einer ersten echten Testräumung in der Kolberger Heide zu starten“, so Dieter Guldin von SeaTerra.

Neben diesen Projekten zur Technologieentwicklung koordiniert GEOMAR das Projekt CONMAR. „In diesem Projekt integrieren wir die gesamte wissenschaftliche Expertise zu Munition im Meer in Deutschland, um die ökologischen Auswirkungen durch die chemische Belastung der Munition in Ost- und Nordsee zu bestimmen“, legt Koordinator Prof. Greinert dar. Neben Kollegen vom Thünen-Institut, dem Institut für Ostseeforschung, der Universität Rostock, dem Umweltbundesamt, dem Alfred-Wegener-Institut, Senckenberg am Meer und dem Global Climate Forum, sind das von Prof. Dr. Edmund Maser geleitete Toxikologische Institut der Universität Kiel und die Kieler Firma EGEOS GmbH Projektpartner. Nach Ansicht von Professor Greinert hat sich Kiel als zentraler Hub für die deutsche Forschung zu Munition im Meer etabliert und wird so auch von Politik und Behörden wahrgenommen. Daher ist es nicht verwunderlich, dass dort auch die erste internationale ‚Kiel Munition Clearance Week‘ im September 2021 stattfinden soll. „Meine Vision ist eine altlastenfreie Ostsee bis 2050“, sagt Jann Wendt, Geschäftsführer der EGEOS GmbH und Initiator der Konferenz. „Die Technik dazu ist bereits heute auf den Reißbrettern der Industrie verfügbar. Woran es momentan noch scheitert, ist der politische Wille und damit die Finanzierung und Umsetzung. Auf unserer Konferenz wollen wir ganz konkrete Lösungsvorschläge erarbeiten, um die Munition großflächig und dabei umweltschonend, kostengünstig und sicher zu räumen“, so Wendt.

„Auch das GEOMAR möchte sich weiter für dieses Thema stark engagieren und den Standort Kiel mit dem GEOMAR als wichtigem wissenschaftlichen und koordinierenden Zentrum etablieren“, sagt GEOMAR-Direktorin Professorin Katja Matthes.

Weitere Informationen:
http://www.geomar.de GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.explotect.eu Projekt ExPloTect
http://www.basta-munition.eu Projekt BASTA

(nach oben)


An der Uhr gedreht: Wie Zeit das Arbeitsgedächtnis beeinflusst

Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
Wenn die Arbeit eintönig ist, wirkt es, als ob die Zeit stehen bliebe. Wird man hingegen geistig gefordert, vergeht die Zeit gefühlt wie im Flug. Wissenschaftler am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) haben nun gezeigt, dass die Beziehung zwischen der Auslastung des Arbeitsgedächtnisses und der Zeitwahrnehmung auch andersherum bestehen kann. Dazu haben sie Anzeigen zur Dauer der verstrichenen Zeit beschleunigt oder verlangsamt, ohne dass die Versuchspersonen davon wussten. Hatten die Teilnehmenden den Eindruck, die Zeit verginge schneller, verbesserten sich ihre Leistungen.

Wenn wir eine Arbeit gerne machen oder uns auf eine Aufgabe konzentrieren, kann der Arbeitstag schneller vorbei sein – obwohl es sich für uns nicht wie acht Stunden Arbeit angefühlt hat. Dass kognitive Prozesse beeinflussen, wie wir die zeitliche Dauer von Ereignissen wahrnehmen, ist ein bekanntes Phänomen in der Forschung. Kaum untersucht sind hingegen Effekte in die andere Richtung: Beeinflussen experimentell veränderte Angaben zur zeitlichen Dauer ebenfalls kognitive Prozesse? Neurowissenschaftler des IfADo sind dieser Frage in einer aktuellen Studie nachgegangen. Dabei haben sie erstmals untersucht, was im Gehirn passiert, wenn zeitliche Informationen manipuliert werden.

An der Studie haben 30 Versuchspersonen teilgenommen. Sie sollten am PC komplexe Arbeitsgedächtnisaufgaben lösen. Zwischen den Aufgabenblöcken wurden die Versuchspersonen nach ihrer eigenen Leistung gefragt. Auf dem PC wurde nebenbei die Uhrzeit eingeblendet. Dabei handelte es sich zu Beginn des Versuchs um die tatsächliche Uhrzeit. Im weiteren Verlauf wurde eine um 20 Prozent beschleunigte sowie eine um 20 Prozent verlangsamte Uhrzeit eingeblendet. Je nach Gruppenzuteilung wurde zuerst die schnellere oder die langsamere Uhrzeit angezeigt.

Schnellere Uhr verbessert kognitive Leistung
Es zeigte sich, dass die Versuchspersonen die Arbeitsgedächtnisaufgaben während des Blocks mit der schnelleren Uhr signifikant besser bearbeiteten. Die Forschenden haben zusätzlich zu den Verhaltensdaten die Hirnaktivität mittels Elektroenzephalografie (EEG) gemessen. Sie konnten zeigen, dass die Theta-Aktivität während des Blocks mit der experimentell beschleunigten Uhrzeit deutlich erhöht war im Vergleich zu den anderen Blöcken. Frontale Theta-Wellen werden mit Arbeitsgedächtnis- und Aufmerksamkeitsprozessen in Verbindung gebracht. Sie sind in diesem Zusammenhang ein Anhaltspunkt, wie viele kognitive Ressourcen in die Bearbeitung einer Aufgabe investiert werden.

„Diese Befunde für die Versuche mit beschleunigter Zeit können damit zusammenhängen, dass die Probanden die an sich nicht so spannende Versuchsaufgabe als positiver wahrgenommen haben, weil die Zeit scheinbar schneller vorbeigegangen ist. Das wiederum führt dazu, dass sie der Aufgabe ihre volle Aufmerksamkeit zuwenden“, erklärt Studienautor Dr. Daniel Schneider vom IfADo.

Die Studie zeigt, dass bereits kleine, äußere Veränderungen die Leistung des Arbeitsgedächtnisses beeinflussen können. Diese Erkenntnis könnte zum Beispiel für die Arbeitsplatzgestaltung relevant sein, etwa wenn es um die Frage geht, ob sich die bloße An- oder Abwesenheit von zeitlichen Informationen auf die Arbeitsleistung auswirken kann. Um dazu verlässliche Aussagen treffen zu können, ist weitere Forschung nötig. Diese muss auch Wissen darüber generieren, wie dieser Zusammenhang im Gehirn verarbeitet wird.

Das Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) umfasst die Forschungsbereiche Ergonomie, Immunologie, Psychologie & Neurowissenschaften und Toxikologie. Die rund 220 Beschäftigten erforschen Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Das IfADo ist Mitglied der Leibniz-Gemeinschaft, die 96 selbstständige Einrichtungen umfasst. Finanziert wird das Institut durch eine gemeinsame institutionelle Förderung von Bund und Land sowie aus Drittmitteln.

Wissenschaftliche Ansprechpartner:
Dr. Daniel Schneider
Leiter des Themenbereichs „Informationsverarbeitung“, Fachbereich Ergonomie
E-Mail: schneiderd@ifado.de
Telefon: +49 231 1084-265

Originalpublikation:
Thönes S, Arnau S, Wascher E, Schneider D (2021): Boosting working memory with accelerated clocks. NeuroImage, Volume 226. 117601.
doi: 10.1016/j.neuroimage.2020.117601

Weitere Informationen:
https://www.ifado.de/2021/01/18/zeit-arbeitsgedaechtnis/ IfADo-Website
https://doi.org/10.1016/j.neuroimage.2020.117601 Originalpublikation (Open Access)

(nach oben)


CO2-Bepreisung allein bringt technologischen Wandel kaum voran

Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Um die Ziele des Pariser Klimaabkommens zu erreichen, muss die Staatengemeinschaft bis 2050 klimaneutral wirtschaften. Für das wichtigste klimapolitische Instrument halten viele Regierungen und Fachleute die CO2-Bepreisung – auch Deutschland hat sie gerade für Verkehr und Wärme eingeführt. Eine Studie zeigt jedoch, dass deren Lenkungswirkung nicht so stark ist wie erhofft.

Zwar haben Kohlenstoffpreissysteme in einigen Ländern zu sinkenden Emissionen geführt, einen umfassenden technologischen Wandel bewirken sie alleine jedoch nicht. Um die erforderlichen Veränderungen voranzutreiben, braucht es eine sektorspezifische Förderung von klimafreundlichen Technologien, zum Beispiel Änderungen des Strommarktdesigns und ein besseres Ladenetz für Elektroautos. Dafür sind erhebliche Investitionen erforderlich. Die Bilanz der CO2-Besteuerung ist in dieser Hinsicht enttäuschend, wie die Wissenschaftler Johan Lilliestam (IASS/Uni Potsdam), Anthony Patt (ETH Zürich) und Germán Bersalli (IASS Potsdam) zeigen. Sie untersuchten empirische Studien zu den Wirkungen der Kohlenstoffpreissysteme in der EU, Neuseeland, der kanadischen Provinz British Columbia und den nordischen Ländern.

„Wir beobachten zum Teil beachtliche Senkungen der Emissionen, allerdings nicht durch die dringend nötigen Investitionen in CO2-freie Technologien, sondern durch einen Umstieg auf andere, etwas weniger CO2-intensive Nutzungen. Für die angestrebte Klimaneutralität ist ein Umstieg von Benzin auf Diesel oder von Kohle- auf Gasstrom aber praktisch irrelevant“, sagt Leitautor Johan Lilliestam. Um netto null Emissionen zu erreichen, seien größere, systemische Veränderungen nötig.

Auch hohe CO2-Preise bewirkten kaum Investitionen in CO2-freie Technologien
Die meisten der untersuchten Studien nennen einen niedrigen CO2-Preis und eine zu große Zahl ausgegebener CO2-Zertifikate als Hauptursache für die unzureichende Lenkungswirkung der CO2-Bepreisung. Allerdings ist dies laut Lilliestam, Patt und Bersalli keine hinreichende Erklärung. Denn sogar in den nordischen Ländern mit ihren verhältnismäßig hohen CO2-Preisen war die Lenkungswirkung in Richtung eines technologischen Wandels nicht beobachtbar.

Einen Grund dafür sehen sie darin, dass andere Politikmaßnahmen – vor allem Förderprogramme für erneuerbare Energien – die Energiewende in Schwung gebracht haben. Solche spezifischen Fördermaßnahmen boten Investoren stärkere Investitionsanreize als das gleichzeitig umgesetzte Kohlenstoffpreissystem, und der dadurch ausgelöste Ausbau führte zu starken Kostensenkungen vor allem für Wind- und Solarstrom. Zudem schwanken die Preise für fossile Energien oft stärker als der Aufschlag, der durch die CO2-Bepreisung entsteht. Diese Schwankungen, zum Beispiel des Benzinpreises, überschatten damit die Lenkungswirkung der CO2-Steuer.

Als Teil eines Maßnahmenpakets kann CO2-Bepreisung nützlich sein
Trotz der schwachen Bilanz sehen die Wissenschaftler zwei Chancen für CO2-Preise. „Einerseits können sie genutzt werden, um Einnahmen für dringend nötige Fördermaßnahmen und öffentliche Investitionen zu erzielen. Andererseits können sie in bestimmten Sektoren, wie der Kohleverstromung, dazu beitragen, dass die CO2-intensivsten Technologien endgültig ihre Wettbewerbsfähigkeit verlieren, wenn eine alternative Technologie bereit steht“, erläutert Lilliestam. Nicht als zentrales Instrument, aber als Teil eines breit angelegten Maßnahmenpaketes könne die CO2-Bepreisung also zu den Klimazielen beitragen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Johan Lilliestam
johan.lilliestam@iass-potsdam.de

Originalpublikation:
Lilliestam, J., Patt, A., Bersalli, G. (2021): The effect of carbon pricing on technological change for full energy decarbonization: A review of empirical ex‐post evidence. – Wiley Interdisciplinary Reviews – Climate Change, 12, 1, e681. https://doi.org/10.1002/wcc.681

(nach oben)


Stress an den deutschen Flüssen: Der Klimawandel setzt Umwelt und Wirtschaft unter Druck

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Ende des Jahrhunderts (2071-2100) ist mit erheblichen Änderungen der Umwelt- und Wirtschaftsbedingungen an den großen Flüssen in Deutschland zu rechnen, wenn globale Klimaschutzmaßnahmen nur unzureichend ergriffen werden. Aktuelle Ergebnisse der Bundesanstalt für Gewässerkunde zeigen die besonders betroffenen Flussabschnitte und wo dringlicher Anpassungsbedarf besteht.

Die Bundesanstalt für Gewässerkunde hat in den vergangenen vier Jahren untersucht, wie sich die prognostizierten klimatischen Bedingungen auf die großen Flüsse in Deutschland auswirken. Hierfür hat sie mit den Partnerbehörden des BMVI-Expertennetzwerks detaillierte Modelle entwickelt und neueste Klimaszenarien genutzt. Ein untersuchtes Szenario unterstellt, dass die globalen Klimaschutzmaßnahmen zu gering ausfallen, was bis zum Ende des 21. Jahrhunderts zu einem Anstieg der globalen Mitteltemperatur um bis zu fünf Grad Celsius gegenüber dem vor-industriellen Zeitalter führen würde. Die Auswertungen legen nahe, wie wichtig die angestrebte weitere Reduktion der Treibhausgasemissionen auch für die Flüsse ist. Bei diesem Szenario können intensivere Hochwasserereignisse die Verkehre auf Schiene, Straße und Wasserstraße beeinträchtigen. Die Binnenschifffahrt hätte zudem unter längeren Niedrigwasserphasen zu leiden. Am Rhein-Pegel Kaub würden beispielsweise kritische Schwellenwerte gegen Ende des Jahrhunderts an 22 bis 48 Tagen unterschritten. Aber auch die Lebewesen in den Gewässern gerieten öfter in Stress. Grund dafür sind steigende Wassertemperaturen, die ebenso erwartet werden. „Die Zuspitzung von Niedrigwassersituationen am Mittel- und Niederrhein kann die Logistikbranche zukünftig vor beträchtliche Herausforderungen stellen.“ befürchtet BfG-Wissenschaftler Dr. Enno Nilson. „Deshalb ist die gemeinsame und einheitliche Erforschung der Klimawirkungen auf alle Verkehrsträger im BMVI-Expertennetzwerk so wichtig. Basierend auf den neuen Erkenntnissen, können stimmige Anpassungsmaßnahmen für das Verkehrssystem abgeleitet werden.“

Die Ergebnisse wurden auf der Homepage des BMVI-Expertennetzwerks veröffentlicht und werden auf der interaktiven Veranstaltung „BMVI-Expertennetzwerk online – Forschungsergebnisse kompakt“ am 19. Januar 2021 der Fachöffentlichkeit präsentiert.

Die Forschungsarbeiten im Rahmen des BMVI-Expertennetzwerks bestätigen, präzisieren und erweitern die Ergebnisse aus dem Jahr 2015, die vom Klimafolgenforschungsprogramm KLIWAS zu Auswirkungen des Klimawandels auf Wasserstraßen und Schifffahrt stammten. Diese Arbeiten werden seit 2016 im behördenübergreifenden BMVI-Expertennetzwerk fortgeführt. Neben der Verwendung von aktuellen Klimadaten und der Entwicklung von neuen Methoden ermöglicht das BMVI-Expertennetzwerk auch die gemeinsame Betrachtung von Klimawirkungen auf Straßen, Schienen und Wasserstraßen. Die Erkenntnisse und Methoden werden künftig durch den DAS-Basisdienst „Klima und Wasser“ operationalisiert. So sind die aktuellen wissenschaftlichen Erkenntnisse der Öffentlichkeit und Fachleuten dauerhaft zugänglich und ermöglichen der Entscheidungsebene unter anderem eine Anpassung der Wasserwirtschaft und der Binnenschifffahrt an die Folgen des Klimawandels.

Wissenschaftliche Ansprechpartner:
Dr. Enno Nilson, Referat Wasserhaushalt Vorhersagen und Prognosen, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0 261 1306 5325, E-Mail: Nilson@bafg.de

(nach oben)


Regionaler Wasserstoff aus Biomasse – sauber und effizient!

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
An der Hochschule Hof macht eine Unternehmensgründung auf sich aufmerksam, die wichtige Lösungen für die Energiewende liefern könnte: Die BtX energy GmbH bietet unterschiedliche Verfahren, um aus Biomasse hochwertigen Wasserstoff herzustellen. Neben dem Vertrieb schlüsselfertiger Anlagen zur Dampfreformierung von Biogas möchte die junge Firma zunächst für die Region Hof ein Gesamtkonzept zur regionalen Erzeugung und Nutzung von grünem Wasserstoff erstellen – ein wegweisendes Unterfangen.

Andy Gradel ist gelernter Maschinenbauer und Leitender Ingenieur am Institut für Wasser- und Energiemanagement der Hochschule Hof (iwe). Der 30Jährige, der vor kurzem seine Doktorarbeit fertigstellte, beschäftigt sich in seiner Forschung seit 2016 mit der Frage, wie aus Biomasse saubere Energie und Wärme gewonnen werden kann. In Zusammenarbeit mit seinem Industriepartner, der WS – Wärmeprozesstechnik GmbH aus dem schwäbischen Renningen gelang Gradel im Rahmen einer Promotion im Kontext der Technologieallianz Oberfranken (TAO) nun über viele Versuche die Entwicklung eines neuartigen Holzvergasers.

Auszeichnung für Forschung
„Unser Vergaser basiert auf der Nutzung der prozesseigenen Holzkohle als Teerfilter. Dadurch erreichen wir einen deutlich wartungsärmeren und gleichzeitig flexibleren Betrieb der Anlage – gemessen am derzeitigen Stand der Technik. Das macht unseren Holzvergaser finanziell attraktiv“, erklärt Andy Gradel. Für seine Forschung am Verfahren wurde der gebürtige Bayreuther unlängst bei einer Fachkonferenz in Zittau mit dem „Young Academics Award for Bioenergy 2020“ als bester Nachwuchsforscher des Bereichs ausgezeichnet.

Marktgang mit Profis
Die erfolgreiche Technik möchte Andy Gradel nun auf den Markt bringen. Anders als anzunehmen ist die deshalb neu gegründete BtX energy GmbH kein Niemand in der Branche: Mitgesellschafter sind die renommierten Unternehmer Joachim Wünning und Martin Schönfelder, Geschäftsführer der WS Wärmeprozesstechnik GmbH, welche 2011 den deutschen Umweltpreis für die FLOX® Technologie (flammenlose Verbrennung) erhielt. Darüber hinaus beteiligt ist Prof. Tobias Plessing, Wissenschaftlicher Leiter des Instituts für Wasser- und Energiemanagement (iwe) an der Hochschule Hof. Gemeinsam möchte man einen Beitrag für die Energiewende leisten.

Hoffnung für Biogasbranche
Neben der Weiterentwicklung des Holzvergasers bis zur Marktreife wird das junge Unternehmen vor allem Wasserstoffproduktionsstätten für Biogasanlagen auf den Markt bringen. Wie wichtig derartige Erfindungen für die Biogasbranche sind, zeigt ein Blick auf deren aktuelle Herausforderungen: In den kommenden Jahrzehnten ist die Biogas-Industrie nach Experteneinschätzungen von einem kompletten Rückbau bedroht. Grund dafür ist die auf 20 Jahre befristete Einspeisevergütung für grünen Strom aus diesen Anlagen. Anschlussverträge ermöglichen derzeit oft keinen wirtschaftlichen Weiterbetrieb der bestehenden Anlagen. Die Lösung für das Problem wollen nun die Akteure der BtX energy GmbH bieten.

Wasserstoff in hoher Menge möglich
Wasserstoff ist ein bereits heute viel genutzter Grundstoff und gleichzeitig ein wesentlicher Energieträger der Zukunft. Wo und wie grüner Wasserstoff zu wirtschaftlichen Preisen industriell und in Masse produziert werden kann, ist allerdings nach wie vor eine ungelöste Frage: „Während sich die meisten Akteure im Energiemarkt auf die Elektrolyse aus dem regenerativem Überschussstrom konzentrieren, werden durch die neue Technik schlüsselfertige Anlagen zur Dampfreformierung von Biogas möglich. Dies kann für die kriselnde Biogasbranche von enormem Nutzen sein“, so Prof. Tobias Plessing von der Hochschule Hof.

Platzsparende Containerlösung
Die schlüsselfertige Komplettlösung für die Biogasreformierung soll nun den Markt revolutionieren – in Form einer unauffälligen und platzsparenden Containerlösung. „Die Produktionskosten je Kilogramm Wasserstoff können dabei sogar deutlich niedriger ausfallen als bei der Elektrolyse“, so die Hoffnung des Jungunternehmers. Durch die dezentrale Erzeugung würde zudem der aufwändige und energieintensive Straßentransport des Wasserstoffs minimiert oder bestenfalls ganz vermieden, was sich ebenfalls positiv auf die Wirtschaftlichkeit der Anlage und die Gesamtenergiebilanz des Vorhabens auswirkt.

Unterstützung für Betreiber
Neben Produktion und Vertrieb der Anlagen möchte die neugegründete Firma auch die zukünftigen Betreiber dazu befähigen, den Wasserstoff auf den Märkten abzusetzen. Betreiber von Biogasanlagen seien schließlich meist in der Landwirtschaft verankert und daher keine klassischen Energiehändler. „Sicherzustellen, dass die Anlage genug Gewinn abwirft, ist unbedingt notwendig. Dieser Herausforderung stellt sich die BtX energy GmbH als Anbieter von Komplettlösungen“, so Geschäftsführer Andy Gradel. Von der Produktion bis zum Verkauf an der Zapfsäule, der Nutzung für Müllfahrzeuge, Landmaschinen oder im ÖPNV: „Überall, wo Wasserstoff die Energiewende vorantreiben kann, können die Landwirtschaft, die Bioabfallverwertungsbranche sowie viele weitere Akteure ihren Beitrag leisten: dezentral, sofort umsetzbar, rund um die Uhr auf Volllast und aufgrund der direkten stofflichen Umwandlung mit bestechend hohem Wirkungsgrad. Wir wollen dabei unterstützen.“

Konzept für die Region
Ziel der Forscher und Unternehmer ist darüber hinaus, anhand der Region Hof gemeinsam mit den regionalen Playern ein Beispielkonzept für die Erzeugung und die Nutzung grünen Wasserstoffs aufzulegen, das anschließend national oder gar international adaptiert werden kann. „Die Region ist wie die meisten bayerischen Regionen in Summe ländlich und landwirtschaftlich geprägt und gleichzeitig dicht mit Unternehmen im Bereich der Logistik besiedelt. Dies ist eine ideale Voraussetzung, um beispielhaft eine gesamte regionale Wertschöpfung von Wasserstoff aus Biomasse zu skizzieren und voranzutreiben. Wir sind dazu aktuell auf der Suche nach Partnern aus Politik und von kommunaler Seite. Unser klares Ziel ist es, dies vor Ort umzusetzen und so auch die Mobilitätswende in der Region Hof voranzubringen“, so Geschäftsführer Andy Gradel. Die erste Anlage zur Demonstration der Funktionsweise und Wirtschaftlichkeit ist für dieses Vorhaben bereits im Bau.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tobias Plessing
Ingenieurwissenschaften
Maschinenbau
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
E-Mail: tobias.plessing@hof-university.de

Anhang
Regionaler Wasserstoff aus Biomasse – sauber und effizient!

(nach oben)


Permanenter Hitzezustand / Klimawandel fördert das Aufheizen von Seen

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Perioden mit außergewöhnlich warmem Oberflächenwasser in stehenden Gewässern, sogenannte „Seen-Hitzewellen“, werden bis zum Ende des 21. Jahrhunderts an Intensität und Dauer zunehmen. Das schreibt ein internationales Wissenschaftler*innen-Team unter Beteiligung des Helmholtz-Zentrums für Umweltforschung (UFZ) im Fachjournal Nature. Dies bedrohe die Artenvielfalt und bringe die Ökosysteme dieser Gewässer an die Grenzen ihrer Belastbarkeit.

Das Forscher*innen-Team modellierte unter Leitung der Europäischen Weltraumorganisation ESA die Auswirkungen der Klimaerwärmung auf 702 Seen weltweit, darunter der Chiemsee und der Müritzsee in Deutschland. Sie bezogen sich dabei auf drei Szenarien künftiger Treibhausgasemissionen, die sogenannten „Repräsentativen Konzentrationspfade“ (RCPs). Diese beschreiben, ob der Ausstoß von Kohlendioxid bis zum Jahr 2100 gestoppt wird (RCP 2.6), weiter steigt (RCP 6.0) oder sich ungebremst fortsetzt (RCP 8.5). Im letzten Fall würde laut des Weltklimarats IPCC bis Ende des Jahrhunderts die Erwärmung im weltweiten Durchschnitt mehr als vier Grad betragen, was der aktuellen Entwicklung entspricht.

Doch welche Auswirkungen hat diese Entwicklung auf die Seen? Für das RCP 8.5-Szenario zeigen die Modelle der Forscher, dass sich die durchschnittliche Intensität der Seen-Hitzewellen bis zum Jahr 2100 um 1,7 Grad von derzeit 3,7 Grad Celsius auf 5,4 Grad Celsius erhöhen wird. Zudem wird ihre durchschnittliche Dauer von derzeit etwa einer Woche auf mehr als drei Monate ansteigen. Geht man dagegen von einem RCP 2.6-Szenario aus, klettert die durchschnittliche Intensität einer Hitzewelle lediglich um 0,3 Grad auf rund 4,0 Grad Celsius bei einer durchschnittlichen Dauer von einem Monat.

Außerdem zeigte sich, dass die Tiefe der Seen, die in der Studie zwischen 2 und 60 Metern variierte, entscheidenden Einfluss darauf hat, wie stark die Hitzewellen ausfallen: In tieferen Seen halten sie länger an, sind aber weniger intensiv. Zum Beispiel dauern Hitzewellen in einem 30 Meter tiefen See ungefähr doppelt so lang und sind um ca. 2 Grad Celsius weniger intensiv wie in einem See, der nur 3 Meter tief ist.

Die Forscher gehen davon aus, dass sich – bedingt durch die prognostizierte Klimaerwärmung – in den kommenden Jahrzehnten Seen-Hitzewellen über mehrere Jahreszeiten erstrecken werden. „Außergewöhnliche Seen-Hitzewellen werden in Zukunft in vielen Fällen zur Normalität“, sagt der UFZ-Forscher und Mitautor der Studie Dr. Tom Shatwell. Bis zu 40 Prozent der untersuchten Seen könnten beim RCP 8.5-Szenario einen permanenten Hitzezustand erreichen, der sich über das ganze Jahr erstreckt und sich deutlich auf die physikalische Struktur und die chemischen Eigenschaften auswirkt. „Konkret heißt das zum Beispiel, dass sich die Durchmischungsverhältnisse in den Seen verändern können und damit die Verfügbarkeit von Sauerstoff im Wasser negativ beeinflussen. Auch die Gefahr der durch Cyanobakterien hervorgerufenen giftigen Blaualgenteppiche würde steigen. Und schließlich ist auch die biologische Vielfalt bedroht, weil manche in und an Seen lebenden Arten nicht sehr hitzetolerant sind“, sagt Tom Shatwell. Diese Entwicklung könne die Ökosysteme an die Grenzen ihrer Belastbarkeit treiben, resümieren die Autoren*innen der Studie.

Dass die Erwärmung von Gewässern auch für den Menschen Konsequenzen haben kann, zeigten UFZ-Wissenschaftler um den Seenforscher Dr. Karsten Rinke in einer anderen Studie. Ende des vergangenen Jahres berichteten sie in der Zeitschrift Science of the Total Environment, dass auch in Trinkwassertalsperren wie der Rappbodetalsperre im Harz die Wassertemperaturen deutlich steigen können – mit entsprechenden Auswirkungen auf das Management der Trinkwasserversorgung.

Wissenschaftliche Ansprechpartner:
Dr. Tom Shatwell
UFZ-Department Seenforschung
tom.shatwell@ufz.de

Originalpublikation:
RI Woolway, E Jennings, T Shatwell, M Golub, D Pierson and S Maberly: Lake heatwaves under climate change. Nature (2021), https://doi.org/10.1038/s41586-020-03119-1

(nach oben)


Benzinpreise steigen nach CO2-Bepreisung und Mehrwertsteuererhöhung weniger als erwartet

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Zu Jahresbeginn startete in Deutschland das Zeitalter der CO2-Bepreisung von fossilen Kraft- und Brennstoffen. Darüber hinaus ist der Mehrwertsteuersatz nach einer temporären Senkung wieder auf das ursprüngliche Niveau von 19 Prozent gestiegen. Dadurch sind die Preise an den Zapfsäulen gegenüber dem Ende des Jahres 2020 zwar gestiegen, bislang jedoch deutlich weniger als das nach Berechnungen des RWI zu erwarten gewesen wäre. Scheinbar wurde die Erhöhung der Abgaben auf die Kraftstoffpreise bisher nicht vollständig an die Autofahrerinnen und Autofahrer weitergegeben. Das ergibt die Auswertung der Benzin- und Rohölpreisdaten im Rahmen des RWI-Benzinpreisspiegels.

Das Wichtigste in Kürze:
• Zu Jahresbeginn startete in Deutschland das Zeitalter der CO2-Bepreisung von fossilen Kraft- und Brennstoffen. Zudem wurde der Mehrwertsteuersatz nach einer temporären Senkung auf 16 Prozent wieder auf das ursprüngliche Niveau von 19 Prozent angehoben. Die Preiserhöhung infolge der CO2-Bepreisung macht rein rechnerisch knapp 8 Cent bei Diesel und etwas mehr als 7 Cent bei Benzin aus. Die Mehrwertsteuererhöhung sollte bei Benzin zu einer zusätzlichen Preiserhöhung von etwas mehr als 3 Cent führen. Infolge beider staatlichen Maßnahmen müsste sich der Benzinpreis rein rechnerisch daher um etwas mehr als 10 Cent je Liter erhöhen. Bei Diesel sollte die Mehrwertsteuererhöhung zu einer zusätzlichen Preiserhöhung von knapp 3 Cent führen, insgesamt sollte sich der Dieselpreis ebenfalls um mindestens 10, eher aber um knapp 11 Cent je Liter erhöhen.

• Tatsächlich ist der Preis für Diesel vom 31. Dezember 2020 auf den 1. Januar 2021 im Durchschnitt lediglich um 4,9 Cent pro Liter gestiegen (Abbildung 1). Allerdings wurde die Preiserhöhung in Teilen bereits vor dem Jahresende 2020 vorweggenommen. Am höchsten fiel die durchschnittliche Preissteigerung vor und nach dem Jahreswechsel zwischen dem 28. Dezember 2020 und dem 6. Januar 2021 aus, sie betrug bei Diesel im Mittel 8,2 Cent.

• Beim Benzin (E10) lag der Preisanstieg vom 31. Dezember 2020 auf den 1. Januar 2021 noch etwas niedriger als bei Diesel, im Durchschnitt lediglich bei 4,7 Cent pro Liter (Abbildung 2). Auch bei Benzin ergab sich die höchste durchschnittliche Preissteigerung vor und nach dem Jahreswechsel zwischen dem 28. Dezember 2020 und dem 6. Januar 2021 und betrug im Mittel 8,4 Cent.

• Die Auswertung im Rahmen des RWI-Benzinpreisspiegels hat darüber hinaus ergeben, dass die Differenz zwischen Benzin- und Rohölpreisen während den Zeiten des ersten Corona-Lockdowns in den Monaten März und April 2020 besonders hoch ausfiel (Abbildung 1 und 2). Diese Differenz hat sich erst nach mehreren Monaten wieder reduziert. Im zweiten Halbjahr 2020 fiel die Differenz zwischen Benzin- und Rohölpreisen verglichen mit dem ersten Halbjahr sogar besonders niedrig aus. Dies lag wohl auch an der Senkung des Mehrwertsteuersatzes von 19 auf 16 Prozent.

Zur Entwicklung der Kraftstoffpreise sagt der Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI, Manuel Frondel: „Die durch die Einführung der CO2-Bepreisung und die Mehrwertsteuererhöhung rein rechnerisch erwartbaren Preiserhöhungen haben sich noch nicht gänzlich an den Zapfsäulen niedergeschlagen. Scheinbar wurde die Erhöhung der Abgaben auf die Kraftstoffpreise bisher nicht vollständig an die Autofahrerinnen und Autofahrer weitergegeben.“

Ihre Ansprechpartner/in dazu:
Prof. Dr. Manuel Frondel, Tel. 0201 8149-204
Sabine Weiler (Kommunikation), Tel.: 0201 81 49-213

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manuel Frondel, Tel. 0201 8149-204

Originalpublikation:
https://www.rwi-essen.de/presse/mitteilung/425/

Weitere Informationen:
http://www.rwi-essen.de/benzinpreisspiegel Weitere Informationen zum RWI-Benzinpreisspiegel. Über die Ergebnisse berichtet heute die „FAZ“ unter der Überschrift „Benzinpreis steigt weniger stark als erwartet“.

(nach oben)


Klimawandel und Wasserstraßen

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
„Wir verfügen rechtzeitig über geeignete Konzepte, um auch künftig unter den Bedingungen des Klimawandels wirtschaftliche und zuverlässige Schiffstransporte zu ermöglichen, und dies bei geringen Eingriffen in Wasserwirtschaft und Umwelt.“ So lautete das Fazit im Vortrag von Prof. Dr.-Ing. Christoph Heinzelmann, Leiter der Bundesanstalt für Wasserbau (BAW), beim 51. virtuellen Internationalen Wasserbau-Symposium Aachen 2021. Im Mittelpunkt des Vortrags standen die künftig zu erwartenden Auswirkungen des Klimawandels auf die Wasserstraßen sowie mögliche Anpassungsoptionen am Beispiel des Rheins.

Langfristig werden die veränderten Klimabedingungen gravierende Auswirkungen auf das Wasserdargebot in den Wasserstraßen haben. Vermehrte und anhaltend extreme Wetterereignisse sind zu erwarten, verbunden mit häufigeren und extremeren Hoch- und Niedrigwasserereignissen. „Als Folge des Klimawandels kann auf längere Sicht das Szenario, das wir im zweiten Halbjahr 2018 beim extremen und lang anhaltenden Niedrigwasserereignis am Rhein erlebt haben, zum Regelfall werden“, so Heinzelmann.

Für die Anpassung an künftig geringere Niedrigwasserabflüsse sind unterschiedliche Handlungsoptionen denkbar, die auch kombiniert werden können: Ein Handlungsstrang zielt auf bauliche Änderungen an den Schiffsgefäßen ab, wie z. B. kleinere Schiffsgefäße, leichtere Schiffe sowie höhere Effizienz der Schiffsantriebe bei Niedrigwasser. Ein weiterer Handlungsstrang umfasst Änderungen an der Wasserstraßeninfrastruktur. Diese reichen von verbesserten Wasserstandsvorhersagen über die Bereitstellung aktueller Tiefeninformationen der Wasserstraße bis hin zu flussbaulichen Anpassungsmaßnahmen. Hierzu zählen der Bau oder die Anpassung von Buhnen und Parallelwerken, die Verfüllung von Übertiefen sowie der Sohlenabtrag durch Baggerungen, die in felsigen Abschnitten ggf. mit Fräsung oder Meißelung kombiniert werden. Diese klassischen Maßnahmen sind in weiten Bereichen der frei fließenden Wasserstraßen zielführend. Mitunter stoßen sie aber auch an Grenzen, wenn z. B. ihre Hochwasserneutralität nicht sichergestellt werden kann. „Für diesen Fall haben wir im Rahmen einer Konzeptstudie für den Mittelrhein zwischen Mainz und St. Goar innovative flussbauliche Lösungen entwickelt, die einerseits die Regelungsziele erfüllen und andererseits geringe Auswirkungen auf Wasserwirtschaft und Umwelt haben“, sagte Heinzelmann.

Das Konzept mit dem Namen „Niedrigwasserkorridor“ beruht darauf, dass im Niedrigwasserfall der Verkehrsflächenbedarf der Schiffe kleiner ist als bei höheren Abflüssen. Bei klimabedingt geringeren Niedrigwasserabflüssen sind damit wirtschaftliche Schiffstransporte auch künftig möglich, indem die Fahrrinne nicht über die gesamte Breite vertieft wird und natürlich vorhandene Übertiefen genutzt werden. Fahrdynamische Untersuchungen der BAW für den Mittelrhein haben ergeben, dass bei Niedrigwasserabfluss im Begegnungsfall ca. 50 bis 80 % der heute vorhandenen Breite ausreichen. Diese reduzierte Breite kann nochmals deutlich verringert werden, wenn der Niedrigwasserkorridor nicht für den Begegnungsfall sondern für die Richtungsfahrt dimensioniert wird. Maßgebend hierfür ist die Fahrt zu Berg, da zum einen die Gütertransporte im Mittelrheinabschnitt überwiegend zu Berg gerichtet sind und zum anderen die dynamische Einsinktiefe der Schiffe in der Bergfahrt größer ist als in der Talfahrt. Für dieses Szenario sind im untersuchten Streckenabschnitt nur ca. 30 % der heutigen Fahrrinnenbreite erforderlich.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Christoph Heinzelmann
christoph.heinzelmann@baw.de

Weitere Informationen:
Der Video-Mitschnitt des Vortrags steht auf der eLearning-Plattform IZW-Campus bereit: https://izw-campus.baw.de/goto.php?target=cat_1842&client_id=iliasclient

(nach oben)


Erfolgsfaktoren für die Gestaltung einer teamorientierten Arbeitswelt

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Die Studie »Teamarbeit und ihre Arbeitsumgebung« des Fraunhofer IAO zeigt die Bedeutung der Bürogestaltung für eine erfolgreiche Zusammenarbeit im Team

Die Arbeitswelt verändert sich mit zunehmendem Tempo. Um eine schnelle Anpassung an die ständigen Veränderungen und dynamischen Prozesse zu ermöglichen, ist die Arbeitswelt mehr denn je auf Projekt- und Teamarbeit angewiesen. Die Studie des Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO, die im Verbundforschungsprojekt OFFICE 21® entstanden ist, veranschaulicht Erfolgsfaktoren für die Gestaltung einer teamorientierten Arbeitswelt.

Die Corona-Pandemie hat zu einer kritischen Auseinandersetzung mit der Büro- und Arbeitswelt, vor allem hinsichtlich der Zusammenarbeit geführt. Aufgrund der vermehrten Arbeit im Homeoffice mussten innerhalb kurzer Zeit neue digitale Kommunikations- und Austauschplattformen in den Arbeitsalltag integriert werden, um sowohl die Zusammenarbeit innerhalb der Arbeitsorganisation, als auch mit Externen aufrecht zu erhalten und eine Einschränkung der Informationsflüsse zu verhindern. Trotz der Etablierung digitaler Tools als Kommunikationsalternative, wurde vor allem der Verlust an spontanen und informellen Interaktionen mit Kolleg*innen vermisst. Begegnungen stärken nicht nur das Zugehörigkeitsgefühl, sondern sind nachweislich auch essenziell für kreative Prozesse und Innovation. Dass gute Ideen und Kreativität vor allem im persönlichen Austausch entstehen, zeigte bereits die »Office Analytics«-Studie des Fraunhofer IAO aus dem Jahr 2017.

Bei einer teilweisen Rückkehr in die Bürogebäude nach der Corona-Pandemie, stellt sich unweigerlich die Frage, wie das New Normal aussehen wird und wie das Büro gestaltet sein muss, um den (neuen) Anforderungen gerecht zu werden. Wie können und sollten Teams zusammenarbeiten, um erfolgreich zu sein? Und wie muss die Arbeitsumgebung gestaltet werden, um die Zusammenarbeit bestmöglich zu unterstützen? Diese Fragen stehen im Zentrum der Studie »Teamarbeit und ihre Arbeitsumgebung« des Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Die Publikation schließt auch die aktuelle Forschungsphase zum Thema »Office Analytics« ab. Nach momentanem Stand wird davon ausgegangen, dass das Büro noch stärker als zuvor ein Ort der Begegnung, des informellen Austauschs und des kreativen Arbeitens werden wird. Daher ist es von großer Bedeutung, sich bereits jetzt anzuschauen, wie eine erfolgsförderliche Umgebung gestaltet sein muss, um Teamarbeit bestmöglich zu unterstützen.
Teamarbeit ist vielfältig – und so auch die Arbeitsumgebung
Teams sind in der Lage, schneller auf Veränderungen in der Umwelt von Unternehmen zu reagieren und schneller Entscheidungen zu treffen als Einzelpersonen. Es ist daher nicht verwunderlich, dass die Zeit, die Mitarbeitende in Teamarbeit verbringen, in den letzten zwei Jahrzehnten um 50 Prozent gestiegen ist. Besonders agile Teams haben durch ihre flexible Arbeitsweise und damit hohe Anpassungsfähigkeit an die wirtschaftliche Dynamik an Bedeutung gewonnen. So vielfältig wie die Zusammensetzung von Teams und ihre Arbeitsweise sein kann, so vielfältig und umfassend muss auch die Arbeitsumgebung gedacht werden. Momentan finden sich in Teamumgebungen verstärkt klassische Raumstrukturen. Demgegenüber fehlt es oftmals an Rückzugsmöglichkeiten und Kollaborationsflächen. Dabei besteht ein großer Anteil der Teamarbeit aus konzentrierten Einzelarbeitsphasen. Die Studienergebnisse zeigen unter anderem, dass 41 Prozent der Arbeitszeit in Stillarbeit stattfindet. Zukünftig ist also darauf zu achten, dass den Mitarbeitenden je nach Aufgabe unterschiedliche Raummodule zur Verfügung stehen.

Auch die technische Ausstattung sowie die Nutzung virtueller Kollaborationsplattformen wird die Teamumgebung in Zukunft stark prägen und zu einer Veränderung der Arbeitslandschaft führen. Tendenziell wird auch die Anzahl räumlich verteilter Teams zunehmen und die Anforderungen an die Arbeitsumgebung sich zusätzlich verändern. »Aufgrund der steigenden Komplexität und Dynamik in der Arbeitswelt, wird die Zusammenarbeit in interdisziplinären Team immer entscheidender. Die Gestaltung der Arbeitsumgebung hat dabei einen signifikanten Einfluss auf die Qualität der Teamarbeit und sollte demensprechend aufmerksam geplant werden«, betont Katharina Dienes, Studienautorin und Wissenschaftlerin am Fraunhofer IAO.

Starke Voraussetzungen für zukünftige Teamarbeit schaffen
Festzuhalten ist, dass sich die Rolle des Büros verändert – durch die Corona-Pandemie in noch schnelleren Schritten. »Eine Rückkehr zu klassischen Strukturen ist undenkbar. Gerade deshalb ist jetzt der richtige Zeitpunkt, bisherige Ansätze und Strukturen zu überdenken und gute Voraussetzungen für unterschiedliche Tätigkeiten bei der Rückkehr ins Büro zu schaffen«, sagt Dienes. Die TEAMAS-Studie bietet eine Übersicht über die Zusammenstellung von erfolgreichen Teams und benennt Erfolgsfaktoren für eine teamunterstützende Arbeitsumgebung.

Wissenschaftliche Ansprechpartner:
Yeama Bangali
Multichannel-Content Managerin »FutureWork360«
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2124
E-Mail yeama.bangali@iao.fraunhofer.de

Originalpublikation:
Kostenloser Download: http://publica.fraunhofer.de/dokumente/N-605596.html

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/erfolgsfaktoren-fue…
https://office21.de/

(nach oben)


KIT: Thermomagnetische Generatoren wandeln Abwärme auch bei kleinen Temperaturunterschieden in Strom

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Die Verwertung von Abwärme trägt wesentlich zu einer nachhaltigen Energieversorgung bei. Wissenschaftlerinnen und Wissenschaftler des Karlsruher Institut für Technologie (KIT) und der Universität Tōhoku in Japan sind dem Ziel, Abwärme bei geringen Temperaturdifferenzen in Strom zu wandeln, nun wesentlich näher gekommen. Wie sie in der Zeitschrift Joule berichtet, haben sie bei thermomagnetischen Generatoren, die auf Dünnschichten einer Heusler-Legierung basieren, die elektrische Leistung im Verhältnis zur Grundfläche um den Faktor 3,4 gesteigert. (DOI: 10.1016/j.joule.2020.10.019)

Die Verwertung von Abwärme trägt wesentlich zu einer nachhaltigen Energieversorgung bei. Wissenschaftlerinnen und Wissenschaftler des Karlsruher Institut für Technologie (KIT) und der Universität Tōhoku in Japan sind dem Ziel, Abwärme bei geringen Temperaturdifferenzen in Strom zu wandeln, nun wesentlich näher gekommen. Wie sie in der Zeitschrift Joule berichtet, haben sie bei thermomagnetischen Generatoren, die auf Dünnschichten einer Heusler-Legierung basieren, die elektrische Leistung im Verhältnis zur Grundfläche um den Faktor 3,4 gesteigert. (DOI: 10.1016/j.joule.2020.10.019)

Die Presseinformation finden Sie unter: https://www.kit.edu/kit/pi_2021_001_thermomagnetische-generatoren-wandeln-abwarm…

Viele technische Prozesse nutzen die für sie eingesetzte Energie nur zum Teil; der Rest verlässt das System als Abwärme. Häufig entweicht diese Wärme ungenutzt in die Umgebung. Sie lässt sich jedoch auch zur Wärmebereitstellung oder zur Stromerzeugung verwenden. Je höher die Temperatur der Abwärme, desto einfacher und kostengünstiger ihre Verwertung. Eine Möglichkeit, niedrig temperierte Abwärme zu nutzen, bieten thermoelektrische Generatoren, welche die Wärme direkt in Strom wandeln. Bisher verwendete thermoelektrische Materialien sind allerdings teuer und teilweise toxisch. Thermoelektrische Generatoren erfordern zudem große Temperaturdifferenzen für Wirkungsgrade von nur wenigen Prozent.

Eine vielversprechende Alternative stellen thermomagnetische Generatoren dar. Sie basieren auf Legierungen, deren magnetische Eigenschaften stark temperaturabhängig sind. Die wechselnde Magnetisierung induziert in einer angelegten Spule eine elektrische Spannung. Bereits im 19. Jahrhundert stellten Forschende die ersten Konzepte für thermomagnetische Generatoren vor. Seitdem hat die Forschung mit verschiedenen Materialien experimentiert. Die elektrische Leistung ließ bisher allerdings zu wünschen übrig.

Wissenschaftlerinnen und Wissenschaftlern am Institut für Mikrostrukturtechnik (IMT) des KIT sowie an der Universität Tōhoku in Japan ist es nun gelungen, die elektrische Leistung von thermomagnetischen Generatoren im Verhältnis zur Grundfläche erheblich zu steigern. „Mit den Ergebnissen unserer Arbeit können thermomagnetische Generatoren erstmals mit etablierten thermoelektrischen Generatoren konkurrieren. Wir sind damit dem Ziel, Abwärme bei kleinen Temperaturunterschieden in Strom zu wandeln, wesentlich näher gekommen“, sagt Professor Manfred Kohl, Leiter der Forschungsgruppe Smart Materials and Devices am IMT des KIT. Die Arbeit des Teams ist Titelthema in der aktuellen Ausgabe der Energieforschungszeitschrift Joule.

Vision: Abwärmenutzung nahe Raumtemperatur
Sogenannte Heusler-Legierungen – magnetische intermetallische Verbindungen – ermöglichen als Dünnschichten in thermomagnetischen Generatoren eine große temperaturabhängige Änderung der Magnetisierung und eine schnelle Wärmeübertragung. Auf dieser Grundlage basiert das neuartige Konzept der resonanten Selbstaktuierung. Selbst bei geringen Temperaturunterschieden lassen sich die Bauelemente zu resonanten Schwingungen anregen, die effizient in Strom gewandelt werden können. Doch die elektrische Leistung einzelner Bauelemente ist gering, und bei der Hochskalierung kommt es vor allem auf Materialentwicklung und Bauweise an. Die Forschenden am KIT und an der Universität Tōhoku stellten in ihrer Arbeit anhand einer Nickel-Mangan-Gallium-Legierung fest, dass die Dicke der Legierungsschicht und die Grundfläche des Bauelements die elektrische Leistung in entgegengesetzter Richtung beeinflussen. Aufgrund dieser Erkenntnis gelang es ihnen, die elektrische Leistung im Verhältnis zur Grundfläche um den Faktor 3,4 zu steigern, indem sie die Dicke der Legierungsschicht von fünf auf 40 Mikrometer erhöhten. Die thermomagnetischen Generatoren erreichten eine maximale elektrische Leistung von 50 Mikrowatt pro Quadratzentimeter bei einer Temperaturänderung von nur drei Grad Celsius. „Diese Ergebnisse ebnen den Weg zur Entwicklung maßgeschneiderter parallel geschalteter thermomagnetischer Generatoren, die das Potenzial zur Abwärmenutzung nahe Raumtemperatur besitzen“, erklärt Kohl. (or)

Originalpublikation
Joel Joseph, Makoto Ohtsuka, Hiroyuki Miki, and Manfred Kohl: Upscaling of Thermomagnetic Generators Based on Heusler Alloy Films. Joule, 2020. DOI: 10.1016/j.joule.2020.10.019

Zur Veröffentlichung in Joule (Abstract): https://www.cell.com/joule/fulltext/S2542-4351(20)30508-0

Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Kontakt für diese Presseinformation:
Martin Heidelberger, Pressereferent, Tel.: +49 721 608-41169, E-Mail: martin.heidelberger@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9.300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24.400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Originalpublikation:
Zur Veröffentlichung in Joule (Abstract): https://www.cell.com/joule/fulltext/S2542-4351(20)30508-0

(nach oben)


Kommt Trinkwasser bald aus dem Meeresboden?

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Es klingt paradox – in vielen Regionen unseres blauen Planeten könnte die Trinkwasserversorgung in naher Zukunft problematisch werden. Meerwasser ist salzhaltig und daher nicht trinkbar. Doch unter dem Meeresboden gibt es bislang ungenutzte Frischwasserreserven, auf die die Geowissenschaften erst seit Kurzem ihre Aufmerksamkeit richten. Eine neue Übersichtsstudie, die in der internationalen Fachzeitschrift Reviews of Geophysics veröffentlicht wurde, zeigt Möglichkeiten, die mit diesen Wasserressourcen verbunden sind, aber auch bestehende Wissenslücken.

Trinkwasser ist eine lebenswichtige Ressource. Obwohl 70 Prozent der Erdoberfläche von Wasser bedeckt sind, ist der Großteil davon – etwa 97 Prozent – salzhaltig und damit ungenießbar. Der Klimawandel, das globale Bevölkerungswachstum, die veränderte Landnutzung und andere Faktoren setzen die vorhandenen Trinkwasservorräte unter Druck. Nicht umsonst haben die Vereinten Nationen eine sichere Wasserversorgung in die Liste ihrer nachhaltigen Entwicklungsziele aufgenommen.

In den 1960er Jahren wurden erstmals Frischwasservorkommen unter dem Meeresboden nachgewiesen. Wissenschaftler*innen aus sechs Ländern unter der Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel und der Universität Malta haben nun in der internationalen Fachzeitschrift Reviews of Geophysics die erste globale Bestandsaufnahme solcher Offshore- Grundwasservorkommen (Offshore Freshened Groundwater, OFG) veröffentlicht. „Zusammenfassend lässt sich sagen, dass OFG definitiv kein lokales Phänomen ist. Es ist vor den meisten Kontinentalrändern rund um den Globus dokumentiert worden“, sagt Dr. Aaron Micallef vom GEOMAR, Erstautor der Studie.

Für die Übersichtsstudie wertete das Team insgesamt 300 dokumentierte Aufzeichnungen von OFG aus. Es schätzt das globale Volumen dieser Vorkommen auf eine Million Kubikkilometer. Das ist etwa doppelt so viel wie das Volumen des Schwarzen Meeres und etwa fünf Prozent des geschätzten globalen Grundwasservolumens in den oberen zwei Kilometern der kontinentalen Kruste. Die Vorkommen befinden sich hauptsächlich in Gebieten bis zu 55 Kilometer von den jeweiligen Küsten entfernt und bis zu einer Wassertiefe von 100 Metern. Die OFG entstanden überwiegend während Perioden mit besonders niedrigem Meeresspiegel in den letzten 2,5 Millionen Jahren.

Geochemische Untersuchungen von OFG-Proben haben Aufschluss über die Mechanismen bei der Grundwassereinlagerung gegeben. „Die neueste*n seismischen und elektromagnetischen Methoden der Meeresbodenerkundung sowie verbesserte Grundwassermodelle haben in den letzten Jahren unser Verständnis von Form und Ausdehnung der lange Zeit wenig beachteten Grundwasservorkommen vor den Küsten deutlich verbessert“, betont Aaron Micallef.

Im Rahmen des vom Europäischen Forschungsrat geförderten MARCAN-Projekts wurde der Meeresboden vor Neuseeland und Malta, Dr. Micallefs Heimatland, mit solchen Techniken gezielt untersucht. „Die bisherigen Ergebnisse sind ermutigend, weil wir OFG in sehr unterschiedlichen geologischen Umgebungen kartieren und detaillierte Kenntnisse darüber gewinnen konnten, wie es abgelagert wurde“, sagt Dr. Micallef.

Die Studie zeigt aber auch wichtige Lücken im Verständnis von OFG auf, wie zum Beispiel den genauen Zeitpunkt der jeweiligen Entstehung und ob die Vorkommen derzeit neu befüllt werden. „Diese Informationen sind aber entscheidend, wenn wir die mögliche Nutzung von OFG als unkonventionelle Wasserquelle beurteilen wollen“, schließt Dr. Micallef.

Originalpublikation:
Micallef, A., M. Person, C. Berndt et. al. (2019): Offshore Freshened Groundwater in Continental Margins. Review of Geophysics, https://doi.org/10.1029/2020RG000706

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://marcan.eu/ Das MARCAN-Projekt

(nach oben)


Grundwasser beeinflusst die Chemie des Ozeans

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Metalle und andere chemische Substanzen, die von den Kontinenten in den Ozean gelangen, beeinflussen dessen Chemie erheblich. Flüsse sind als Transportwege für diese Substanzen schon lange im Fokus der Forschung. Eine neue Studie mit Beteiligung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, die jetzt in der internationalen Fachzeitschrift Nature Communications erschienen ist, zeigt aber, dass auch Grundwasseraustritte in Küstengewässern ungefähr ein Zehntel zu diesem Transport beitragen. In globalen Modellen von Stoffflüssen müssen sie daher stärker berücksichtigt werden als bisher.

Flüsse transportieren nicht nur Süßwasser aus dem Inneren der Kontinente bis in den Ozean. Auch Sedimente und gelöste Elemente wie beispielsweise Lithium, Calcium oder Strontium gelangen so ins Meer. Dass dieses Material Einfluss auf die Chemie des Meerwassers ausübt, ist schon lange bekannt und Gegenstand von genauen Untersuchungen. Doch jetzt hat ein internationales Team mit Beteiligung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel in der Fachzeitschrift Nature Communications eine Studie veröffentlicht, die zeigt, dass auch an den Küsten austretendes Grundwasser die Ozeanchemie erheblich prägt und bei der Modellierung globaler Stoffkreisläufe mit berücksichtigt werden muss. Die Erkenntnisse haben auch Auswirkungen auf die Interpretation von natürlichen Archiven zur Klimageschichte der Erde.

Während Flussmündungen einfach zu finden und zu beproben sind, sind Grundwasseraustritte vor den Küsten deutlich schwerer zu identifizieren und zu charakterisieren. „Daher bildeten sie immer eine Quelle für Unsicherheiten bei der Modellierung globaler Stoffzyklen“, sagt Kimberley Mayfield, die die Studie als Doktorandin an der University of California Santa Cruz (UCSC) leitete. „Forschende auf der ganzen Welt haben jetzt große Anstrengungen unternommen, um genauere Daten zu erhalten.“

Das an der Studie beteiligte Team konzentrierte sich auf fünf Schlüsselelemente – Lithium, Magnesium, Calcium, Strontium und Barium – und hat deren Konzentrationen und Isotopenverhältnisse in Grundwasseraustritten an 20 Standorten auf der ganzen Welt gemessen. Zusätzlich hat es zuvor veröffentlichte Daten in die Studie einfließen lassen.

„Genau diese Elemente sind wichtig, weil sie aus der Verwitterung von Gesteinen stammen. Die Verwitterung von Silikatgesteinen führt über lange Zeiträume zu einer enormen Aufnahme von Kohlendioxid aus der Atmosphäre“, erklärte Mayfield. Es handelt sich also um Elemente, die auch für das Verständnis der Klimageschichte der Erde große Bedeutung haben.

„Unsere Ergebnisse zeigen, dass der Eintrag dieser chemischen Substanzen und Metalle über das Grundwasser in den Ozean aufgrund der schlechten Datenlage immer unterschätzt, der Eintrag über Flüsse dafür überschätzt wurde“, sagt Prof. Dr. Anton Eisenhauer vom GEOMAR, Zweitautor der Studie. „Diese Informationen sind nützlich, um zu verstehen, wie die Verwitterung von Gesteinen nicht nur in der Gegenwart, sondern auch in der Vergangenheit mit dem Klima zusammenhängt“, führt Professor Eisenhauer weiter aus.

Der Studie zur Folge beträgt die Menge der genannten Elemente, die mit dem Grundwasser ins Meer gelangen, zwischen fünf und 16 Prozent von dem, was aus Flüssen stammt. Die Ergebnisse zeigen auch, dass sich die Isotopenzusammensetzung der Elemente aus dem Grundwasser von der aus Flüssen unterscheiden kann. Die Eigenschaften des Grundwassers sind stark abhängig von der Geologie der Küsten, während das Flusswasser stärker vom Inneren der Kontinente beeinflusst wird.

„Es ist wichtig zu erkennen, dass das Grundwasser global gesehen einen Unterschied bei den Stoffflüssen macht. Jetzt, da wir über diesen großen Datensatz verfügen, können diese Flüsse auch durch weitere Probenahmen weiter verbessert und präzisere Modelle für die globalen Grundwasseraustritte entwickelt werden“, fasst Professor Eisenhauer zusammen.

Originalpublikation:
Originalarbeit:
Mayfield, K. K., A. Eisenhauer, D. P. Santiago Ramos, J. A. Higgins, T. J. Horner, M. Auro, T. Magna, N. Moosdorf, M. A. Charette, M. E. Gonneea, C. E. Brady, N. Komar, B. Peucker-Ehrenbrink, A. Paytan (2021): Groundwater discharge impacts marine isotopebudgets of Li, Mg, Ca, Sr, and Ba. Nature Communications, https://doi.org/10.1038/s41467-020-20248-3

(nach oben)


Corona-Warn-App auf dem Prüfstand

Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Studie untersucht, wie die Corona-Warn-App genutzt wird, wie sie Überzeugungen und Verhalten beeinflusst und ob sie sich als Instrument für Notfälle eignet – Förderung durch die VolkswagenStiftung

Im Kampf gegen Corona gehört die Corona-Warn-App der Bundesregierung zu den Eckpfeilern, um Ansteckungsrisiken zu erkennen und Infektionsketten zu unterbrechen. Die App wurde Mitte Juni 2020 in Deutschland eingeführt und bisher über 20 Millionen Mal heruntergeladen. Wissenschaftlerinnen und Wissenschaftler der Johannes Gutenberg-Universität Mainz (JGU) untersuchen in einem aktuellen Forschungsprojekt, wie die Corona-Warn-App mittlerweile beurteilt wird und wie sie das Entscheidungsverhalten der Bevölkerung beeinflusst. Die VolkswagenStiftung unterstützt die Forschungen, die im Arbeitsbereich Technik- und Innovationssoziologie, Simulationsmethoden unter der Leitung von Prof. Dr. Petra Ahrweiler durchgeführt werden, mit knapp 120.000 Euro.

Einfluss der Corona-Warn-App auf Einstellung und Verhalten der Nutzer im Fokus
Die Forschenden untersuchen in ihrer Fallstudie die Bedeutung der Corona-Warn-App aus zwei Perspektiven: aus Sicht von Beteiligten der Regierung, des Robert Koch-Instituts und der Entwickler einerseits und aus Sicht der Nutzer andererseits. „Wir kontaktieren zurzeit die Akteure, die an der Erstellung der Corona-Warn-App beteiligt waren, um sie nach ihren Absichten und ihren Erwartungen über die Verwendung der App zu befragen“, erklärt Maia Janowitz, Mitarbeiterin in der Arbeitsgruppe von Petra Ahrweiler. Gleichzeitig ermittelt das Forscherteam, wie Nutzer mit der Corona-Warn-App umgehen und welche Erfahrungen sie gemacht haben. Hierzu werden insbesondere Studierende befragt. Schließlich soll erforscht werden, wie sich die Nutzung der App darauf auswirkt, welche Überzeugungen über die Pandemie vertreten werden und welches Verhalten zur Infektionseindämmung daraus folgt.

Die Erkenntnisse aus der Fallstudie sollen uns eine bessere Vorstellung davon geben, wie sich künstliche Intelligenz – hier in Form der Smartphone-App – auf das menschliche Denken, auf das Notfallmanagement und auf die Covid-19-Pandemie in Deutschland auswirkt. „Der Erfolg der App ist ein Eckpfeiler in der Covid-19-Strategie der Bundesregierung“, so Maia Janowitz. „Die Erkenntnisse über den Einfluss der App auf Überzeugungen und auf das tatsächliche Verhalten, um das Ansteckungsrisiko zu verringern, haben eine große Bedeutung für die Gesellschaft insgesamt.“ Janowitz weist darauf hin, dass die App in nur 50 Tagen entwickelt worden ist und unter anderem aus Datenschutzgründen nicht genau verfolgen kann, wie sich Covid-19 unter der Bevölkerung ausbreitet.

Förderung erfolgt als Zusatzmodul zu AI Navi – Einfluss künstlicher Intelligenz auf Populismus
Die VolkswagenStiftung fördert das Projekt mit dem Titel „Artificial Intelligence Navigation of Complex Social Landscapes (AI Navi) – Coronavirus Module” im Rahmen ihrer Initiative „Corona Crisis and Beyond – Perspectives for Science, Scholarship and Society“. Die Förderung erfolgt als Zusatzmodul zum Hauptprojekt AI Navi, das ebenfalls im Arbeitsbereich von Petra Ahrweiler angesiedelt ist. AI Navi soll erforschen, ob und wie künstliche Intelligenz gesellschaftspolitische Entscheidungen beeinflusst und zu den gegenwärtigen Erscheinungsformen des Populismus weltweit beiträgt. Die VolkswagenStiftung hat hierzu einen „Planning Grant“ gewährt. Die Ergebnisse aus der Fallstudie sollen in diese Vorarbeiten einfließen.

Der Arbeitsbereich Technik- und Innovationssoziologie, Simulationsmethoden setzt sich in verschiedenen Projekten aktiv mit den dramatischen Auswirkungen der Corona-Pandemie auseinander: Abgesehen von den Untersuchungen über den Einfluss der Corona-Warn-App befasst sich das Team mit Entscheidungshilfen für das Corona-Krisenmanagement und auch mit Ansätzen zur Verbesserung der Situation von Einwanderungsarbeitern in der Krise.

Weiterführende Links:
https://technikundinnovation.soziologie.uni-mainz.de/ – Technik- und Innovationssoziologie, Simulationsmethoden
https://www.volkswagenstiftung.de/unsere-foerderung/unser-foerderangebot-im-uebe… – Förderangebot der VolkswagenStiftung

Wissenschaftliche Ansprechpartner:
Maia Janowitz
Technik- und Innovationssoziologie, Simulationsmethoden
Institut für Soziologie
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-29240
Fax +49 6131 39-26525
E-Mail: mjanowit@uni-mainz.de
https://technikundinnovation.soziologie.uni-mainz.de/team/maia-janowitz-m-sc/

(nach oben)


Corona-Trend Angeln: Die Artenvielfalt könnte profitieren

Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Neue Studie belegt, dass von Anglern genutzte Baggerseen mindestens genauso viele Arten beherbergen wie solche mit Fischfangverbot

Seit dem Ausbruch von Corona erlebt der private Fischfang als pandemisch unbedenkliches Frischlufthobby eine Renaissance. Eine neue Studie des Forschungsprojekts BAGGERSEE beschäftigt sich kritisch mit dem Einfluss des Angelns und der anglerischen Gewässerbewirtschaftung auf die Artenvielfalt an Baggerseen. Das Ergebnis: Von Angelvereinen genutzte und bewirtschaftete Baggerseen stehen unbeangelten Seen in ihrer Artenvielfalt in nichts nach.

Zum Forschungsprojekt BAGGERSEE gehören Professor Dr. Robert Arlinghaus von der Humboldt-Universität zu Berlin in Kooperation mit dem Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), der Universität Bremen, der Technischen Universität Berlin und dem Anglerverband Niedersachsen.

Die Forschenden untersuchen seit 2016 den Einfluss des Angelns auf die Artenvielfalt an insgesamt 26 niedersächsischen Baggerseen. Erste Resultate wurden nun im Fachmagazin Aquatic Conservation veröffentlicht.

„Die Ergebnisse zeigen, dass Schutz der Artenvielfalt und Nutzung von Fischpopulationen und Gewässern über Angler vereinbar sein können“, fasst Fischereiprofessor Robert Arlinghaus von der Humboldt-Universität zu Berlin und dem Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) zusammen. „Künstlich entstandene Baggerseen dienen als Ersatzlebensraum für viele ans Wasser gebundene Arten. Diese werden in ihrer Artenvielfalt nicht vom Angeln oder der anglerischen Gewässerhege beschränkt, jedenfalls nicht unter den von uns untersuchten Gewässerbedingungen in Niedersachsen.“, ergänzt Erstautor Robert Nikolaus vom IGB.

Europaweit gibt es einen beträchtlichen Anteil kleiner künstlicher Gewässer wie Baggerseen und Teiche. In Niedersachsen sind sogar 99% aller Seen künstlichen Ursprungs.

Beim Projekt BAGGERSEE testen die Forschenden gemeinsam mit Angelvereinen, wie diese Baggerlöcher ökologisch aufgewertet werden können. Den Anglern kommt dabei als Gewässerpflegern eine Schlüsselrolle zu. Sie bringen in Baggerseen Totholz ein und schaffen Flachwasserzonen, um diese für Tiere und Pflanzen wirtlicher zu gestalten. Das Vorhaben wird gemeinsam gefördert durch das Bundesministerium für Bildung und Forschung (BMBF) sowie das Bundesamt für Naturschutz (BfN) mit Mitteln des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit (BMU).

Für ihre Teilstudie verglichen die Fischereiforschenden die 16 von Angelvereinen genutzte und gepflegte Baggerseen mit zehn Seen ohne angelfischereiliche Nutzung stattfand. Für den Vergleich beider Seetypen fassten die Wissenschaftlerinnen und Wissenschaftler die dort vorkommenden Arten in sieben Artengruppen zusammen: Uferpflanzen, Wasserpflanzen, Groß- und Kleinlibellen, Amphibien, Sing- und Wasservögel.

Anglerinnen und Angler können die Tiere auf mannigfache Weise beeinflussen. Beispielsweise indem sie brütende Vögel aufscheuchen, Trittschäden verursachen oder beim Freischneiden von Angelstellen Uferpflanzen entfernen. Durch das Einsetzen bodenwühlender Fische kann auch das Unterwasserkraut zurückgehen. Abgerissene Angelhaken und Schnüre können insbesondere für Wasservögel zur Falle werden.

Das BAGGERSEE Team schließt nicht aus, dass es im Einzelfall zu solchen Störungen kommen kann. Vergleicht man jedoch die Artengruppen als Ganzes, sind beangelte Baggerseen der Studie zufolge mindestens genauso artenreich wie nicht beangelte. Auch das Vorkommen bedrohter Arten unterschied sich zwischen den unterschiedlich genutzten Seen nicht. Zudem fanden die Forscher in den Angelgewässern sogar mehr Unterwasserpflanzen als in den Vergleichsseen. Möglicherweise begünstigen die mosaikartig angelegten Angelstellen das Wachstum von Wasserpflanzen, da dort mehr Licht einfallen kann.

Die Ergebnisse deuten an, dass naturschutzfachlich begründete Angelverbote nicht zwangsläufig der Artenvielfalt helfen.
„Angelvereine sind zentrale Gewässerpfleger und wesentliche Gewässernutzer. Unsere Studie zeigt, dass Anglerinnen und Angler ihrem Hobby nachgehen können, ohne die biologische Vielfalt an und um die Gewässer herum zu schädigen. Das ist ein wichtiges Signal in der heutigen Zeit, in der das Interesse am Angeln aufgrund der Pandemie so hoch ist wie nie“, resümiert Fischereiprofessor und Communicator Preisträger 2020 Robert Arlinghaus.

Wissenschaftliche Ansprechpartner:
Robert Arlinghaus
Fachgebiet für Integratives Fischereimanagement und Integrative Research Institute on Transformations of Human-Environment Systems (IRI THESys)
Lebenswissenschaftliche Fakultät, Humboldt-Universität zu Berlin
Telefon: 030/64181653
E-Mail: arlinghaus@igb-berlin.de

Originalpublikation:
Nikolaus R, Schafft M, Maday A, Klefoth T, Wolter C, Arlinghaus R. Status of aquatic and riparian biodiversity in artificial lake ecosystems with and without management for recreational fisheries: Implications for conservation. Aquatic Conservation: Marine And Freshwater Ecosystems. 2020; https://doi.org/10.1002/aqc.3481

Weitere Informationen:
http://www.baggersee-forschung.de
https://www.ifishman.de/

Anhang
PM HU: Corona-Trend Angeln: Die Artenvielfalt könnte profitieren

(nach oben)


Schlaf für Erholung des Gehirns unersetzlich

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Forscher*innen des Universitätsklinikums Freiburg weisen erstmals direkt nach, dass während des Schlafens im Gehirn aktive Erholungsprozesse ablaufen, die sich nicht durch Ruhe ersetzen lassen / Erkenntnisse relevant für optimale Leistung

Schlaf ist im Tierreich allgegenwärtig und lebensnotwendig. Auch seine Bedeutung für die Verstetigung und Verstärkung von Leistungen des Gehirns ist seit langem bekannt. Strittig war bislang allerdings, ob dies vor allem darauf zurückzuführen ist, dass das Gehirn im Schlaf keine neuen Reize verarbeiten muss oder ob aktive neuronale Prozesse unwichtige Informationen und Verbindungen im Gehirn schwächen. Nun ist es Forscher*innen des Universitätsklinikums Freiburg gelungen nachzuweisen, dass Schlaf für die Verbesserung kognitiver Fähigkeiten mehr ist als die Abwesenheit äußerer Reize. Die Erkenntnisse, die am 6. Januar 2021 im Fachmagazin Sleep erschienen sind, geben wichtige Hinweise für die Planung intensiver Lernphasen wie das Abitur oder Prüfungsabschlüsse.

„Schlaf ist für die Erholung des Gehirns unersetzlich. Er lässt sich für eine Leistungsverbesserung nicht durch Ruhephasen ersetzen. Das zeigen wir in dieser Studie erstmals eindeutig. Der Zustand des Gehirns während des Schlafs ist einmalig“, sagt Prof. Dr. Christoph Nissen, der als Forschungsgruppenleiter an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg die Studie leitete und mittlerweile an der Universität Bern, Schweiz, tätig ist. Bereits in früheren Studien konnten Nissen und sein Team zeigen, dass Schlaf eine Doppelfunktion für das Gehirn hat: Nicht benötigte Verbindungen werden geschwächt und relevante Verbindungen gestärkt.

In der aktuellen Studie führten die Forscher*innen ein visuelles Lernexperiment mit 66 Proband*innen durch. Zunächst übten alle Teilnehmer*innen, bestimmte Muster zu unterscheiden. Im Anschluss war eine Gruppe wach und sah dabei Videos oder spielte Tischtennis. Eine Gruppe schlief für eine Stunde und die dritte Gruppe blieb wach, war jedoch in einem abgedunkelten Raum ohne äußere Reize und unter kontrollierten Schlaflaborbedingungen. Die Gruppe, die geschlafen hatte, schnitt im Anschluss nicht nur deutlich besser ab als die Gruppe die wach und aktiv war. Auch die passiv-wache Gruppe konnte sie übertreffen. Die Leistungsverbesserung war an typische Tiefschlafaktivität des Gehirns gebunden, die eine wichtige Funktion für die Verknüpfungsstärke von Nervenzellen hat. „Das zeigt, dass es der Schlaf selbst ist, der den Unterschied macht“, sagt Ko-Studienleiter Prof. Dr. Dieter Riemann, Leiter des Schlaflabors an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg. In Kontrollexperimenten stellten die Freiburger Forschenden sicher, dass Müdigkeit und andere allgemeine Faktoren keinen Einfluss auf das Ergebnis hatten.

Die Studie zeigt, dass Schlaf in Phasen von intensiven Leistungsanforderungen in Beruf oder Alltag nicht durch Ruhe ersetzt werden kann.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Nissen
Forschungsgruppenleiter
Klinik für Psychiatrie und Psychotherapie
Universitätsklinikum Freiburg
Christoph.Nissen@upd.ch

Originalpublikation:
Original-Titel der Studie: Sleep is more than rest for plasticity in the human cortex
DOI: 10.1093/sleep/zsaa216
Link zur Studie: https://academic.oup.com/sleep/advance-article-abstract/doi/10.1093/sleep/zsaa21…

(nach oben)


Das neue Gesicht der Antarktis

Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Die Antarktis könnte künftig ergrünen und von neuen Arten besiedelt werden. Andererseits dürften Spezies verschwinden.

Diese und viele andere Ergebnisse haben 25 Forscherinnen und Forscher in einem internationalen Großprojekt zusammengetragen, in dem sie Hunderte von Fachartikeln über die Antarktis aus dem letzten Jahrzehnt ausgewertet haben. Damit liefert das Team eine ungewöhnlich umfassende Einschätzung des aktuellen und künftigen Zustands des Kontinents und des ihn umgebenden Südlichen Ozeans.

Noch nie zuvor haben Wissenschaftlerinnen und Wissenschaftler so viele neue Erkenntnisse über die biologischen und biochemischen Vorgänge in der Antarktis gesammelt wie im vergangenen Jahrzehnt. Dieses Wissen haben jetzt 25 Fachleute unter der Leitung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) im Projekt „AnT-ERA“ ausgewertet und zusammengefasst. Alles in allem musste das AnT-ERA-Team dafür mehrere Hundert Fachartikel zur Antarktis durcharbeiten. Die wichtigsten Erkenntnisse hat es jetzt in einem Übersichtsartikel in zehn Kernbotschaften zusammengefasst, die verschiedene Aspekte wie die Ozeanversauerung, die Artenvielfalt oder die Bedeutung des Meereises für die Lebewesen thematisieren. „Betrachtet man den Zeitraum von 1970 bis heute, dann sind allein in den Jahren 2010 bis 2020 rund 80 Prozent aller wissenschaftlichen Publikationen zur Biologie und Biochemie in der Antarktis erschienen. Für uns war das der Grund, dieses enorme Wissen in einem Fachartikel zu kondensieren“, sagt Meeresbiologe und Projektkoordinator Julian Gutt vom AWI. Die Projektergebnisse sind jetzt im Fachjournal Biological Reviews erschienen.

Zunahme der Artenvielfalt
Eine Erkenntnis der Forscher ist, dass die Erwärmung der antarktischen Gewässer im Zuge des Klimawandels sehr wahrscheinlich ist, und dass damit Pflanzen- und Tierarten aus wärmeren Regionen in die Antarktis einwandern dürften. Wobei nicht nur die Temperatur, sondern auch die künftige Eisbedeckung eine Rolle spielen wird. So wird für die kommenden Jahrzehnte unter anderem damit gerechnet, dass sich das Ergrünen eisfreier Küstengebiete während des Südsommers verstärken wird, weil Moose oder Flechten einwandern. Alles in allem dürfte die Artenvielfalt zunächst zunehmen. Bei einer andauernden Erwärmung aber werden die an extrem tiefe Temperaturen angepassten Arten das Nachsehen haben. „Wir rechnen damit, dass sich solche Arten in die letzten verbliebenen sehr kalten Bereiche der Antarktis zurückziehen werden“, sagt Julian Gutt. „Das heißt auch, dass man diese Regionen wird unter Schutz stellen müssen, um diese Arten zu erhalten.“

Mit der Versauerung leben?
Was die Ozeanversauerung angeht, sieht die Zukunft laut Studie düster aus. Bis zum Ende dieses Jahrhunderts rechnen die Experten mit einer weitgehenden Versauerung der antarktischen Gewässer. „Es steht außer Frage, dass vor allem jene Lebewesen Probleme bekommen, die Kalkschalen bilden“, sagt Gutt. „Ob sie ganz aussterben oder ob einige Arten ihren Stoffwechsel an die veränderten Bedingungen anpassen, können wir aktuell ebenfalls nicht mit Sicherheit sagen.“ Eine überraschende Erkenntnis der letzten zehn Jahre Forschung war auch, dass die scheinbar so trägen Organismen am Meeresboden der Antarktis wie etwa einige Schwämme oder Seescheiden sehr schnell auf gute Lebensbedingungen reagieren – schnell wachsen oder sich stark vermehren. Das Beunruhigende: Bei ungünstigen Umweltbedingungen reagieren sie aber auch besonders empfindlich. Mit den starken Veränderungen, die der Klimawandel mit sich bringt, könnten diese Arten ebenfalls Probleme bekommen.

Während sich seit längerem vor allem die antarktische Halbinsel erwärmt hat, die in den Südatlantik hineinragt, haben die Erwärmung und damit der Verlust von Meereis in den vergangenen drei Jahren auch auf die Ostantarktis übergegriffen. Ob das ein langfristiger Trend ist oder nur eine kurzfristige Veränderung, können die Experten noch nicht sagen. In jedem Fall aber ist diese Veränderung der physikalischen Umweltparameter beunruhigend, weil sie einen erheblichen Einfluss auf die künftige Entwicklung des Lebens im Südlichen Ozean haben könnte.

Wie viel CO2 kann die Antarktis schlucken?
Unklar ist bislang auch noch, inwieweit ein Verlust von Meereis dazu beiträgt, dass die Gewässer um die Antarktis durch verstärktes Algenwachstum künftig mehr Kohlendioxid aus der Atmosphäre aufnehmen werden oder nicht. Grundsätzlich nehmen Fachleute an, dass das Algenwachstum zunimmt, wenn sich das Meereis zurückzieht, weil die Algen dann beispielsweise stärker vom Licht beschienen werden. Da Algen beim Wachsen über die Photosynthese Kohlendioxid aus der Atmosphäre aufnehmen, kann das dem Klimawandel entgegenwirken. Seit längerem deuten einfache Prognosen darauf hin, dass die Algen in den Gewässern um die Antarktis rund 25 Prozent mehr CO2 schlucken würden, wenn das Gebiet künftig im Südsommer gänzlich frei von Meereis wäre. Doch zeigt die aktuelle Studie, dass solche pauschalen Aussagen schwierig sind. „Die von uns analysierten Publikationen machen klar, dass die Situation geographisch sehr unterschiedlich ist“, sagt Julian Gutt. „Aber immerhin wissen wir jetzt, welche Meeresgebiete und Messgrößen wir uns künftig genauer anschauen müssen, um Antworten zu finden.“

Knackige Kernbotschaften
Dass ausgerechnet in den vergangenen Jahren so viele neue Fakten zusammengetragen worden sind, führen die Autorinnen und Autoren der Studie vor allem auf die technische Entwicklung zurück – etwa von molekularbiologischen Methoden, von neuen Schiffen und Stationen oder auch autonomen Unterwasserfahrzeugen, von denen einige sogar unter dem Eis navigieren können. Neue numerische und konzeptionelle Modelle wiederum helfen dabei, die Zusammenhänge in den Ökosystemen besser zu verstehen. Für Julian Gutt besteht die Leistung dieser Studie vor allem darin, dass es den 25 Autorinnen und Autoren gelungen ist, sich auf zehn Kernbotschaften zu einigen, die recht plakativ die Ergebnisse zusammenfassen und auch einen Blick in die Zukunft werfen.

Hinweise für Redaktionen
Die Studie ist unter folgendem Titel im Online-Portal des Fachjournals Biological Reviews erschienen: Julian Gutt et al.: Antarctic ecosystems in transition – life between stresses and opportunities. DOI: 10.1111/brv.12679

Ihr wissenschaftlicher Ansprechpartner im Alfred-Wegener-Institut ist Prof. Dr. Julian Gutt (E-Mail: Julian.Gutt@awi.de).

Aufgrund der Corona-Arbeitsregelungen kann es sein, dass die beteiligten Wissenschaftler im Home-Office arbeiten. Wir bitten Sie daher, Interviewanfragen per E-Mail zu schicken (die Pressestelle in cc). Die Kollegen rufen Sie dann schnellstmöglich zurück.

Für weitere Rückfragen steht Ihnen die Pressestelle des Alfred-Wegener-Instituts per E-Mail (medien@awi.de) zur Verfügung.

Druckbare Bilder finden Sie in der Online-Version dieser Pressemitteilung: https://www.awi.de/ueber-uns/service/presse.html

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 19 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Originalpublikation:
https://doi.org/10.1111/brv.12679

Weitere Informationen:
https://www.awi.de/ueber-uns/service/presse.html Pressemeldungen des Instituts

(nach oben)


Wenn ältere Beschäftigte ihr Wissen nicht mit Jüngeren teilen

Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Studie aus der Arbeits- und Organisationspsychologie der Justus-Liebig-Universität Gießen zur Altersdiskriminierung und ihre Folgen für Unternehmen

Ältere Beschäftigte, die sich wegen ihres Alters diskriminiert fühlen und aufgrund negativer Erlebnisse ein zu geringes Zutrauen in die eigene Kompetenz („Selbstwirksamkeit“) haben, teilen ihre Kenntnisse und Erfahrungen zu selten mit jüngeren Kolleginnen und Kollegen. Für den Erfolg eines Unternehmens ist der Erfahrungsschatz älterer Mitarbeiterinnen und Mitarbeiter jedoch eine wertvolle Ressource, die zum Unternehmenserfolg maßgeblich beitragen kann. In einer aktuellen Publikation „To share or not to share: A social-cognitive internalization model to explain how age discrimination impairs older employees’ knowledge sharing with younger colleagues“ weisen Dr. Ulrike Fasbender und ihr Team aus der Arbeits- und Organisationspsychologie der Justus-Liebig-Universität Gießen (JLU) diese Effekte nach und legen dazu die Ergebnisse zweier Untersuchungen mit knapp 600 Mitarbeiterinnen und Mitarbeitern vor.

„Bei Diskriminierung gibt es mehr zu verstehen als man zunächst denkt“, erklärt Dr. Fasbender: „Für die Weitergabe von Wissen an jüngere Kolleginnen und Kollegen spielt die soziale Wahrnehmung älterer Mitarbeiterinnen und Mitarbeiter eine zentrale Rolle. Wir untersuchen wahrgenommene Diskriminierung aufgrund des Alters und argumentieren, dass diese nicht nur ein Problem älterer Mitarbeiterinnen und Mitarbeiter ist, sondern vielmehr ein Problem für das gesamte Unternehmen.“ Diskriminierung verändere das Verhalten Betroffener am Arbeitsplatz, erläutert die Psychologin: Ältere Beschäftigte verinnerlichen das negative soziale Urteil anderer kognitiv und fühlen sich daher weniger sicher, ihr Fachwissen mit jüngeren Kolleginnen und Kollegen zu teilen. Dies bedeute letztendlich, dass wertvolles Wissen verloren gehe und jüngere Beschäftigte sich nicht weiterentwickeln könnten, indem sie von ihren erfahreneren Kolleginnen und Kollegen lernen.

Was können Organisationen und Unternehmen dagegen tun? Eine offensichtliche Folgerung ist, dass sie Diskriminierung mit allen möglichen Mitteln bekämpfen müssen. Das Wissen älterer Mitarbeiterinnen und Mitarbeiter zu bewahren, sei für den Erfolg von Unternehmen wichtig und gewinne vor dem Hintergrund des demografischen Wandels und dem bevorstehenden Eintritt des geburtenstarken Babyboomer-Jahrgangs ins Rentnerleben weiter an Bedeutung, betont Dr. Fasbender, die als Akademische Rätin in der Arbeits- und Organisationspsychologie der JLU forscht und lehrt und zudem Visiting Research Fellow an der Oxford Brookes Universität und Birkbeck, University of London in England ist.

Mit ihrem Team hat sie im Rahmen der Studie auch die Effekte verschiedener altersangepasster Personalentwicklungsmaßnahmen – insbesondere Weiterbildung und Zugeständnisse –
untersucht. Diese sind ein wichtiger Ansatzpunkt für Unternehmen, einen förderlichen Kontext für den Wissenstransfer zu schaffen. Dennoch fiel die Bewertung solcher Maßnahmen insgesamt eher ernüchternd aus: Human Resources- (HR)-Praktiken, die sich gezielt an ältere Mitarbeiterinnen und Mitarbeiter richten, sind aus Sicht des Gießener Forschungsteams zwar nützlich, können den negativen Auswirkungen einer wahrgenommenen Diskriminierung aufgrund des Alters jedoch nicht entgegenwirken.

Die 1607 gegründete Justus-Liebig-Universität Gießen (JLU) ist eine traditionsreiche Forschungsuniversität, die rund 28.000 Studierende anzieht. Neben einem breiten Lehrangebot – von den klassischen Naturwissenschaften über Rechts- und Wirtschaftswissenschaften, Gesellschafts- und Erziehungswissenschaften bis hin zu Sprach- und Kulturwissen¬schaften – bietet sie ein lebenswissenschaftliches Fächerspektrum, das nicht nur in Hessen einmalig ist: Human- und Veterinärmedizin, Agrar-, Umwelt- und Ernährungswissenschaften sowie Lebensmittelchemie. Unter den großen Persönlichkeiten, die an der JLU geforscht und gelehrt haben, befindet sich eine Reihe von Nobelpreisträgern, unter anderem Wilhelm Conrad Röntgen (Nobelpreis für Physik 1901) und Wangari Maathai (Friedensnobelpreis 2004). Seit dem Jahr 2006 wird die Forschung an der JLU kontinuierlich in der Exzellenzinitiative bzw. der Exzellenzstrategie von Bund und Ländern gefördert.

Wissenschaftliche Ansprechpartner:
Kontakt
Dr. Ulrike Fasbender
Arbeits- & Organisationspsychologie
Telefon: 0641 99-26234
E-Mail: Ulrike.Fasbender@psychol.uni-giessen.de

Originalpublikation:
Publikation
Ulrike Fasbender, Fabiola H. Gerpott: „To share or not to share: A social-cognitive internalization model to explain how age discrimination impairs older employees’ knowledge sharing with younger colleagues“. European Journal of Work and Organizational Psychology Volume 29, 2020 https://www.tandfonline.com/eprint/E9SX8N9N9NZC9XAHMSHB/full?target=10.1080/1359…
DOI: 10.1080/1359432X.2020.1839421

Weitere Informationen:
https://www.uni-giessen.de/fbz/fb06/psychologie/abt/aop

(nach oben)


Seilbahnen als umweltfreundliche Alternative zum Autoverkehr

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
DBU fördert Vorhaben zur Analyse künftiger Mobilitätsformen

Innenstädte leiden vielfach unter stockendem Verkehr und schlechter Luftqualität. Immer mehr Hoffnung ruht auf einer umweltfreundlichen Alternative im Stadtverkehr: Seilschwebebahnen als Ergänzung zum öffentlichen Personennahverkehr (ÖPNV). Das Ingenieurbüro „SSP Consult Beratende Ingenieure GmbH“ sowie das Institut für Fördertechnik und Logistik (IFT) der Universität Stuttgart entwickeln deshalb derzeit Methoden und Werkzeuge, um dieses neue Verkehrsmittel im urbanen Raum besser planen und entwerfen zu können. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das zweijährige Vorhaben fachlich und finanziell mit rund 300.700 Euro.

Teil der Untersuchung ist auch, den Vergleich mit anderen Mobilitätsformen zu erleichtern. In vielen Stadtzentren sind die Verkehrswege ebenso wie öffentliche Verkehrsmittel überlastet. Staus und hohe Umweltbelastung, etwa durch Feinstaub-Stickoxide (NOx) und Lärm, sind die Folgen. „Wir brauchen Alternativen, um den Autoverkehr zu reduzieren und den ÖPNV zu ergänzen“, sagt DBU-Referatsleiterin für Architektur und Bauwesen, Sabine Djahanschah.

Über den Dächern der Stadt
Eine Möglichkeit könnten Seilbahnsysteme sein, wie sie in Berggebieten oder bei großen Gartenbauveranstaltungen zum Einsatz kommen. „Im Vergleich zu anderen Verkehrsmitteln fehlen für deren Anwendung und Bewertung im Stadtraum jedoch bisher praktische Planungshilfen“, sagt Projektleiter Michael Welsch. Dabei hätten Seilschwebebahnen deutliche umweltrelevante Vorteile. Die Bauzeit sei kürzer, es müsse weniger Fläche versiegelt werden und der Material- und Ressourcenbedarf für Stützen und Stationen sei geringer als zum Beispiel bei Stadt- und S-Bahnen. Welsch: „Seilschwebebahnen sind sehr geräuscharm, zerschneiden kaum Natur- oder Bewegungsräume und bieten eine sehr gute CO2-Bilanz sowohl in der Herstellung als auch im Betrieb.“

Planungssicherheit für Kommunen
Mit Hilfe der nun zu entwickelnden Empfehlungen aus dem Förderprojekt soll Planungssicherheit für die kommunale Verwaltung und die lokale Politik entstehen. Das Ziel: möglichst bald Seilbahnsysteme als Ergänzung zum ÖPNV in deutschen Städten zu installieren. Projektleiter Welsch zu dem nun im zweijährigen Vorhaben zu entwickelnden Werkzeug: „Es soll die Bereiche Wirtschaftlichkeit, Umweltaspekte, Bevölkerungsakzeptanz und den gesamten Lebenszyklus betrachten.“ Dabei werden nach Welschs Worten unter anderem Indikatoren zum CO2-Fußabdruck, Lärm, Spiegelung und Schattenwurf und Flächenversiegelung einbezogen. Begleitet wird das DBU-Projekt durch einen Experten-Beirat aus Vertretern von Kommunen, Verbänden, Politik und Wissenschaft.

(nach oben)


Erste Daten des Corona-Impfstoffes zeigen gute Verträglichkeit, aber schwache Immunreaktion

Saskia Lemm Unternehmenskommunikation
Universitätsklinikum Hamburg-Eppendorf
Start der zweiten Studienphase des Vektor-Impfstoffes gegen COVID-19 wird verschoben.

Die weitere Entwicklung des Vektor-Impfstoffes MVA-SARS-2-S gegen COVID-19 der IDT Biologika GmbH und des Deutschen Zentrums für Infektionsforschung (DZIF) verschiebt sich. Der Vektor-Impfstoff wurde von der Ludwig-Maximilian-Universität (LMU) in München entwickelt. Ergebnisse der ersten klinischen Prüfung des Universitätsklinikums Hamburg-Eppendorf (UKE) und des Instituts für Virologie der Philipps-Universität Marburg auf Sicherheit, Verträglichkeit und die immunologische Wirksamkeit des Impfstoffes liegen jetzt vor. Die Impfungen sind sicher und gut verträglich mit geringem Nebenwirkungsprofil, allerdings liegen die Immunreaktionen in den vorläufigen Ergebnissen unter den Erwartungen. Sobald die Ursachen dafür abgeklärt sind, soll die klinische Erprobung fortgesetzt werden.

Der Vektor-Impfstoff MVA-SARS-2-S wurde 30 Probandinnen und Probanden in zwei unterschiedlich hohen Dosierungen bis Mitte Dezember verabreicht. Hatte er in präklinischen Modellen robuste Immunantworten und eine Schutzwirkung gezeigt, fielen diese in der ersten Phase der klinischen Überprüfung jedoch geringer aus. Die Ursachen dafür werden gegenwärtig untersucht. Die für Anfang des Jahres geplante Phase-II-Studie wird daher bis zur Abklärung verschoben.

„Die bisher ausgewerteten Daten zeigen, dass Immunantworten zwar nachweisbar sind, aber nicht im erwarteten Ausmaß generiert wurden. Da wir uns unserer hohen Verantwortung für die Gesundheit der Bevölkerung und eine bestmögliche Schutzwirkung des Impfstoffes bewusst sind, arbeiten wir nun an einer Optimierung des Impfstoffes, um dieses Ziel zu erreichen“, sagt Prof. Dr. Marylyn Addo, verantwortliche Prüfärztin der klinischen Studie und Leiterin der Infektiologie des UKE, stellvertretend für alle beteiligten Partnerinnen und Partner des Konsortiums.

Anhang
Erste Daten des Corona-Impfstoffes zeigen gute Verträglichkeit, aber schwache Immunreaktion

(nach oben)


Stadtlogistik: Wie lässt sich die „Letzte Meile“ möglichst nachhaltig gestalten?

Marylen Reschop Pressestelle
Bergische Universität Wuppertal
Immer mehr Online-Bestellungen sowie kleinteilige Lieferungen bleiben nicht unbemerkt: Das Thema Stadtlogistik gewinnt auch deswegen an Bedeutung, da Auswirkungen wie überfüllte Innenstädte und das Zweite-Reihe-Parken zunehmen – nicht zuletzt auf Kosten der Umwelt. Um darüber genauere Aussagen treffen zu können, beleuchtet der Lehrstuhl für Güterverkehrsplanung und Transportlogistik der Bergischen Universität im Auftrag der Gesellschaft für internationale Zusammenarbeit die politischen und wirtschaftlichen Rahmenbedingungen für die Branche der deutschen Kurier-, Express- und Paketdienste (KEP) sowie aktuelle Trends im Bereich der Belieferung auf der sogenannten „Letzten Meile“.

Damit insbesondere der Letzte-Meile-Verkehr in sensiblen Gebieten wie Fußgängerzonen, Wohngebieten, etc. konfliktarm, nachhaltig und wirtschaftlich durchgeführt werden kann, bedarf es der richtigen Setzung von Rahmenbedingungen. In einer Studie wollen die Wuppertaler Wissenschaftler daher zunächst die geltenden und absehbaren Vorgaben in Deutschland auf nationaler Ebene sowie am Beispiel der Stadt Berlin auf lokaler Ebene herausarbeiten. Zudem werden konkrete Tourenwege analysiert, um Aussagen über Kennwerte wie Emissionen und Fahrleistung zu treffen. Eine vergleichbare Studie in der Stadt Suzhou führt das dem chinesischen Verkehrsministerium angegliederte „Transport Planning and Research Institute“ durch, mit dem das Lehrstuhl-Team in ständigem Austausch steht.

„Anders als in China werden Innovationen in Deutschland häufig durch zuvor definierte Regulierungen erschwert“, erklärt Tim Holthaus, Wissenschaftlicher Mitarbeiter am Lehrstuhl von Prof. Leerkamp. So seien hierzulande Lastenrädern ohne Kennzeichen auf eine Motorleistung von 250 Watt beschränkt, was wiederum den Transport von schwereren Sendungen insbesondere in topografisch anspruchsvolleren Regionen oder bei einer stadtüblichen Belieferung über eine Rampe in der Tiefgarage erschweren oder verhindern würde. Generell sei die KEP-Branche in jedem Land anderen Rahmenbedingungen ausgesetzt, an die sie sich anpassen müsse. „Das erschwert eine einfache Übertragung von Konzepten zur Organisation der KEP-Verkehre von Land zu Land sowie die Einführung von Innovationen und ist problematisch, da die KEP-Unternehmen international agieren“, so Holthaus.

Nach Abschluss der Studie sollen die Ergebnisse gemeinsam mit den Erkenntnissen aus China in eine Vergleichsstudie münden. „Neben dem Aufzeigen eines Status quo kann eine solche Gegenüberstellung wertvolle Lösungsansätze für die zukünftige Gestaltung des Letzte-Meile-Verkehrs liefern“, so Holthaus.

Wissenschaftliche Ansprechpartner:
Tim Holthaus, M.Sc.
Lehr- und Forschungsgebiet Güterverkehrsplanung und Transportlogistik
Telefon 0202/439-4016
E-Mail holthaus@uni-wuppertal.de

(nach oben)


Menschen hören das, was sie zu hören erwarten

Konrad Kästner Pressestelle
Technische Universität Dresden
Dresdner Neurowissenschaftler:innen zeigen, dass die menschliche Hörbahn Geräusche entsprechend vorheriger Erwartungen widergibt. Die Ergebnisse sind jetzt in der renommierten Fachzeitschrift eLife veröffentlicht worden.

Der Mensch ist auf seine Sinne angewiesen, um die Welt, sich selbst und andere wahrzunehmen. Obwohl die Sinne das einzige Fenster zur Außenwelt sind, hinterfragen Menschen nur selten, wie wahrheitsgetreu sie die Außenwelt tatsächlich wahrnehmen. In den letzten 20 Jahren hat die neurowissenschaftliche Forschung gezeigt, dass die Großhirnrinde ständig Vorhersagen darüber erstellt, was als nächstes passieren wird. Neuronen, die für die sensorische Verarbeitung zuständig sind, erfassen nur den Unterschied zwischen den Vorhersagen und der Realität.

Ein Team von Neurowissenschaftler:innen der TU Dresden unter der Leitung von Prof. Katharina von Kriegstein stellt in einer aktuellen Publikation neue Erkenntnisse darüber vor, dass nicht nur die Großhirnrinde, sondern die Hörbahn Geräusche entsprechend vorheriger Erwartungen widergibt. Die Hörbahn verbindet das Ohr mit der Großhirnrinde.

Für die Studie nutzte das Team die funktionelle Magnetresonanztomographie (fMRT), um die Gehirnreaktionen von 19 Teilnehmenden zu messen, während diese Tonfolgen hörten. Die Teilnehmenden wurden angewiesen, herauszufinden, welcher der Klänge in der Reihenfolge von den anderen abweicht. Die Erwartungen der Probanden wurden so verändert, dass sie den abweichenden Ton an bestimmten Stellen der Sequenz erwarten würden. Die Neurowissenschaftler:innen untersuchten die Reaktionen, die die abweichenden Geräusche in zwei wichtigen Kernen der Hörbahn, die für die auditorische Verarbeitung verantwortlich sind, auslösten: dem colliculus inferior (‚unterer Hügel‘) und dem medialen corpus geniculatum mediale (‚mittig-liegender Kniehöcker‘). Obwohl die Teilnehmenden die abweichenden Töne schneller erkannten, wenn sie an Positionen platziert wurden, an denen sie diese erwarteten, verarbeiteten die Kerne der Hörbahn die Töne nur, wenn sie an unerwarteten Positionen platziert wurden.

Diese Ergebnisse lassen sich am besten im Rahmen einer allgemeinen Theorie der sensorischen Verarbeitung interpretieren, die die Wahrnehmung als einen Prozess der Hypothesenprüfung beschreibt. Man nennt diese Theorie ‚prädiktive Kodierung‘. Die prädiktive Kodierung geht davon aus, dass das Gehirn ständig Vorhersagen darüber generiert, wie die physische Welt im nächsten Moment aussehen, klingen, sich anfühlen und riechen wird, und dass die Neuronen, die für die Verarbeitung der Sinne zuständig sind, Ressourcen sparen, indem sie nur die Unterschiede zwischen diesen Vorhersagen und der tatsächlichen physischen Welt darstellen.

Dr. Alejandro Tabas, Erstautor der Veröffentlichung, erklärt die Ergebnisse folgendermaßen: „Unsere Überzeugungen haben einen entscheidenden Einfluss darauf, wie wir die Realität wahrnehmen. Jahrzehntelange Forschung in den Neurowissenschaften hatte bereits gezeigt, dass die Großhirnrinde, der Teil des Gehirns, der bei Menschen und Affen am weitesten entwickelt ist, Überzeugungen mit sensorischen Informationen abgleicht. Wir haben nun gezeigt, dass dieser Prozess auch in den einfachsten und evolutionär ältesten Teilen des Gehirns vorherrscht. Alles, was wir wahrnehmen, könnte zutiefst durch unsere subjektiven Überzeugungen über die Welt geprägt sein.“

Diese Ergebnisse ermöglichen der neurowissenschaftlichen Forschung, einen neuen Blick auf die Hörbahn und auch auf andere sensorische Bahnen, wie der Sehbahn. Bisher wurde der Rolle, die subjektive Überzeugungen auf Repräsentationen in den sensorischen Bahnen haben könnten, wenig Aufmerksamkeit geschenkt. Vielleicht ist dies der festen Annahme geschuldet, dass Subjektivität ein Merkmal des Menschen ist und die Großhirnrinde der Hauptunterscheidungspunkt zwischen den Gehirnen von Menschen und anderen Säugetieren ist.

Angesichts der Bedeutung, die Vorhersagen für das tägliche Leben haben, könnten Beeinträchtigungen der Art und Weise, wie Erwartungen an die sensorischen Bahnen übermittelt werden, tiefgreifende Auswirkungen auf die Kognition haben. Lese-Rechtschreib-Schwäche, die am weitesten verbreitete Lernstörung, wurde bereits mit veränderter Verarbeitung in der Hörbahn und mit Schwierigkeiten in der auditorischen Wahrnehmung in Verbindung gebracht. Die neuen Ergebnisse könnten eine einheitliche Erklärung dafür liefern, warum Menschen mit Lese-Rechtschreibschwäche Schwierigkeiten bei der Wahrnehmung von Sprache haben. Weiterhin liefern sie klinischen Neurowissenschaftler:innen neue Hypothesen über den Ursprung auch anderer neuronaler Störungen, die mit der sensorischen Verarbeitung in Verbindung stehen.

Wissenschaftliche Ansprechpartner:
Dr. Alejandro Tabas (englisch)
Tel.: +49 351 463-43894
Email: alejandro.tabas@tu-dresden.de

Prof. Katharina von Kriegstein (deutsch)
Tel.: +49 351 463-43901
Email: katharina.von_kriegstein@tu-dresden.de

Originalpublikation:
Alejandro Tabas, Glad Mihai, Stefan Kiebel, Robert Trampel, Katharina von Kriegstein: Abstract rules drive adaptation in the subcortical sensory pathway. eLife 2020;9:e64501
DOI: 10.7554/eLife.64501

(nach oben)


Verzicht auf Silvesterfeuerwerk erspart der Umwelt Tausende Tonnen Kunststoffe

Axel Grehl Pressestelle
Hochschule Pforzheim
Pforzheimer Wirtschaftsingenieure präsentieren Forschungsergebnisse auf internationalem Abfallwirtschaftskongress

Das Verbot, für den Silvesterabend 2020 Feuerwerk zu kaufen und abzufeuern, hat Krankenhäuser vor zusätzlicher Überlastung durch Verletzungen in Zusammenhang mit Raketen & Co. geschützt. Ein weiterer positiver Nebeneffekt: Die Umwelt wurde erheblich geschont – wie genau, das wurde im Rahmen eines Forschungsprojekts der Hochschule Pforzheim untersucht. Lukas Deuschle, Student im Bachelorstudiengang „Wirtschaftsingenieurwesen“ analysierte gemeinsam mit Jörg Woidasky, Professor für Nachhaltige Produktentwicklung an der Fakultät für Technik, die Frage „Wieviel Kunststoff gelangt durch Silvesterfeuerwerk in die Umwelt?“.

„Auch, wenn man den diesjährigen Verzicht aus kulturellen Aspekten bedauern mag, so war er für die Umwelt sehr vorteilhaft: Ohne Silvesterfeuerwerk bleibt der Umwelt in Deutschland die Freisetzung von etwa 3 500 Tonnen Kunststoff erspart – neben der Vermeidung von Lärm, Luftverunreinigungen und Verletzungen“, fasst Professor Dr.-Ing. Jörg Woidasky die Arbeitsergebnisse zusammen. Diese präsentierte das Pforzheimer Duo, gemeinsam mit weiteren Partnern, Ende 2020 auf dem internationalen Abfallwirtschaftskongress „Recy & DepoTech“ in Leoben/Österreich online.

Die Arbeitsergebnisse basieren auf einer umfangreichen Sortier- und Werkstoffanalyse von Feuerwerkskörpern an der Hochschule Pforzheim, die durch Kundenbefragungen und Zulassungsanalysen im Rahmen von Lukas Deuschles Bachelorarbeit ergänzt wurden. „Wir haben in der Literatur keine genauen Angaben zu Kunststoff-Emissionen aus Feuerwerken finden können“, so Jörg Woidasky, „also haben wir ein eigenes Forschungskonzept zur Kunststoffemission aus Feuerwerken entwickelt und umgesetzt.“

Das Ergebnis dieser Forschungen wurde in Kooperation mit Professor Dr. Kai Oßwald von der Fakultät für Technik der Hochschule Pforzheim und dem Fraunhofer-Institut für Chemische Technologie in Pfinztal (ICT) als Buchbeitrag publiziert.

Vor Beginn der Corona-Epidemie wurden in Deutschland jährlich über 130 Millionen Euro für etwa 40 000 Tonnen Feuerwerkskörper ausgegeben. Die bisher vor allem diskutierten Umweltauswirkungen der Silvesternacht sind Luftverunreinigungen: „In Deutschland werden durch das Silvesterfeuerwerk nach Aussagen des Umweltbundesamtes jährlich bundesweit etwa 4 500 Mg Feinstaubpartikel innerhalb weniger Stunden freigesetzt, die Schwermetalle enthalten können“, so Jörg Woidasky. Neben den Staub- und Lärmemissionen führen Silvesterfeuerwerke aber auch zu einem großen Abfallanfall: „Die Treib- und Effektsätze der pyrotechnischen Artikel machen davon lediglich etwa ein Drittel aus, der Rest sind feste Abfälle aus Pappe, Papier, Holz, Ton und Kunststoffen. Sie werden für Hüllen, Kappen und Verpackungen eingesetzt.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Jörg Woidasky
joerg.woidasky@hs-pforzheim.de

Weitere Informationen:
http://www.hs-pforzheim.de/profile/joergwoidasky

(nach oben)


Stellungnahme des KKNMS zur Methode der mRNA Vakzinierung

Lena Forster Presse- und Öffentlichkeitsarbeit
Krankheitsbezogenes Kompetenznetz Multiple Sklerose
Neue Technik der mRNA Vakzinierung, die gegenwärtig so erfolgreich als COVID Impfung eingesetzt wird, ist nicht ohne weiteres auf Erkrankungen wie die Multiple Sklerose übertragbar

In einer bemerkenswerten Studie ist es gelungen, die Entstehung von experimenteller autoimmuner Enzephalomyelitis bei Mäusen durch einen entzündungshemmenden Impfstoff zu unterdrücken (Krienke et al., Science 2020). Bei bereits erkrankten Tieren konnte der Krankheitsverlauf durch die Gabe des mRNA Impfstoffes abgemildert bzw. rückgängig gemacht werden. Die Ergebnisse von Christina Krienke und Kollegen, unter der Studienleitung von Prof. Sahin, dem Mitbegründer von Biontech, wecken Hoffnungen bei MS-Betroffenen. Die Resonanz in den Medien ist hoch, es wird teilweise von der Möglichkeit gesprochen hier eine Impfung gegen die Multiple Sklerose generieren zu können.
Die Technik der mRNA Vakzinierung wird derzeit intensiv diskutiert. Zumal sie erstmals erfolgreich als Strategie zur Entwicklung eines Impfstoffes gegen das SARS-COV2 Virus etabliert wurde. Mit Datum vom 08.01.2021 sind gegenwärtig zwei Impfstoffe zugelassen, die beide das gleiche Prinzip verwenden. Das Kompetenznetzwerk hatte in einer Stellungnahme vom 18.12.2020 hierzu informiert und Empfehlungen für MS Patienten herausgegeben.
Nun wurde die mRNA Vakzinierung im Tierexperiment und an einem Modell, welches Aspekte der MS nachstellt, verwendet. Die Studie ist höchstwertig und wissenschaftlich von größter Bedeutung und dokumentiert erneut auch das Potential der mRNA Vakzinierungsstrategie insgesamt. Allerdings: was in Mäusen mit experimenteller autoimmuner Enzephalomyelitis als Impfstrategie funktioniert, ist als Strategie für eine Autoimmunerkrankung beim Menschen nicht so einfach zu übersetzen. Hauptproblem beim Menschen – im Gegensatz zum Tiermodell – ist, dass die Zielantigene bei der MS nicht bekannt sind. Über Jahrzehnte haben Wissenschaftler bereits versucht, die für Multiple Sklerose relevanten Antigene zu identifizieren, dies gelang jedoch nicht.
Ganz im Gegenteil: In den 90er Jahren haben Antigen-spezifische Therapieansätze bei der Übertragung aus Laborbedingungen auf den Menschen sogar teilweise unerwartet zu einer Verstärkung der Entzündung im Gehirn geführt, indem Immunantworten gegen das ZNS sogar befördert und nicht unterdrückt wurden. Die MS gilt heute als komplexe Störung immunregulatorischer Netzwerke. Nach der Gabe einer Selektion von Antigenen zur Therapie einer Autoimmunerkrankung, kann es sogar zu einer fehlgesteuerten Aktivierung von Ab-wehrzellen kommen. Denn im Verlauf der Erkrankung gibt es offensichtlich sehr viele Antigene sowie HLA Moleküle, welche den T Zellen helfen anhand der zellulären Oberflächenstruktur kranke von gesunden Zellen zu unterscheiden, und diese sind individuell unterschiedlich. Weiterhin beruht das Phänomen der Verstärkung der Entzündung wohl auf speziellen Bindungsstärken der gegen den eigenen Körper gerichteten Immunabwehr. Somit ist es nicht verwunderlich, dass bislang kein Antigen-spezifischer Therapieansatz in der Multiplen Sklerose (und auch nicht bei anderen Autoimmunerkrankungen) erfolgreich war.
Eine Autoimmunkrankheit wie die Multiple Sklerose ist im Kontext der entwickelten Impfung damit nicht gleichzusetzen mit einer Infektion, die ja eine sehr gerichtete Antwort auf sehr definierte (Virus)Antigene darstellt. Die Strategie eine „Impfung gegen MS“ zu entwickeln ist zwar charmant und wissenschaftlich ein hochwertvolles Ziel. Es fehlt aber beim Menschen nicht die richtige Labortechnik, sondern die Biologie der Entzündungsprozesse bei der MS ist ganz anders zu bewerten als bei einer Infektion.

Quellen
[1] Krienke et al., Science 371, 145–153 (2021)

Autorinnen und Autoren:
Prof. Dr. Frauke Zipp, Klinik für Neurologie, Johannes Gutenberg-Universität, Mainz
Prof. Dr. Heinz Wiendl, Klinik für Neurologie mit Institut für Translationale Neurologie, Universitätsklinikum Münster
Prof. Dr. Ralf Gold, Neurologische Klinik der Ruhr-Universität Bochum
Prof. Dr. Ralf Linker, Neurologische Klinik des Universitätsklinikums Erlangen
Prof. Dr. Martin Kerschensteiner, Institut für Klinische Neuroimmunologie der LMU München

Originalpublikation:
Krienke et al., Science 371, 145–153 (2021)

Anhang
KKNMS Pressemitteilung

(nach oben)


Ein unbehandelter Bluthochdruck erhöht das Risiko für schwere COVID-19-Verläufe

Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Bereits in der ersten Welle der SARS-CoV-2-Pandemie wurde Bluthochdruck (arterielle Hypertonie) als Risikofaktor für schwere COVID-19-Kranklheitsverläufe vermutet. Eine aktuelle Publikation [1] verbessert die Datenlage und zeigt, dass eine unbehandelte Bluthochdruckerkrankung mit einem höheren Risiko für schwere COVID-19-Verläufe einhergeht. Die medikamentöse Bluthochdrucktherapie mit sogenannten ACE-Hemmern schien hingegen das Risiko für schwere entzündliche Verläufe der Viruserkrankung zu senken.

Bluthochdruck gilt als Risikofaktor für einen schweren COVID-19-Verlauf, ebenso ein höheres Alter – und oft kommt beides zusammen: In Deutschland hat fast jeder dritte Erwachsene zu hohe Blutdruckwerte, bei den über 60-Jährigen ist im Durchschnitt sogar jeder Zweite von Bluthochdruck betroffen. Daher liegt es auf der Hand, dass viele schwerkranke COVID-19-Patienten, unter denen prozentual viel mehr ältere Menschen sind, auch häufiger Bluthochdruck aufweisen. Mit diesem Argument wurde Bluthochdruck als COVID-19-Risikofaktor häufig vom Tisch gewischt und unterschätzt. Doch eine aktuell in „Nature Biotechnology“ publizierte, experimentelle Studie deutet darauf, dass Bluthochdruck durchaus ein eigenständiger Risikofaktor für schwere COVID-19-Verläufe sein könnte, vor allem, wenn er nicht medikamentös behandelt wird.

Die Autoren haben die klinischen Daten von 144 Patienten und Daten von sogenannten „single cell sequencing“-Analysen von Zellen aus nasopharyngalen Abstrichen von 48 Patienten mit und ohne COVID-19-Infektion untersucht. Wie sich zeigte, waren in den Immunzellen der Studienteilnehmer mit arterieller Hypertonie ausgeprägtere Entzündungsreaktionen nach COVID-19-Infektion zu beobachten als bei jenen mit normalen Blutdruckwerten. Diese verstärkte Entzündungsreaktion korreliert mit schlechterem Outcome: Patienten mit arterieller Hypertonie wiesen eine verlängerte Dauer bis zur Virusfreiheit (sogenannte virale Clearance) und eine höhere Anfälligkeit für schwerere Atemwegsinfektionen auf.

„Es bekannt, dass die arterielle Hypertonie entzündliche Prozesse im Körper aktiviert und daher auch naheliegend, dass sie eine COVID-19-Erkrankung aggravieren kann. Die verstärkte Entzündungsreaktion bei hypertensiven Covid-19-Patienten könnte eine mögliche Erklärung sein,“ erklärt Professor Dr. Ulrich Wenzel vom UKE Hamburg, Vorstandsvorsitzender der DHL® │ Deutsche Gesellschaft für Hypertonie und Prävention. „Die vorliegende Studie bestätigt diese Hypothese: Die untersuchten Bluthochdruck-Patientinnen und -Patienten hatten ein höheres Risiko für kritische COVID-19-Verläufe. Die Studie zeigte aber auch, dass eine medikamentöse Blutdrucktherapie einen positiven Effekt hatte. Das unterstreicht, wie wichtig es ist, Bluthochdruck in den Griff zu bekommen!“

Die Studienautoren zeigten, dass sogenannte ACE-Hemmer (ACEi) das erhöhte Risiko für schwere COVID-19-Erkrankungen nahezu auf das Risikoniveau von Menschen ohne Bluthochdruck senken konnten. Eine Risikoabsenkung wurde unter Therapie mit Angiotensin-Rezeptor-Blockern (ARB) auch beobachtet, sie war aber weniger stark ausgeprägt. Darüber hinaus hatten ARB im Gegensatz zu ACEi keinen Effekt auf die virale Clearance. Die Forscher führen daher an, dass ACEi während der Corona-Pandemie die bessere Bluthochdrucktherapie darstellen könnte.

„Dieser Hypothese möchten wir uns aber nicht anschließen. Die Zahl der Studienteilnehmer war zu klein und die Studie auch gar nicht dafür ausgelegt, um verschiedene blutdrucksenkende Therapien im Hinblick auf ihr ‚Anti-COVID-19-Potenzial‘ vergleichen zu können. Die wesentliche Erkenntnis dieser Untersuchung ist für uns: Bluthochdruck ist ein eigenständiger Risikofaktor für schwere COVID-19-Verläufe, wenn er nicht behandelt wird. Die gefundene verstärkte Entzündungsreaktion könnte dafür verantwortlich sein. Wir hoffen, dass diese zentrale Botschaft Patientinnen und Patienten motiviert, ihre Blutdruckmedikamente konsequent zu einzunehmen“, erklärt der Hamburger Experte.

Sein Vorstandskollege, Professor Dr. Florian Limbourg, Hannover, ergänzt: „Leider ignorieren viele Menschen ihre erhöhten Blutdruckwerte und einige ahnen auch nicht, dass sie überhaupt einen zu hohen Blutdruck haben Umso wichtiger ist es, die Bevölkerung für Bluthochdruck zu sensibilisieren, um gefährlichen Folgeschäden, darunter Herzinfarkte, Schlaganfälle, Nierenversagen – und, wie nun gezeigt wurde, auch eine erhöhte Anfälligkeit für schwere COVID-19-Verläufe –, durch Blutdrucksenker entgegenzuwirken.“

Literatur:
[1] Trump S, Lukassen S, Anker MS et al. Hypertension delays viral clearance and exacerbates airway hyperinflammation in patients with COVID-19. Nature Biotechnology. Published 24 December, 2020. https://www.nature.com/articles/s41587-020-00796-1

Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423

Originalpublikation:
https://www.nature.com/articles/s41587-020-00796-1

(nach oben)


TU Berlin: Klärschlämme und Plastikfolien kontaminieren die Felder

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Auswertung von 23 Studien zum Thema „Globale Mikroplastik-Konzentrationen in Böden“ bestärkt Vermutungen über die schädigenden Auswirkungen auf Bodenorganismen

Erstens: Ackerböden und Böden des Obst- und Gemüseanbaus zeigen weltweit eine hohe Kontamination mit Mikroplastik-Partikeln. Klärschlämme und der Einsatz großflächiger Plastikfolien (Mulchfolien), die die Felder vor Verdunstung schützen und der Unkrautbekämpfung dienen, sind eine bedeutende Ursache für diese Einträge. Dabei ist die Kontamination der landwirtschaftlich genutzten Böden durch Klärschlämme bis zu zehnmal so hoch wie durch Mulchfolien.

Zweitens: Städte und stadtnahe Siedlungsgebiete sind ein Hotspot für Mikroplastik-Kontamination. Die Konzentration von Mikroplastik in diesem Umfeld ist im Vergleich zu ländlichen Gebieten bis zu zehnmal höher.

Drittens: In den Ländern des globalen Nordens und den sich industriell entwickelnden Ländern sind die Mengen an Mikroplastik im Boden ähnlich: Gemessen wurden übliche Konzentrationen von bis zu 13.000 Partikeln beziehungsweise 4,5 Milligramm an Mikroplastik in einem Kilogramm Boden.

Das sind drei der Ergebnisse des aktuellen Reviews „Globale Mikroplastik-Konzentrationen in Böden“, das jüngst im SOIL Journal publiziert wurde. Die Autoren des Reviews sind Dr. Frederick Büks, wissenschaftlicher Mitarbeiter am Fachgebiet Bodenkunde, und Prof. Dr. Martin Kaupenjohann, Leiter des Fachgebietes. Das SOIL Journal ist eine bodenkundliche Fachzeitschrift der European Geosciences Union (EGU), deren Artikel durch unabhängige Gutachter beurteilt (Peer-Review-Verfahren) und unter einer Creative Commons Licence veröffentlicht werden.

Die meisten Untersuchungen in China
In dem Paper, das den aktuellen Forschungsstand zur Thematik „Globale Mikroplastik-Konzentration in Böden“ darstellt, werteten die Bodenkundler 23 Studien aus, in denen 230 Standorte untersucht worden waren. „Die meisten Untersuchungen wurden in den vergangenen Jahren in China durchgeführt – von den 23 Studien sind es immerhin elf mit 155 Standorten. Und in Asien ist es das einzige Land, in dem Forschungen zu der Problematik in Fachzeitschriften veröffentlicht wurden“, sagt Dr. Frederick Büks. Sechs Studien stammten aus Europa, die anderen aus dem Nahen Osten, Australien sowie Nord- und Südamerika. Aus Afrika gibt es keine Daten.

Schlecht für Regenwurm und Käfer
Diesem Review vorausgegangen war 2019 ein Review unter Leitung der beiden TU-Wissenschaftler zu Auswirkungen von Mikroplastik auf Bodenorganismen wie Regen-, Watt- und Fadenwürmer, Käfer, Spinnen, Milben und kleinste Mehrzeller. In dieser Übersichtsstudie hatten sie Laborstudien ausgewertet, die mit einem weiten Spektrum an Mikroplastik-Konzentrationen arbeiteten. Es hatte sich gezeigt, dass besonders die kleinsten Plastikpartikel – kleiner als 100 Mikrometer, das sind 0,1 Millimeter – schon bei Konzentrationen unter zehn Milligramm pro Kilogramm Boden den Stoffwechsel, die Fortpflanzung und das Wachstum der Bodenorganismen schädigen. Diesen angenommenen Laborwerten wollten die TU-Wissenschaftler nun tatsächlich im Feld gemessene Werte gegenüberstellen. „Unsere aktuelle Überblicksstudie zeigt übliche Konzentrationen von bis zu 4,5 Milligramm pro Kilogramm Boden. Das heißt, dass die Konzentrationen, die tatsächlich in den Böden gemessen wurden, im Bereich der Werte liegen, die in den Laborstudien schädliche Effekte auf die im Boden lebenden Organismen bewirkt hatten. Da Studien zeigen, dass ein größerer Teil dieses Bodenmikroplastiks aus kleineren Partikeln besteht, müssen wir Schädigungen des Bodenlebens befürchten“, sagt Büks und fügt an, „für die Wissenschaft ist das zwar ein ‚gutes‘ Ergebnis, weil vorherige Studien bestätigt werden, aber leider nicht für Regenwurm und Käfer.“

Drei Einflussfaktoren
Frederick Büks analysierte die 23 Studien nach drei Einflussfaktoren: Landnutzung, Eintragspfad und Umfeld. Landnutzung meint, ob es landwirtschaftlich genutzte Flächen, Wälder, Naturschutzgebiete oder Brachflächen sind, auf denen gemessen wurde. Der Eintragspfad beschreibt, wodurch Mikroplastik in den Boden gelangt. Das kann unter anderem über Klärschlamm, Plastikfolien, Reifenabrieb, in die Landschaft geworfener Müll und Bewässerungswasser geschehen. Beim Umfeld unterschieden die Wissenschaftler zwischen ländlichen, städtischen oder industriellen Gebieten.

Belastbare Aussagen machen die 23 Studien nur zu den landwirtschaftlich genutzten Flächen, zu den Eintragspfaden Klärschlamm und Mulchfolien sowie zu ländlichen und städtischen Gebieten. Nur zwei Studien beschäftigten sich hingegen mit Mikroplastik in Industriegebieten. Die Messungen ergaben zwar eine tausendfach höhere Kontamination als in städtischen Gebieten. „Aber bei nur zwei Studien müssen solche Standorte noch intensiv insbesondere auf ihr Potenzial zur Kontamination der Umgebung untersucht werden“, sagt Dr. Frederick Büks.

Großer Forschungsbedarf
Insgesamt konstatieren die Bodenkundler nach der Auswertung der 23 Studien einen großen Forschungsbedarf. So liegen weder zu Wäldern, Naturschutzgebieten und Brachflächen Daten vor noch zu den Eintragspfaden Reifenabrieb, in die Landschaft geworfener Müll und Bewässerungswasser. „Aber selbst da, wo die Datenlage gut ist, registrierten wir Defizite in der Datenerfassung. In fast allen der 23 Studien fehlen Angaben zur Bodenart, ob es also ein sandiger oder ein toniger Boden war, der untersucht wurde. Auch Aussagen zur Historie des Standortes, ob sich die Nutzung oder die Eintragspfade über die Jahre veränderten, waren nicht zu finden“, resümiert Dr. Frederick Büks.

Besonders die Angaben zum Bodentyp und zu deren biologischen, physikalischen und chemischen Parametern seien wichtig, da davon auszugehen sei, dass unterschiedliche Böden unterschiedliches Mikroplastik auch unterschiedlich speicherten beziehungsweise transportierten. Diese sogenannte Grundkennzeichnung des Bodens sei notwendig, um weitere Schlüsse ziehen zu können über die schädigende Wirkung von Mikroplastik auf das Bodenökosystem.

Das Review entstand im Rahmen des vom Bundesforschungsministerium geförderten Projektes „Entwicklung Neuer Kunststoffe für eine Saubere Umwelt unter Bestimmung Relevanter Eintragspfade (ENSURE)“

Zum aktuellen Review-Artikel “Global concentrations of microplastics in soil”:
https://soil.copernicus.org/articles/6/649/2020/

Zum Review-Artikel “What do we know about how the terrestrial multicellular soil fauna reacts to microplastic?”
https://soil.copernicus.org/articles/6/245/2020/

Weitere Informationen erteilt Ihnen gern:
Dr. Frederick Büks
TU Berlin
Fachgebiet Bodenkunde
E-Mail: frederick.bueks@tu-berlin.de

(nach oben)


Studie: Wie (un)beliebt ist die „Corona-Warn-App“?

Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Forscher*innen aus Berlin und Bochum untersuchten, welche Personen die „Corona-Warn-App“ in Deutschland nutzen, welche nicht und wie sie ihre Entscheidung begründeten.

In ihrer Studie setzen vor allem Angehörige einer Risikogruppe sowie jüngere Personen die App zur Kontaktverfolgung ein. Männer nutzen sie häufiger als Frauen, Vollzeit-Beschäftigte eher als Personen in Ausbildung. Personen, die die „Corona-Warn-App“ nicht nutzen, sind in dieser Studie im Durchschnitt älter, weiblich und gesünder. Sie vertrauen anderen im Allgemeinen weniger und befinden sich eher in Ausbildung oder Studium.
Dagegen hängen weder Bildungsjahre noch Elternschaft signifikant mit der Nutzung der Kontaktverfolgungs-App zusammen.

Dies fand ein Forschungsteam um Dr. Susanne Bücker von der Ruhr-Universität Bochum und Prof. Dr. Kai Horstmann von der Humboldt-Universität zu Berlin heraus. Die Expert*innen für Persönlichkeitspsychologie befragten im Rahmen der Bochum Berlin Covid-19 Längsschnitt-Studie online 1.972 Deutschen im Alter von 18 bis 88 Jahren, ob diese die App nutzen und warum, beziehungsweise warum nicht. Die Studie ist im European Journal of Public Health erschienen.

Unter den 1.972 Studienteilnehmer*innen nutzten 1.291 die „Corona-Warn-App“. Als Begründung nannten sie vor allem, dass es keinen Grund gäbe, sie nicht einzusetzen. Außerdem würden die Vorteile der App ihre Risiken aufwiegen und sie helfe dabei, die Pandemie zu verlangsamen. Die 681 Studienteilnehmer*innen, die die „Corona-Warn-App“ nicht nutzen, hegen vor allem Bedenken in Bezug auf den Datenschutz, die Effektivität der App zur Eindämmung der Pandemie oder sie verfügen über unzureichende technische Möglichkeiten.

Die „Corona-Warn-App“ wurde von der Bundesregierung und dem Robert-Koch-Institut entwickelt, um die Ausbreitung von SARS-CoV-2 einzudämmen. Sie erfasst Begegnungen per Bluetooth-Funktion und warnt die Nutzer*innen, wenn sie mit einer Person in Kontakt waren, die kürzlich positiv auf das Corona-Virus getestet wurde – sofern diese den positiven Befunde selbst in die „Corona-Warn-App“ eingetragen hat. Kontaktverfolgungs-Apps wie die deutsche „Corona-Warn-App“ sind allerdings erst dann besonders effektiv, wenn sie von vielen Personen aktiviert werden.

Die Studienergebnisse deuten darauf hin, dass Warn-App-Kampagnen vor Veröffentlichung der App die Bedenken von App-Ablehner*innen zum Datenschutz und zur Effektivität nicht vollständig ausräumen konnten. Das Forschungsteam schlägt vor, dass Personengruppen, die die App durchschnittlich seltener nutzten, Zielgruppe zukünftiger Kampagnen des Gesundheitswesens in der Bekämpfung der COVID-19 Pandemie sein könnten. Jedoch ist weitere Forschung zur Infektionsprävention (inkl. Nutzung von Kontaktverfolgungs-Apps) notwendig, die repräsentative Stichproben nutzt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Kai Tobias Horstmann
Humboldt-Universität zu Berlin
Psychological Assessment of Person-Situation-Dynamics
mail: kai.horstmann@hu-berlin.de

Originalpublikation:
“Short report: Who does or does not use the “Corona-Warn-App” and why?” European Journal of Public Health, ckaa239, https://doi.org/10.1093/eurpub/ckaa239

Anhang
PM HU: Wer nutzt die Corona-Warn-App – und wer nicht?

(nach oben)


Neuer Forschungsverbund als „Turbo für Atmosphären- und Klimaforschung sowie Meteorologie“

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Mit Jänner 2021 gründen die Universität Wien und die Zentralanstalt für Meteorologie und Geodynamik (ZAMG) gemeinsam das Wiener Netzwerk für Atmosphärenforschung, um die Forschung zu bündeln und zu intensivieren. „Auch angesichts der Klimakrise drängt die Zeit, um unser Prozessverständnis des Klimasystems zu verbessern“, erklärt Andreas Stohl vom Institut für Meteorologie und Geophysik, der das neue Netzwerk gemeinsam mit Gerhard Wotawa von der ZAMG leitet. Ziel sei es, Wien zu einem führenden Forschungsstandort im Bereich der Atmosphären- und Klimaforschung zu machen.

Treibhausgase, Aerosole und neue meteorologische Modelle: Die Klima- und Atmosphärenforschung hat sich in den letzten Jahren rasant entwickelt. Doch dabei tun sich auch immer neue Fragen auf – und gerade was die Klimaerwärmung betrifft, drängt die Zeit, diese zu beantworten. Vor diesem Hintergrund wurde nun von der Universität Wien und der Zentralanstalt für Meteorologie und Geodynamik ein neuer Forschungsverbund gegründet: Im Vienna Network for Atmospheric Research (VINAR) wird künftig die Meteorologie, Atmosphären- und Klimaforschung in Wien thematisch fokussiert und verstärkt.

„Im Jahr 1851 wurde die ZAMG als einer der ältesten staatlichen Wetterdienste der Welt gegründet, deren erster Leiter Karl Kreil auch gleichzeitig zum Professor für Physik an der Universität Wien ernannt wurde. Daraus entwickelte sich eine enge Zusammenarbeit der beiden Institutionen, die Wien gegen Ende des 19. Jahrhunderts und Anfang des 20. Jahrhunderts zu einem weltweit führenden Standort für Meteorologie machte. Mit VINAR wollen wir an diese erfolgreiche Zeit anschließen und Wien wieder zu einem Leuchtturm der Atmosphärenforschung machen“, erklärt Andreas Stohl vom Institut für Meteorologie und Geophysik der Universität Wien. Der Meteorologe, der heuer auch den Gottfried und Vera Weiss-Preis erhielt, leitet künftig gemeinsam mit Gerhard Wotawa, dem Bereichsleiter für Daten, Methoden und Modelle an der ZAMG, das Netzwerk.

In den nächsten Jahren soll über VINAR die Grundlagenforschung zur Verbesserung der gemeinsam verwendeten Wettervorhersage-, Klima- und Ausbreitungsmodelle vorangetrieben werden: „Wir wollen eine Art Turbo für Atmosphären- und Klimaforschung sowie Meteorologie sein“, so Stohl.

Forschungsinfrastruktur und Wissensgenerierung
„Angesichts der bestehenden Herausforderungen ist es wichtiger denn je, dass Produkte und Dienstleistungen, die der Sicherheit der Bürgerinnen und Bürger und der Infrastruktur dienen, am neuesten Stand der Forschung und maßgeschneidert auf den Bedarf von Gemeinden, Ländern und Bund und der Wirtschaft entwickelt werden. Die durch VINAR vorangetriebene gemeinsame Nutzung von Forschungs-Infrastrukturen und die gemeinsame Wissensgenerierung nutzt auch der gesamten Atmosphären- und Klimaforschung in Österreich“, sagt Gerhard Wotawa, an der ZAMG als Bereichsleiter zuständig für Forschung und Entwicklung.

Zusammenarbeiten will man beispielsweise bei der Entwicklung von Methoden für die Bilanzierung von Treibhausgasemissionen aufgrund atmosphärischer Messungen sowie beim Aufbau einer in-situ Messinfrastruktur für Aerosol- und Wolkeneigenschaften am Sonnblickobservatorium der ZAMG und an der städtischen Hintergrundstation der Universität Wien. Vonseiten der Universität Wien ist neben dem Institut für Meteorologie auch Bernadett Weinzierl, Leiterin der Forschungsgruppe Aerosolphysik und Umweltphysik an der Fakultät für Physik, Teil des VINAR-Teams.

VINAR-Leiter erhielt Gottfried und Vera Weiss-Preis
Auf der Weiterentwicklung von atmosphärischen Ausbreitungsmodellen liegt auch ein Schwerpunkt des VINAR-Leiters Andreas Stohl, der für ein Projekt in diesem Bereich im Jahr 2020 den mit 200.000 Euro dotierten Gottfried und Vera Weiss-Preis des Wissenschaftsfonds FWF für eine Lagrange‘sche Re-Analyse zuerkannt bekommen hat: Während herkömmliche Modelle meteorologische Parameter wie Luftfeuchtigkeit oder Temperatur an fixen Punkten erfassen, folgen die so genannten Lagrange‘schen Modelle den einzelnen Partikeln und erfassen, wie sich die meteorologischen Parameter entlang deren Weges ändern. Für Fragen wie den Transport von Schadstoffen und Treibhausgasen oder den Ursprung eines Starkregenereignisses habe diese Analysemethode klare Vorteile, so Stohl.

Auch im Rahmen des neuen Forschungsverbundes sind diese Modelle ein wichtiger Baustein, immerhin wird an der ZAMG das von Andreas Stohl entwickelte Modell auch zur Krisenfallvorsorge etwa nach Kernkraftwerksunfällen oder Vulkanausbrüchen verwendet. Darüber hinaus werden in VINAR aber auch Wettervorhersage- und Klimamodelle verbessert und Data Science-Methoden zur Analyse großer Datensätze (sog. „Big Data“) weiterentwickelt.

Kooperieren werden die Universität Wien und die ZAMG auch in der Lehre – geplant ist beispielsweise die Einrichtung eines übergreifenden Seminarprogramms sowie die gemeinsame Betreuung von Doktorand*innen, unter anderem auch über die Vienna International School of Earth and Space Sciences (VISESS) an der Fakultät für Geowissenschaften, Geographie und Astronomie der Universität Wien.

Zusammenarbeit gebündelt und verstärkt
„Ich freue mich sehr, dass über den neuen Forschungsverbund die Klima- und Atmosphärenforschung generell und auch an unserer Fakultät noch weiter gestärkt wird“, so Petra Heinz, Dekanin der Fakultät für Geowissenschaften, Geographie und Astronomie: „Die Zusammenarbeit mit der ZAMG, die ja auch schon bisher ausgezeichnet war, wird so gebündelt und auch organisatorisch auf neue Beine gestellt.“

Das Instrument der Forschungsverbünde hat sich an der Universität Wien bewährt, um – insbesondere in gesellschaftlich relevanten Themenbereichen – Wissenschafter*innen zusammenzuführen, um die Forschung in diesem Bereich zu intensivieren. Mit dem Vienna Network for Atmospheric Research (VINAR) gibt es derzeit an der Universität Wien elf Forschungsverbünde – von der Umweltforschung bis hin zur Geschlechter- oder Biographieforschung. Forschungsverbünde an der Universität Wien

Link zur Webseite des Forschungsverbundes: https://vinar.univie.ac.at/

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Mag. Dr. Andreas Stohl
Co-Leiter Vienna Network for Atmospheric Research (VINAR)
Universität Wien
1090 Wien, Althanstraße 14
T +43-1-4277-53730
T +49 8141 5291926
andreas.stohl@univie.ac.at

Dr. Gerhard Wotawa
Bereichsleiter Daten, Methoden, Modelle
Co-Leiter Vienna Network for Atmospheric Research (VINAR)
Zentralanstalt für Meteorologie und Geodynamik (ZAMG)
T +43-1-36026-2002
gerhard.wotawa@zamg.ac.at

Weitere Informationen:
https://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/…

(nach oben)


Generation 80+: Impfbereitschaft gut, Erreichbarkeit der Impfzentren schlecht

Nina Meckel, Pressesprecherin der DGG Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Mehr als 71 Prozent der Hochbetagten möchte sich gerne gegen COVID-19 impfen lassen. Jedoch fühlt sich nur ein Viertel der Impfwilligen in der Lage, die Impfzentren auch eigenständig aufzusuchen und sich dort impfen zu lassen. Das ist das Ergebnis einer ad hoc Befragung der Deutschen Gesellschaft für Geriatrie (DGG) unter geriatrischen Klinikpatienten. „Die Logistik ist für die Hauptzielgruppe der hochaltrigen Patienten der ersten Impfkohorte nicht durchdacht!“, prangert deshalb DGG-Präsident Prof. Hans Jürgen Heppner, Chefarzt der Klinik für Geriatrie am HELIOS Klinikum Schwelm und Lehrstuhlinhaber für Geriatrie an der Universität Witten/Herdecke, an.

„Die Anmeldung für die Impfung, die Erreichbarkeit der Impfzentren sowie die erforderliche Mobilität, stellt viele in der derzeit wichtigsten Zielgruppe der Impfstrategie vor eine nahezu unlösbare Aufgabe.“

Es gelte jetzt zügig effektive Möglichkeiten zu schaffen, die alten Menschen bei der Terminvereinbarung und dem Transport in die Impfzentren zu unterstützen, fordert deshalb die Koordinatorin der Umfrage, Frau Prof. Petra Benzinger von der Universität Heidelberg. „Die hohe Impfmotivation in der Höchstrisikogruppe ist wirklich sehr ermutigend!“, so Benzinger. „Viele Studienteilnehmer, die sich während der Befragung ja in klinischer Behandlung befanden, baten um einen umgehenden Impftermin und einige erklärten sogar den Wunsch, länger in der Klinik bleiben zu wollen, wenn dies zu einer Impfung führen würde.“

Arzt und Patient zusammenbringen!
Es gilt jetzt Patient und Arzt zusammen zu bringen! „Denn während die Bewohner von Pflegeheimen bereits geimpft werden, überlegt der Großteil der Zielgruppe 80+ zuhause, wie sie die Impfung wohl bekommen kann“, erklärt Prof. Clemens Becker, Chefarzt der Geriatrie am Robert-Bosch-Krankenhaus in Stuttgart und Experte für Mobilität im Alter. „Viele der Impfzentren scheinen noch nicht einmal barrierefrei gestaltet zu sein. Das ist ein echtes Problem!“

Hausärzte impfen derzeit noch nicht gegen SARS-CoV-2. Transport und Mischung des Impfstoffes ist zu kompliziert, als das gegenwärtig kleinere Mengen in die Hausarztpraxen abgegeben werden können. Daher wird es vor allem auf familiäre und nachbarschaftliche Hilfe ankommen. „Auch die Unterstützung durch Wohlfahrtsverbände, Kirchen und ehrenamtliche Begleiter ist denkbar und wäre wichtig für das Gelingen der Impfstrategie in Deutschland“, so Petra Benzinger. Ferner sollten auf kommunaler Ebene ergänzende Impfangebote für die Gruppe der noch selbstständig lebenden, hochbetagten Menschen entwickelt werden. Die Deutsche Gesellschaft für Geriatrie bietet den Verantwortlichen auf Bundes- und Länderebene gerne ihre Unterstützung bei der Entwicklung entsprechender Konzepte an.

Mobile Impfteams von Tür zu Tür?
Derzeit fahren hunderte mobiler Impfteams in Pflegeheime, um dort die Bewohner sowie Mitarbeiter zu impfen. „Warum sollten diese Teams nicht auch in den nächsten Wochen am Morgen zentral ihre Spritzen aufziehen und dann Hausbesuche durchführen?“, überlegt DGG-Präsident Heppner laut. Eine Aufklärung über Risiken und Nebenwirkungen könne ja bereits im Vorfeld schriftlich oder auch mit Hilfe eines kurzen Films erfolgen. „Wer dann noch Fragen hat, kann diese dann ja direkt stellen – aber nicht jeder Impfwillige muss noch einmal einzeln lang und breit aufgeklärt werden!“, ist Heppner überzeugt. Selbstverständlich seien die Geriater bereit, dass Mammutprojekt „Impfungen gegen Corona“ aktiv zu unterstützen, um möglichst rasch die vulnerabelsten Mitglieder unserer Gesellschaft zu impfen. Dafür müssen jetzt aber zügig Fakten geschaffen werden!

Konkrete Zahlen der Befragung:
• Gesamtzahl der Befragten: 118 Personen
• Männlich: 28%
• Weiblich: 72%
• schnellstmögliche Impfung (% aller Teilnehmenden): 53,4
• Impfwillig = schnellstmöglich plus später (% aller Teilnehmenden): 71,2
• Unentschiedene (% aller Teilnehmenden): 20,3
• Impfskeptiker = wünschen keine Impfung (% aller Teilnehmenden): 8,5
• Organisation des Transportes selbst möglich (% aller TN): 26,3
• Organisation des Transportes nicht selbst möglich (% aller TN): 50,0
• Weiß nicht, ob Impfzentrum aufgesucht werden kann (% TN): 14,4
• lebt in Pflegeheim / Betreuten Wohnen (% der TN): 5,1
• Fehlende Angabe (% aller TN): 4,2
• Die Befragung fand vom 18.12.2020 bis zum 22.12.2020 statt.

Teilnehmende Kliniken und Personen:
1. Geriatrisches Zentrum der Universität Heidelberg und AGAPLESION BETHANIEN KRANKENHAUS, Heidelberg; Frau Prof. Petra Benzinger und Prof. Jürgen M. Bauer
2. Robert-Bosch Krankenhaus, Stuttgart; Prof. Clemens Becker
3. AGAPLESION BETHESDA KLINIK, Ulm; Prof. Michael Denkinger
4. Marienhospital Herne, Ruhr-Universität Bochum, Prof. Rainer Wirth
5. Charité Berlin, Herr Dr. Adrian Rosada und Frau Prof. Ursula Müller-Werdan

Originalpublikation:
https://www.dggeriatrie.de/presse/pressemeldungen/1755-pm-generation-80-impfbere…

Anhang
Generation 80+: Impfbereitschaft gut, Erreichbarkeit der Impfzentren schlecht

(nach oben)


Immunüberreaktion erklärt schweren COVID-19 Verlauf bei Patient*innen mit Bluthochdruck – Können ACE-Hemmer helfen?

Dr. Stefanie Seltmann Presse- und Öffentlichkeitsarbeit
Berlin Institute of Health (BIH)
COVID-19-Patient*innen, die an Bluthochdruck leiden, erkranken häufiger schwer und haben dann sogar ein erhöhtes Sterberisiko. Wissenschaftler*innen vom Berlin Institute of Health (BIH) und der Charité – Universitätsmedizin Berlin fanden nun in Zusammenarbeit mit ihren Partnern in Heidelberg und Leipzig heraus, dass die Immunzellen von Patient*innen mit Bluthochdruck bereits voraktiviert sind, was unter COVID-19 massiv verstärkt wird. Dies erklärt sehr wahrscheinlich die Überreaktion des Immunsystems und den schweren Krankheitsverlauf. Bestimmte Medikamente können einen günstigen Einfluss ausüben. Sie senken nicht nur den Blutdruck, sie wirken auch der Immunhyperaktivierung entgegen.

Über eine Milliarde Menschen weltweit leiden unter Bluthochdruck. Von den mehr als 75 Millionen Menschen, die sich weltweit mit SARS-CoV-2 angesteckt haben, litten mehr als 16 Millionen gleichzeitig an Bluthochdruck. Diese Patienten erkrankten häufiger besonders schwer und hatten dann sogar ein erhöhtes Sterberisiko. Es war unklar, inwieweit bluthochdrucksenkende Medikamente unter einer SARS-CoV-2 Infektion weiter verabreicht werden können und ob sie den Patient*innen eher nutzen oder schaden. Denn Bluthochdruckmedikamente greifen in genau denselben Regelmechanismus ein, über den das neuartige Coronavirus SARS-CoV-2 in die Wirtszelle gelangt und COVID-19 auslöst.

Professor Ulf Landmesser ist Ärztlicher Leiter des Charité Centrums für Herz-, Kreislauf- und Gefäßmedizin, Direktor der Medizinischen Klinik für Kardiologie und BIH Professor für Kardiologie am Campus Benjamin Franklin der Charité – Universitätsmedizin Berlin. Er hatte schon früh festgestellt, dass Patient*innen mit Bluthochdruck oder Herzkrankheiten oft besonders schwer an COVID-19 erkranken. „Das Virus benutzt als Eintrittspforte in die Zellen den Rezeptor ACE2, dessen Bildung durch die Gabe von blutdrucksenkenden Medikamenten beeinflusst werden könnte. Wir hatten deshalb zunächst befürchtet, dass Patient*innen, die ACE-Hemmer oder Angiotensin-Rezeptorblocker erhalten, womöglich mehr ACE2-Rezeptoren auf ihren Zelloberflächen aufweisen und sich dadurch leichter infizieren könnten.“

Bestimmte Medikamente gegen Bluthochdruck könnten bei COVID-19 helfen
Um diesen Verdacht zu klären, analysierten die Wissenschaftler*innen einzelne Zellen aus den Atemwegen von COVID-19-Patient*innen, die Medikamente gegen ihren Bluthochdruck einnahmen. Und konnten anschließend Entwarnung geben, erklärt Dr. Sören Lukassen, Wissenschaftler bei Professor Christian Conrad im BIH-Digital Health Center. „Wir haben festgestellt, dass die Medikamente offensichtlich nicht bewirken, dass mehr Rezeptoren auf den Zellen erscheinen. Wir gehen somit nicht davon aus, dass sie dem Virus den Eintritt in die Zellen auf diese Weise erleichtern und so den schweren Verlauf der COVID-19-Erkrankung verursachen.“ Ganz im Gegenteil war die Behandlung von Herzkreislaufpatient*innen mit ACE-Hemmern mit einem geringeren Risiko für einen schweren Verlauf von COVID-19 verbunden. Herzkreislaufpatient*innen, die ACE-Hemmer erhielten, hatten sogar fast das gleiche Risiko wie die COVID-19-Patient*innen ohne Herzkreislaufprobleme.

Schwerer COVID-19 Verlauf durch Voraktivierung des Immunsystems
Bluthochdruckpatient*innen zeigen in der Regel erhöhte Entzündungswerte im Blut, was im Fall einer SARS-CoV-2-Infektion fatale Folgen haben kann. „Erhöhte Entzündungswerte sind unabhängig vom Herzkreislaufstatus immer ein Warnsignal, dass die COVID-19-Erkrankung schwer verlaufen wird“, erklärt Klinikdirektor Landmesser. Die Wissenschaftler*innen untersuchten daher per Einzelzellsequenzierung die Immunantwort von Bluthochdruckpatienten unter COVID-19.

„Wir haben insgesamt 114,761 Zellen aus dem Nasen-Rachenraum von 32 COVID-19-Patientinnen und -Patienten sowie von 16 nicht-infizierten Kontrollpersonen analysiert, beide Gruppe schlossen sowohl Herzkreislaufpatient*innen als auch Menschen ohne Herzkreislaufprobleme ein“, berichtet Dr. Saskia Trump, Arbeitsgruppenleiterin im Labor von Irina Lehmann, BIH Professorin für Umweltepigenetik und Lungenforschung. „Dabei stellten wir fest, dass die Immunzellen der Herzkreislaufpatientinnen und -patienten schon vor der Infektion mit dem neuartigen Coronavirus eine auffällige Voraktivierung zeigten. Nach Kontakt mit dem Virus entwickelten diese Patienten häufiger eine überschießende Immunreaktion, die mit einem schweren COVID-19 Krankheitsverlauf verbunden war.“ „Unsere Ergebnisse zeigen aber auch, dass eine Behandlung mit ACE-Hemmern, nicht aber mit Angiotensin-Rezeptorblockern, diese überschießende Immunantwort nach Infektion mit dem Corona-Virus verhindern könnte. ACE-Hemmer könnten damit das Risiko von Patienten mit Bluthochdruck für einen schweren Krankheitsverlauf verringern“, ergänzt Irina Lehmann.

Abbau des Virus verzögert
Weiterhin stellten die Wissenschaftler*innen fest, dass die blutdrucksenkenden Medikamente auch einen Einfluss darauf haben könnte, wie schnell das Immunsystem die Viruslast, also die Konzentration des Virus im Körper, abbauen kann. „Hier sahen wir einen deutlichen Unterschied zwischen den verschiedenen Behandlungsformen gegen Bluthochdruck“, berichtet Roland Eils, Direktor des BIH Zentrums für Digitale Gesundheit. „Bei den mit Angiotensin-II-Rezeptorblockern behandelten Patienten war der Abbau der Viruslast deutlich verzögert, was ebenfalls zu einem schwereren Verlauf der COVID-19-Erkrankung beitragen könnte. Diese Verzögerung sahen wir nicht bei den Patientinnen und Patienten, die ACE-Hemmer zur Behandlung ihres Bluthochdrucks erhalten hatten.“

Interdisziplinäre Zusammenarbeit beschleunigt die Forschung
Mehr als 40 Wissenschaftler*innen haben unter Hochdruck an dieser umfangreichen Studie mitgearbeitet. „Um in der laufenden Pandemie schnell Antworten auf dringende Fragen geben zu können, bedarf es einer interdisziplinären Zusammenarbeit vieler engagierter Akteure “, erklärt Roland Eils. „COVID-19 ist eine so komplexe Erkrankung, dass wir Expert*innen aus der Virologie, der Immunologie, der Kardiologie, der Lungenheilkunde, der Intensivmedizin und der Informatik für diese Studie zusammengebracht haben. Unser Ziel war es, möglichst schnell wissenschaftlich-fundiert die Frage zu beantworten, ob eine Therapie mit ACE-Hemmern oder Angiotensin-Rezeptor Blockern während der COVID-19 Pandemie nützlich oder gar schädlich sein könnte.“

Keine Hinweise auf erhöhtes Infektionsrisiko
Im Ergebnis können die Teams von BIH, Charité und den kooperierenden Einrichtungen in Leipzig und in Heidelberg nun die Patient*innen und ihre behandelnden Ärzt*innen beruhigen: „Unsere Studie gibt keine Hinweise darauf, dass die Behandlung mit bluthochdrucksenkenden Medikamenten das Infektionsrisiko für das neuartige Coronavirus erhöht. Eine Behandlung des Bluthochdrucks mit ACE-Hemmern könnte für die Patienten, die an COVID-19 erkranken, allerdings günstiger sein als die Therapie mit Angiotensin-II-Rezeptor Blockern, was in randomisierten Studien aktuell weiter untersucht wird“, fasst Ulf Landmesser die Ergebnisse zusammen.

Wissenschaftliche Ansprechpartner:
Professor Ulf Landmesser
Professor Irina Lehmann
Professor Roland Eils
Professor Christian Conrad

Originalpublikation:
Saskia Trump#, Soeren Lukassen#, Markus S. Anker#, Robert Lorenz Chua#, Johannes Liebig#, Loreen Thürmann#, …….Christine Goffinet, Florian Kurth, Martin Witzenrath, Maria Theresa V.lker, Sarah Dorothea Müller, Uwe Gerd Liebert, Naveed Ishaque, Lars Kaderali, Leif- Erik Sander, Sven Laudi, Christian Drosten, Roland Eils*, Christian Conrad*, Ulf Landmesser*, Irina Lehmann*, Delayed viral clearance and exacerbated airway 1 hyperinflammation in hypertensive COVID-19 patients, Nat. Biotechnology DOI: 10.1038/s41587-020-00796-1

(nach oben)


Speicherung erneuerbarer Energien und CO2-Verwertung

Ralf-Peter Witzmann Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg
Die Energiegewinnung aus erneuerbaren Ressourcen liefert häufig keine kontinuierliche Versorgung, sondern sie verläuft in Peaks und Tälern. Speichermöglichkeiten würden diese Kurve abflachen. An einer solchen arbeitet das Fachgebiet Abfallwirtschaft der BTU gemeinsam mit der Hochschule Flensburg im Projekt WeMetBio.

Für das Gelingen der Energiewende stellt die Systemintegration und Kopplung der verschiedenen erneuerbaren Energiequellen inklusive deren Speicherung und des Transportes eine entscheidende Herausforderung dar. Gleichzeitig stehen Windkraft-, Solar- und Biogasanlagenbetreiber vor der Herausforderung, wirtschaftliche Post-EEG Konzepte für Bestandsanlagen zu entwickeln.

Überschüssige Energie erzeugt Wasserstoff
Vor diesem Hintergrund ist im Fachgebiet Abfallwirtschaft die Nutzbarmachung bislang nicht nutzbarer erneuerbarer Energien (Stichwort: Abschaltung von Windkraftanlagen bei Überangebot) wesentlicher Forschungsgegenstand. Der regenerativ erzeugte Strom soll zur Gewinnung von Wasserstoff eingesetzt werden. Dieser wird unter Reaktion mit CO2 zur Erzeugung von Methan eingesetzt. Mit Methan als gasförmigem Energieträger, Kraftstoff oder chemischem Ausgangsstoff ist die Verknüpfung zu anderen Sektoren und Wirtschaftskreisläufen sehr gut möglich. Dadurch wird die indirekte Nutzung von Strom aus erneuerbaren Energiequellen vorangetrieben und dessen Speicherung bzw. Transportierbarkeit verbessert.

Patentierte Technologie
Mit diesem Ziel kommt ein sogenanntes Rieselbettverfahren zur biologischen Methanisierung zum Einsatz, das im Fachgebiet Abfallwirtschaft entwickelt wurde und bereits patentrechtlich geschützt ist. Wesentliche Vorteile liegen in der hohen Produktgasqualität bei geringem Eigenenergieverbrauch und in der hohen Prozessstabilität, Steuerbarkeit und Flexibilität gegenüber den gegebenen fluktuierenden Randbedingungen. Zugleich ist mit der technologischen Lösung direkt die Verminderung von Treibhausgasemissionen verbunden. Daher ist die Nutzbarmachung von CO2 von hervorzuhebender Bedeutung, da es direkt als C-Quelle zur Gewinnung des Energieträgers Methan dient. Es kann von einer realen CO2-Kreislaufwirtschaft gesprochen werden.

Infolge der technologischen Entwicklungen und Optimierung des Rieselbettverfahrens der vergangenen Jahre am Fachgebiet wird die Integration in den Energieverbund von Windkraftanlagen, emissionsintensiven Industrieprozessen, Biogas-/Biomethananlagen bzw. mechanisch-biologischer Abfallbehandlungsanlagen zur Methaneinspeisung und Weiterleitung im Erdgasnetz angestrebt.

Starke Kooperationen
In Zusammenarbeit mit der GICON GmbH erfolgt momentan die Auslegung und Maßstabsübertragung auf anwendungsnahe Konzepte für verschiedene Standorte.
Konkret erfolgt die Bearbeitung einer Durchführbarkeitsstudie für die „Bedarfsgerechte Speicherung fluktuierender erneuerbarer (Wind-) Energie durch Integration der Biologischen Methanisierung im Rieselbettverfahren im Energieverbund in Schleswig-Holstein“ (WeMetBio-Projekt) zur Ermittlung eines effizienten und wirtschaftlichen Konzeptes unter Einbindung ausgewählter Projektstandorte.
Diese Studie stellt die Vorstufe und Vorbereitung einer Pilotanlage zur Erprobung dieser bioenergiebasierten Lösung als Baustein der ländlichen Energieversorgung dar. Projektpartner ist die Hochschule Flensburg, die neben ihrer lokalen Anbindung im „Windland Schleswig-Holstein“ die notwendige fachliche Kompetenz im Bereich der nachhaltigen Bioenergie- und Systemintegration einbringt.

Pressekontakt:
Kathrin Schlüßler
Stabsstelle Kommunikation und Marketing
T +49 (0) 355 69-2115
kathrin.schluessler@b-tu.de

Wissenschaftliche Ansprechpartner:
PD Dr.-Ing. habil. Marko Burkhardt
Abfallwirtschaft
T +49 (0) 355 69-4328
burkhardt@b-tu.de

(nach oben)


IAB-Arbeitsmarktbarometer: Arbeitsmarktentwicklung bleibt stabil

Marie-Christine Nedoma, Jana Bart und Pia Kastl Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das IAB-Arbeitsmarktbarometer ist im Dezember um 0,5 Punkte auf 101,0 Punkte gestiegen. Damit signalisiert der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) eine leichte Aufwärtsentwicklung am Arbeitsmarkt über die ersten Monate des Jahres 2021.

„Die Arbeitsagenturen erwarten im zweiten Lockdown keinen erneuten Einbruch des Arbeitsmarkts“, sagt Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“. Viele Betriebe würden ihre Beschäftigten halten, unterstützt durch Kurzarbeit und Stützungsmaßnahmen. „Inzwischen wissen wir, woran wir mit einem Lockdown sind. Und heute können wir damit rechnen, mit den Impfungen die Pandemie in den Griff zu bekommen“, erklärt Weber die robuste Arbeitsmarktentwicklung. Zu beachten sei allerdings, dass der Befragungszeitraum in der ersten Dezemberhälfte endete, bevor die Verschärfung des Lockdowns beschlossen wurde.
Die Komponente des IAB-Arbeitsmarktbarometers zur Vorhersage der saisonbereinigten Arbeitslosigkeit konnte im Dezember um 0,7 auf 102,4 Punkte zulegen. Der Trend fallender Arbeitslosigkeit dürfte sich fortsetzen. Die Beschäftigungskomponente des IAB Arbeitsmarktbarometers stieg im Dezember im Vergleich zum Vormonat um 0,3 auf 99,5 Punkte. Damit liegt sie nur noch leicht unter der neutralen Marke von 100 Punkten. Vor der Krise waren allerdings Werte weit über 100 erreicht worden. „Die Corona-Einschränkungen und die tiefgreifende wirtschaftliche Transformation in Bereichen wie Automobil oder Handel stellen den Arbeitsmarkt 2021 weiter vor Herausforderungen“, so Weber.
Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert. Während Komponente A des Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert des IAB-Arbeitsmarktbarometers. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

Weitere Informationen:
http://www.iab.de/presse/abzeitreihe
http://www.iab.de/presse/abgrafik

(nach oben)