Freitag, Juni 18, 2021
StartAktuellesTägliche Meldungen

Tägliche Meldungen

Meldungen 2010 Meldungen 2011 Meldungen 2012 Meldungen 2013
Meldungen 2014 Meldungen 2015 Meldungen 2016 Meldungen 2017
Meldungen 2018 Meldungen 2019 Meldungen 2020  
   
Umwelt
Gesundheit
Gesellschaft
Umwelt
18.06.2021 Zurück zur Natur? Wie die Renaturierung von Gewässern sozial-ökologisch gestaltet werden kann
16.06.2021 Steinmeier: Wir befinden uns mitten im Umbruch ins postfossile Zeitalter
14.06.2021 KIT: Zuckerhirse: Süßes Versprechen für die Umwelt
13.06.2021 Gewässerschutz: Deutsche haben ökologische Grundwerte, aber wenig Bezug zu Fischen
11.06.2021 Dem Meeresmüll trotzen
10.06.2021 Wie Katalysatoren altern
07.06.2021 Pflanzenkonkurrenz im Klimawandel
06.06.2021 HSD-Forschungsschwerpunkt „Umweltmesstechnik in der Luftreinhaltung“ zum aktuellen EuGH-Urteil
04.06.2021 Meilenstein für nachhaltige Batterien – „grünere“ Kohlenstoffe
02.06.2021 Verklär²: Innovatives Verwertungskonzept für energieautarke und ressourcenschonende Kläranlagen
Gesundheit
17.06.2021 Einladung zum IST-Webinar: „Power für den Tag – wie Sie Ihre Schlafprobleme lösen“
15.06.2021 Kniearthrose: Wann kommt ein Gelenkersatz infrage? Gibt es Alternativen? IQWiG legt Entscheidungshilfe vor
09.06.2021 «Wir sollten den Einfluss von Reisen nicht unterschätzen»
01.06.2021 Einjährige Corona-Studie ELISA zu Antikörpern zeigt: Dunkelziffer ist deutlich zurückgegangen
Gesellschaft
12.06.2021 Roboterhunde auf der Baustelle
08.06.2021 Studie: Mit KI Ressourcen im Betrieb wirksam einsetzen
05.06.2021 Wie man Elfmeter besser halten kann
03.06.2021 Es gibt einen deutlichen Zusammenhang zwischen freiwilligem Engagement und positiven Einstellungen zu Demokratie
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.05.2021 In Millisekunden von verschmutztem zu klarem Wasser – Neue Erkenntnisse im Bereich Nanoscience
29.05.2021 Vibrionen und Klimawandel: Können Natur-basierte Methoden das Gefährdungspotenzial in der Ostsee mildern?
27.05.2021 Grundwasserüberwachung mit Erdbebenmessgeräten
26.05.2021 Nachhaltige Stromerzeugung in Aquakultur, Kläranlage und Abwasserkanal
25.05.2021 Was Städteplaner aus der Corona-Krise lernen
23.05.2021 Neue Fachzeitschrift präsentiert Wissen aus der Fischereiforschung
21.05.2021 Multitalent für die Elektromobilität – der CrossChargePoint – ein Projekt der TH Deggendorf
20.05.2021 Unsichtbares sichtbar machen
18.05.2021 Neue Frühwarnsignale: Teile des grönländischen Eisschildes könnten Kipppunkt überschreiten
17.05.2021 Neue REBOWL bald auch aus Biokunststoff? IfBB entwickelt nachhaltiges Material für neue Mehrweg-Schale
16.05.2021 Verarmte Flora in Wiesen und Wäldern gefährdet Insekten
15.05.2021 Geothermie als nachhaltige Energiequelle: Neue Fallstudie zeigt Potenziale für die Verringerung von CO₂-Emissionen
11.05.2021 Bioaktive Papierbeschichtung ersetzt Kunststoffverpackungen bei Lebensmitteln
10.05.2021 KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten
09.05.2021 Von Gewittern über Starkregen bis Dürreperioden
07.05.2021 Schadstoffabbau und Treibhausgas-Verringerung: Neue Studie zur Funktionsweise aquatischer Ökosysteme
05.05.2021 Mehr Widerstandskraft für die Schweizer Energieversorgung
04.05.2021 Ausgezeichnete Klimaaktivitäten als Blaupause für Kommunen
03.05.2021 Bioraffinerie am Bauernhof der Zukunft
01.05.2021 Mehr Gemüse, weniger Milch
Gesundheit
30.05.2021 Hygieneregeln wirken auch gegen britische und südafrikanische Mutante
28.05.2021 Wann und wie schädigt Alkohol das Gehirn?
24.05.2021 Gesichtsmasken schützen effektiv vor COVID-19
19.05.2021 Corona: Neue Webanwendung Aerosol Control berechnet Infektionsrisiko
13.05.2021 Studie: Das durchschnittliche Einzelkrankenhaus hat wenig Zukunft
02.05.2021 Grippeschutzimpfung: Neue Richtlinie verbessert Versorgung älterer Menschen
Gesellschaft
22.05.2021 Die Macht der Bilder – Wissenschaftler untersuchen ihren Einfluss bei der Magersucht
14.05.2021 Drei Viertel der Beschäftigten mit Homeoffice-Option sind teilweise oder ausschließlich im Homeoffice tätig
12.05.2021 Neue Studie aus Bayreuth: Deutlicher Anstieg des Radfahrens in Großstädten nach Lockdown-Beginn 2020
08.05.2021 Fehler am Anfang des Lebens
06.05.2021 Beruflicher Erfolg beeinflusst die Persönlichkeit
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.04.2021 Korallen, die Algen spucken
28.04.2021 Einkaufen ohne Verpackungsmüll
23.04.2021 Einladung zum HNEE-Feldtag: Austausch über die Vielfalt im Wurzelraum
22.04.2021 Kraftstoffe & Energieträger der Zukunft
21.04.2021 Keine Ausreden mehr: EU-Kommissar Frans Timmermans unterstreicht ein effektives Recycling von Hightech-Kunststoffen
20.04.2021 Grüner Wasserstoff: Israelisch-deutsches Team löst das Rätsel um Rost
18.04.2021 Wohlhabendere Länder im Vorteil
17.04.2021 Kampf gegen Mikroplastik: Neues Verfahren zur Herstellung von Dämmstoff aus Kunststoffabfällen
15.04.2021 Zuverlässig messen, ob Flüssen und Seen die Luft ausgeht
14.04.2021 Entwicklung von Wasserstofftanks für Kraftfahrzeuge
11.04.2021 Trotz verbessertem Umweltmonitoring: Der ökologische Zustand von europäischen Gewässern verschlechtert sich
10.04.2021 Wirkung des Lockdowns auf Luftqualität an den Straßen und damit im Alltag zu spüren
09.04.2021 Die Pandemie für den Umweltschutz nutzen
07.04.2021 Welche Rolle spielt das Grundwasser für die Küstenmeere?
06.04.2021 Grüner Wasserstoff: Transport im Erdgasnetz
05.04.2021 Ein neuer Zustand des Lichts
01.04.2021 Neuer Schwung für die Elektromobilität: Entwicklung von effizienteren Lithium-Ionen-Batterien
Gesundheit
26.04.2021 Starker Rückgang der Darmkrebs-Inzidenz und -Sterblichkeit seit Einführung der Vorsorge-Darmspiegelung
25.04.2021 Neue Ursache zur Entstehung von Leukämie entdeckt
19.04.2021 Papier-basierter Covid-19-Antikörper-Test – TU-Forschende veröffentlichen ihre Entwicklung in „Scientific Reports“
13.04.2021 Mehr als die Summe der Mutationen – 165 neue Krebsgene mit Hilfe maschinellen Lernens identifiziert
03.04.2021 Röntgenlichtquelle PETRA III identifiziert vielversprechende Kandidaten für Coronamedikamente
Gesellschaft
29.04.2021 Wem gehört der Fußball?
26.04.2021 Studie: Wie verändern Berufseinstieg und Renteneintritt die Persönlichkeit?
24.04.2021 Langeweile und Selbstkontrolle in der Pandemie
16.04.2021 Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik
12.04.2021 Mehr Brot und Süßigkeiten im Lockdown
08.04.2021 Aktuelle Auswertung von Lohnspiegel.de – Diese fünf Faktoren bestimmen Ihr Gehalt
04.04.2021 Apokalyptische und Postapokalyptische Studien
02.04.2021 Covid-19 und der öffentliche Raum in der Krise
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.03.2021 Neue Methode für die Speicherung erneuerbarer Energien
28.03.2021 Die beständige Gefahr nach Landschaftsbränden: Verkohlte Pflanzen enthalten schädliche freie Radikale
27.03.2021 Neuartige, haltbare biologisch abbaubare Flaschen aus Biokunststoffen
26.03.2021 DBFZ präsentiert umfangreich erweiterte Onlinedatenbank zu biogenen Rohstoffen
25.03.2021 Emissionsrückgang aufgrund der Corona-Lockdowns hat das globale Klima nicht wesentlich beeinflusst
22.03.2021 Mit „innovatION“ nationale und internationale Wasserressourcen sichern
21.03.2021 Risiken von Wasserknappheit begrenzen: Bewässerungsmanagement entscheidend für Bioenergie-Anbau zum Klimaschutz
20.03.2021 Auf der Suche nach Lösungen für Klimawandelfolgen in Nord- und Ostsee: Küstenforschungsverbund KüNO geht in dritte Runde
19.08.2021 Lachsdetektor zur Erfolgskontrolle am Rhein
18.03.2021 Mikroplastik in der Elbe
14.03.2021 Erste Lausitzer Wasserkonferenz in Cottbus startet durch
13.03.2021 Europäisches Forschungsnetzwerk untersucht die Mikroplastikbelastung von Ackerböden
12.03.2021 Klimawandel verändert Abflussmenge von Flüssen
11.03.2021 Erholung an europäischen Gewässern bringt Volkswirtschaft 800 Milliarden Euro
10.03.2021 Neue Studie zeigt: Mehr Müll durch COVID-19 Pandemie
09.03.2021 Eine “Modell-Botschaft” für die Ostsee: die weitere Umsetzung von Nährstoff-Reduktionen wird am Ende erfolgreich sein
08.03.2021 Die Weltmeere sickern tiefer in die Erde als erwartet
06.03.2021 Energiewende der Schweiz
04.03.2021 BLUE PLANET Berlin Water Dialogues – Virtuelle Vernetzungsmöglichkeiten mit der internationalen Wasserbranche
02.03.2021 Die Mikroplastik-Belastung der Ostsee: Neue Ansätze für Monitoring und Reduktionsmaßnahmen
Gesundheit
23.03.2021 Wenn Salz, dann Jodsalz
15.03.2021 TU Berlin: Weniger Behandlungsfälle trotz Pandemie
07.03.2021 Virus-Varianten in der Pandemie schneller aufspüren
03.03.3021 70 Prozent weniger Darmkrebs-Todesfälle nach Vorsorge-Darmspiegelung
Gesellschaft
30.03.2021 Arbeitszeit von Männern und Frauen: Wunsch und Wirklichkeit klaffen auseinander
29.03.2021 IAB-Arbeitsmarktbarometer legt weiter zu, dennoch bleiben Risiken
24.03.2021 Grundsteuer belastet vor allem ärmere Haushalte in Mietwohnungen
17.03.2021 Arbeitsbedingungen in sozialen Berufen verschlechtern sich weiter
16.03.2021 Internetnutzung von Menschen in der zweiten Lebenshälfte während der Pandemie: Soziale Ungleichheiten bleiben bestehen
05.03.2021 2019 gingen weniger Beschäftigte vorzeitig in Rente
01.03.2021
kompetenzz-Studie zeigt: Partnerschaftliche Teilung der Arbeit im Haushalt – Frauen wollen sie, Männer auch
Umwelt
Gesundheit
Gesellschaft
Umwelt
28.02.2021 Golfstrom-System schwächer als je zuvor im vergangenen Jahrtausend
26.02.2021 Report: Energiewende-Projekt Ariadne diskutiert mit Menschen aus ganz Deutschland zur Strom- und Verkehrswende
25.02.2021 Cyanobakterien könnten die Plastikindustrie revolutionieren
23.02.2021 Erhöhter Wasserverbrauch in Zeiten des Lockdowns. Was bedeuten veränderte Routinen für die Versorgungssicherheit?
22.02.2021 Der Meeresspiegel an Nord- und Ostseeküste steigt
21.02.2021 Ein neuer Master-Studiengang Biotechnologie
19.02.2021 Perspektiven-Papier zeigt Forschungsbedarf zur unterirdischen Wasserstoffspeicherung
17.02.2021 Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem
16.02.2021 Wärmere Winter führen zu weniger Heringsnachwuchs in der westlichen Ostsee
15.02.2021 Ganzheitliches Aktivkohleverfahren beseitigt Spurenstoffe in Kläranlagen
14.02.2021 Verborgenes Wissen heben, um Ökovielfalt der Meere zu retten
11.02.2021 ACHEMA Pulse – das neue digitale Flagschiff für die Prozessindustrie setzt Segel
10.02.2021 Wie beeinträchtigt der Biokraftstoff E10 Filtersysteme im Auto?
07.02.2021 MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich
06.02.2021 CO2 ist nicht alles: Klimapolitik braucht stärkeren Fokus auf kurzlebige Schadstoffe
05.02.2021 Plastik in der Umwelt finden und vermeiden
02.02.2021 Folgen des Klimawandels an der Küste
01.02.2021 Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem
Gesundheit
24.02.2021 Klimawandel spielte womöglich wichtige Rolle bei der Entstehung vom SARS-CoV-2
20.02.2021 Schnellere und richtigere Diagnosen
13.02.2021 Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit
12.02.2021 Studie in Tansania: Traditionelle Ernährung verursacht weniger Entzündungen
03.02.2021 Höhere Tierwohlstandards lassen Milchpreise steigen
Gesellschaft
27.02.2021 Lerntechnologien und Mathematikdidaktik gemeinsam entwickeln
10.02.2021 BAuA-Arbeitszeitbefragung: Arbeitszeitgeschehen zeigt positive Trends bei hoher Stabilität
09.02.2021 Mit KI den Parkdruck auf der Straße messen
07.02.2021 Wie beeinflusst die Pandemie unser Denken und Fühlen?
02.02.2021 Fußball und Inklusion: Auf das richtige Trainingsklima kommt es an
Januar 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.01.2021 Neue Untersuchungen bestätigen Munitionsbelastung in der Ostsee erneut
29.01.2021 CO2-Bepreisung allein bringt technologischen Wandel kaum voran
28.01.2021 Stress an den deutschen Flüssen: Der Klimawandel setzt Umwelt und Wirtschaft unter Druck
27.01.2021 Regionaler Wasserstoff aus Biomasse – sauber und effizient!
26.01.2021 Permanenter Hitzezustand / Klimawandel fördert das Aufheizen von Seen
25.01.2021 Benzinpreise steigen nach CO2-Bepreisung und Mehrwertsteuererhöhung weniger als erwartet
24.01.2021 Klimawandel und Wasserstraßen
22.01.2021 KIT: Thermomagnetische Generatoren wandeln Abwärme auch bei kleinen Temperaturunterschieden in Strom
21.01.2021 Kommt Trinkwasser bald aus dem Meeresboden?
20.01.2021 Grundwasser beeinflusst die Chemie des Ozeans
18.01.2021 Corona-Trend Angeln: Die Artenvielfalt könnte profitieren
16.01.2021 Das neue Gesicht der Antarktis
14.01.2021 Seilbahnen als umweltfreundliche Alternative zum Autoverkehr
12.01.2021 Stadtlogistik: Wie lässt sich die „Letzte Meile“ möglichst nachhaltig gestalten?
10.01.2021 Verzicht auf Silvesterfeuerwerk erspart der Umwelt Tausende Tonnen Kunststoffe
07.01.2021 TU Berlin: Klärschlämme und Plastikfolien kontaminieren die Felder
05.01.2021 Neuer Forschungsverbund als „Turbo für Atmosphären- und Klimaforschung sowie Meteorologie“
02.01.2021 Speicherung erneuerbarer Energien und CO2-Verwertung
Gesundheit
30.01.2021 An der Uhr gedreht: Wie Zeit das Arbeitsgedächtnis beeinflusst
19.01.2021 Corona-Warn-App auf dem Prüfstand
17.01.2021 Schlaf für Erholung des Gehirns unersetzlich
13.01.2021 Erste Daten des Corona-Impfstoffes zeigen gute Verträglichkeit, aber schwache Immunreaktion
09.01.2021 Stellungnahme des KKNMS zur Methode der mRNA Vakzinierung
08.01.2021 Ein unbehandelter Bluthochdruck erhöht das Risiko für schwere COVID-19-Verläufe
04.01.2021 Generation 80+: Impfbereitschaft gut, Erreichbarkeit der Impfzentren schlecht
03.01.2021 Immunüberreaktion erklärt schweren COVID-19 Verlauf bei Patient*innen mit Bluthochdruck – Können ACE-Hemmer helfen?
Gesellschaft
23.01.2021 Erfolgsfaktoren für die Gestaltung einer teamorientierten Arbeitswelt
15.01.2021 Wenn ältere Beschäftigte ihr Wissen nicht mit Jüngeren teilen
11.01.2021 Menschen hören das, was sie zu hören erwarten
06.01.2021 Studie: Wie (un)beliebt ist die „Corona-Warn-App“?
01.01.2021 IAB-Arbeitsmarktbarometer: Arbeitsmarktentwicklung bleibt stabil

 


Zurück zur Natur? Wie die Renaturierung von Gewässern sozial-ökologisch gestaltet werden kann

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Europaweit sind Gewässer in keinem guten ökologischen Zustand. Die Vorgaben der Wasserrahmenrichtlinie der EU werden auch in Deutschland nicht erreicht. Das gilt auch für einige der Fließgewässer in Südhessen, wie etwa die Weschnitz oder die Modau. Der Handlungsdruck ist groß. Wie eine erfolgreiche Renaturierung aussehen könnte, darüber diskutieren Bürger*innen, Expert*innen und Wissenschaftler*innen bei der öffentlichen Abschlussveranstaltung des Forschungsprojekts Weschnitz Dialog am 15. Juni 2021. Das ISOE – Institut für sozial-ökologische Forschung, der Geo-Naturpark Bergstraße-Odenwald sowie der Gewässerverband Bergstraße laden herzlich zu dieser digitalen Veranstaltung ein.

Rund 90 Prozent der deutschen Oberflächengewässer verfehlen die Vorgaben der EU-Wasserrahmenrichtlinie eines „guten ökologischen Zustandes“ – so auch die Weschnitz. Das soll sich mit der Renaturierung des Flusses und der Deichsanierung zwischen Biblis und Einhausen ändern. Damit dies gelingt, wurden im von der Deutschen Bundesstiftung Umwelt geförderten Forschungsprojekt Weschnitz Dialog Kommunikations- und Beteiligungsformate zur Konfliktvermeidung begleitet. So konnten gemeinsam mit allen Akteuren wirksame Lösungen zum Gewässer- und Hochwasserschutz geplant werden. 

Zum Abschluss des Projekts laden die Forschungspartner ISOE, der Geo-Naturpark Bergstraße-Odenwald sowie der Gewässerverband Bergstraße zu einer Online-Diskussion ein, bei der es nicht nur um verständliche Wissenschaft, Bildung für eine nachhaltige Entwicklung und pragmatische Lösungen geht, sondern auch um literarische Entdeckungen. Zur Einstimmung in die Veranstaltung, die pandemiebedingt digital stattfinden muss, nimmt Torsten Schäfer die Teilnehmenden mit auf eine Fluss-Entdeckungsreise in Südhessen: Der Professor für Journalismus an der Hochschule Darmstadt liest aus seinem aktuellen Buch „Wasserpfade“. 

Konflikte um Renaturierungsmaßnahmen frühzeitig berücksichtigen
Bei dem anschließenden Fachgespräch geht es um wichtige Fragen und Erfahrungen im Zusammenhang mit Renaturierungsmaßnahmen: Welche Potenziale bietet die Renaturierung auf dem Weg „Zurück zur Natur“ und wie sieht der Prozess konkret aus? Welche Rahmenbedingungen sind für die Renaturierung wichtig und welche Konflikte können sich durch unterschiedliche Interessen seitens Landwirtschaft, Stadtplanung und Naturschutzes ergeben? 

Im Zuge der Veranstaltung werden die Projektbeteiligten am Beispiel des Forschungsprojekts Weschnitz Dialog zeigen, wie eine sozial-ökologische Gestaltung der Renaturierung aussehen kann und wie Nutzungskonflikte entlang eines Gewässers frühzeitig berücksichtigt werden können. Zudem wird diskutiert, wie das Thema Gewässerschutz anschaulich für eine Bildung für nachhaltige Entwicklung genutzt werden kann. 

Für eine Teilnahme ist keine Anmeldung erforderlich. Der Zugangslink zur Veranstaltung wird ab dem 14. Juni 2021 unter http://www.weschnitz-dialog.de veröffentlicht.

Zurück zur Natur? Wie die Renaturierung unserer Gewässer sozial-ökologisch gestaltet werden kann

Diskussionsabend
Dienstag, 15. Juni 2021 – 18 Uhr
Online-Veranstaltung

Ablauf: 
Lesung Prof. Dr. Torsten Schäfer, Hochschule Darmstadt

Anschließend Fachgespräch mit: Ulrich Androsch (Gewässerverband Bergstraße, Lorsch), Dr. Jutta Weber (Geo-Naturpark Bergstraße Odenwald, Lorsch), Dr. Stefan Liehr (ISOE – Institut für sozial-ökologische Forschung, Frankfurt am Main), Prof. Dr. Jörg Ohlmann (Goethe Universität Frankfurt am Main), Matthias Beuth (Martin-Luther-Schule, Rimbach)

Moderation: Carla Schönfelder, Team Ewen, Darmstadt

Veranstalter: ISOE – Institut für sozial-ökologische Forschung in Zusammenarbeit mit dem Geo-Naturpark Bergstraße-Odenwald und dem Gewässerverband Bergstraße

Wissenschaftliche Ansprechpartner:
Dr. Katja Brinkmann
Tel. +49 69 707 6919-42
brinkmann@isoe.de

Weitere Informationen:
http://www.weschnitz-dialog.de

(nach oben)


Einladung zum IST-Webinar: „Power für den Tag – wie Sie Ihre Schlafprobleme lösen“

Alexandra Naumann Pressestelle
IST-Hochschule für Management
In den letzten Jahren sind Ein- und Durchschlafprobleme in den Fokus der öffentlichen Diskussion gerückt, denn immer mehr Menschen in Deutschland schlafen schlecht. Doch wie kann ein gesunder und entspannter Schlaf gefördert werden? Antworten gibt der renommierte Schlafmediziner Dr. Alfred Wiater einem kostenfreien Online-Fachvortrag des IST-Studieninstituts am 24. Juni 2021, um 18 Uhr.

Die meisten Menschen wissen, oft schon aus eigener Erfahrung, wie wichtig erholsamer Schlaf für die Gesundheit und für die Alltagsbewältigung ist. Nachts kommen sowohl Körper als auch Geist zur Ruhe. Die Folge: Der Mensch schöpft neue Energie für den Tag.

Hier setzt das IST-Webinar „Power für den Tag – wie Sie Ihre Schlafprobleme lösen“ am 24. Juni, um 18 Uhr, an. Denn sind die einzelnen Schlafphasen dauerhaft gestört, kann dies gesundheitliche Folgen haben.

Wie kann ein gesunder und entspannter Schlaf gefördert werden?
Dr. Alfred Wiater gibt erste hilfreiche Tipps, die man für einen gesunden Schlaf in der Alltagsroutine berücksichtigen sollte. Wiater war Chefarzt einer Kölner Klinik mit schlafmedizinischem Zentrum und Vorsitzender der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM). Derzeit berät er den DGSM-Vorstand als Vorstandsreferent, ist wissenschaftlich und als Dozent und Buchautor tätig.

Wer sich tiefergehend mit dem Thema „Schlaf“ auseinandersetzen möchte, kann das in der im Juli startenden, neuen Weiterbildung zum Schlafcoach, in der Dr. Wiater als Dozent tätig ist. Hier erarbeiten sich die Teilnehmer auf der Grundlage fundierter schlafmedizinischer Expertise in kompakten zwei Monaten umfassendes Wissen zur Prävention von Schlafstörungen und zum Umgang mit Schlafproblemen.

Weitere Informationen:
https://www.ist.de/aktion/1293 Hier geht es zur unverbindlichen Anmeldung.
https://www.ist.de/schlafcoach Hier gibt es alle Informationen zur Weiterbildung „Schlafcoach“.

(nach oben)


Steinmeier: Wir befinden uns mitten im Umbruch ins postfossile Zeitalter

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Bundespräsident und DBU eröffnen „Woche der Umwelt“

Osnabrück/Berlin. Bundespräsident Frank-Walter Steinmeier bereitet die Menschen in Deutschland wegen der Klimakrise auf eine „Transformation der Gesellschaft in einer gewaltigen Dimension“ vor. Der ressourcenschonende Umgang mit der Erde sei zugleich „nur durch eine globale Anstrengung zu bewältigen“, sagte er in einer wegweisenden Klimarede auf der „Woche der Umwelt“ im Park seines Amtssitzes Schloss Bellevue. „Wir befinden uns mitten im Umbruch ins postfossile Zeitalter“, so das Staatsoberhaupt.

Die mittlerweile sechste Auflage der Woche der Umwelt (WdU) unter dem Motto „So geht Zukunft!“ findet heute (Donnerstag) und morgen in bewährter Partnerschaft von Bundespräsident und der Deutschen Bundesstiftung Umwelt (DBU) statt, dieses Mal wegen der Corona-Pandemie aber im hybriden Format – teils in Präsenz im Park von Schloss Bellevue, teils in digitalen Fachforen. Per Livestream ist alles hautnah zu verfolgen; alle Infos finden sich hier: https://www.woche-der-umwelt.de/. DBU-Generalsekretär Alexander Bonde sagte, die Woche der Umwelt solle „ein großer Ansporn sein, sich für den Erhalt unseres Planeten zu engagieren“. Und sie fordere mit ihrem Versprechen „So geht Zukunft!“ trotz einer der größten globalen Krisen der Menschheit dazu auf, „mit Mut, Ideen und Innovationen Lösungen für mehr Klima-, Umwelt-, Ressourcen- und Artenschutz zu finden“. Ein Schlüssel sei die Circular Economy, eine umfassende Kreislaufwirtschaft. Bonde: „Wir müssen lernen, in Kreisläufen zu leben, denken und zu handeln. Der Raubbau an Rohstoffen muss enden.“

EU-Kommissionspräsidentin Ursula von der Leyen und US-Klimabeauftragter John Kerry nehmen teil
Dass Klima- und Umweltschutz nicht nur in Deutschland, sondern europa- und weltweit ganz oben auf der politischen Agenda stehen, zeigt die Teilnahme zweier Persönlichkeiten bei der WdU: EU-Kommissionspräsidentin Ursula von der Leyen und US-Klimaschutzbeauftragter John Kerry. Er skizzierte per Videobotschaft Zukunftsstrategien seines Landes unter dem neuen US-Präsidenten Joe Biden. Dieser hatte den Austritt seines Vorgängers Donald Trump aus dem Pariser Klimaschutzabkommen von 2015 rückgängig gemacht. Während von der Leyen keinen Zweifel daran ließ, dass die Europäische Union alles daran setzen werde, den europäischen Grünen Deal umzusetzen und ein klimaneutrales Wirtschaften in der EU bis 2050 zu erreichen, mahnte Kerry „weltweite Anstrengungen“ an, um katastrophale Folgen der Klimakrise zu verhindern. Die USA seien dazu bereit. Bis 2030 wolle sein Land den Ausstoß an Treibhausgasen im Vergleich zu 2005 halbieren. US-Präsident Biden wolle in allen Wirtschaftssektoren eine Abkehr von Kohlenstoff. Kerry: „Diese Dekade ist entscheidend im Kampf gegen die Klimakrise, vor uns liegt enorm viel Arbeit. Aber darin steckt ein riesiges Wirtschaftspotenzial.“ Es entstehe „ein Billionen-Markt“ mit gutbezahlten Jobs „auf beiden Seiten des Atlantiks“ und mit neuen Technologien für saubere Energien.

„Veränderungen in allen Bereichen des Alltags“
Bundespräsident Steinmeier sagte in seiner Rede, es freue ihn „sehr, dass sich die Vereinigten Staaten dazu entschieden haben, dem Pariser Klimaabkommen wieder beizutreten“. Die Weltklimakonferenz hatte seinerzeit unter anderem beschlossen, die Weltwirtschaft auf klimafreundliche Weise zu verändern und die menschengemachte Erderwärmung bis zum Jahr 2100 auf unter zwei Grad Celsius und sogar möglichst unter 1,5 Grad Celsius im Vergleich zum vorindustriellen Zeitalter zu begrenzen. Die Klima-Ziele seien keineswegs abstrakt und fern, so Steinmeier. „Setzen wir sie um, so werden wir Veränderungen in allen Bereichen des Alltags spüren – in der Landwirtschaft, in der Energieversorgung, vor allem im Wohnungsbau und im Verkehr.“ Aufbruchserwartung und Umbruchsangst würden miteinander ringen, so der Bundespräsident weiter. Was zu hoffen und was zu fürchten sei, „sind Fragen einer Gesellschaft, die im Übergang ist, in einer großen Transformation, die viele zu Recht mit der industriellen Revolution des 19. Jahrhunderts vergleichen“. Anders als damals gehe es heute jedoch nicht mehr um den „Aufstieg der fossilen Industrialisierung“. Steinmeier: „Wir befinden uns mitten im Ausstieg daraus.“

Winter ohne Schneemänner
Es sei klar, dass der Planet „durch den übermäßigen Verbrauch von Ressourcen in Gefahr ist“ – doch der Weg aus diesem Risiko „noch lange nicht“. Der Bundespräsident brachte für den Weg in eine klimaneutrale Zukunft gewissermaßen einen neuen Generationenvertrag für Klimaschutz ins Gespräch: So wie die jungen Menschen in der Corona-Pandemie zurückgesteckt hätten, um Ältere und Gefährdete zu schützen, „so müssen wir uns jetzt anstrengen, um ihre Zukunft und die Zukunft künftiger Generationen zu schützen.“ Denn Klimawandel sei schon jetzt sicht- und spürbar und verändere bereits „unser Leben: Er zeigt sich in den Gezeiten, die sich verschieben, in den Wintern ohne Schneemänner“ und auch „in gefährlich trockenen Böden und Wäldern“.

Weitere Informationen:
https://www.dbu.de/123artikel39036_2442.html Online-Pressemitteilung

(nach oben)


Kniearthrose: Wann kommt ein Gelenkersatz infrage? Gibt es Alternativen? IQWiG legt Entscheidungshilfe vor

Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
Kniearthrose: Wann kommt ein Gelenkersatz infrage? Gibt es Alternativen? IQWiG legt Entscheidungshilfe vor
Unterstützung für Betroffene bei der Entscheidung für oder gegen eine Gelenkersatzoperation.

Das IQWiG hat im Auftrag des Gemeinsamen Bundesausschusses (G-BA) eine Entscheidungshilfe zu Gelenkersatzoperationen bei Kniegelenkarthrose erstellt. Diese soll Betroffene dabei unterstützen, sich gemeinsam mit ihrer Ärztin bzw. ihrem Arzt für oder gegen bestimmte Behandlungsoptionen bei Kniegelenkarthrose zu entscheiden.
Die Entscheidungshilfe ist Teil des gesetzlich festgelegten Zweitmeinungsverfahrens: Bei vielen Krankheiten gibt es mehr als eine Behandlungsmöglichkeit. Oft ist aber keine der Alternativen ideal, jede hat ihre Vor- und Nachteile. Dann hängt es stark von der persönlichen Situation und den eigenen Wünschen ab, was die beste Wahl ist. Einen zweiten Arzt zu befragen, kann bei der Entscheidung helfen. Seit 2015 haben gesetzlich Krankenversicherte Anspruch auf das Einholen einer ärztlichen Zweitmeinung bei festgelegten planbaren Operationen.

2019: 194.000 Kniegelenkersatz-Operationen
Es ist nicht genau bekannt, wie viele Menschen eine Kniearthrose haben. In Deutschland geben etwa vier Prozent aller Erwachsenen an, von einer ärztlich behandelten Kniearthrose betroffen zu sein. Die Häufigkeit nimmt mit dem Alter zu und steigt etwa ab dem 40. Lebensjahr stetig an.
Die Zahl der Kniegelenkersatz-Operationen steigt in Deutschland seit 2013 kontinuierlich an, im Jahr 2019 wurden bundesweit knapp 194.000 Implantationen durchgeführt. Dabei werden die Operierten immer jünger. Auffallend ist auch, dass die Operationshäufigkeiten je nach Wohnort sehr unterschiedlich sind.
Kniearthrose kann unterschiedlich verlaufen, wobei die Beschwerden meist über viele Jahre eher langsam zunehmen oder sogar stabil bleiben. Kniearthrose kann aber auch in Schüben auftreten – dann wechseln sich Phasen stärkerer Beschwerden mit beschwerdefreien oder beschwerdearmen Phasen ab. Nur bei einem kleinen Teil der Menschen mit Kniearthrose sind die Beschwerden irgendwann so stark, dass sie sich für einen Eingriff entscheiden.
Heilen lässt sich Arthrose nicht. Es gibt aber verschiedene Möglichkeiten, die Beschwerden zu lindern. Ein wichtiger Baustein der konservativen (= nicht operativen) Therapie ist die Bewegungstherapie, weil gut ausgebildete Muskeln das Kniegelenk stabilisieren und schützen. Zudem erreichen die Nährstoffe aus der Gelenkflüssigkeit den Knorpel nur durch Druck – etwa beim Gehen oder gezielten Training.
Die Bewegungstherapie kann je nach Bedarf durch weitere Behandlungsoptionen wie u. a. Schmerztherapie, Gewichtsreduktion oder Hilfsmittel (Schuheinlagen, Kniebandagen oder -schienen) ergänzt werden.
Ein Gelenkersatz kommt infrage, wenn über mehrere Monate starken Schmerzen bestehen, die die Lebensqualität beeinträchtigen – und wenn eine konservative Therapie die Beschwerden nicht ausreichend lindern kann. Bei dieser Operation wird das natürliche Kniegelenk ganz oder teilweise durch eine Prothese aus Metall und Kunststoff ersetzt.

Entscheidungshilfe des IQWiG
Die jetzt vorgelegte Entscheidungshilfe des IQWiG beschreibt die verschiedenen Behandlungsmöglichkeiten bei Kniearthrose. Sie unterstützt Patientinnen und Patienten bei der Entscheidung zwischen Kniegelenkersatzoperation und konservativen Therapien.
„Ein Gelenkersatz kann fortgeschrittene Kniearthrose bei den meisten Betroffenen sehr wirksam lindern – aber natürlich hat so ein großer Eingriff auch Risiken. Zudem wissen wir aus Studien, dass eine gute konservative Behandlung helfen kann, eine Operation mehrere Jahre hinauszuzögern oder sogar ganz zu vermeiden. Unsere Entscheidungshilfe soll die wichtigsten Alternativen aufzeigen und das ausführliche Gespräch mit der behandelnden Ärztin bzw. dem behandelnden Arzt unterstützen“, betont Roland Büchter aus dem IQWiG-Ressort Gesundheitsinformation.

Ergänzende Informationen zu Nachoperationen
Etwa fünf bis zehn Prozent der eingesetzten künstlichen Kniegelenke werden innerhalb von zehn Jahren nachoperiert. Dabei lässt sich auch die Frage, ob bei Problemen mit der Prothese wirklich ein zweiter Eingriff nötig ist, nicht immer leicht beantworten. Daher gibt es für die Nachoperation ebenfalls das Recht auf eine zweite Meinung.
Für diese Situation hat das IQWiG in der Rubrik „Mehr Wissen“ auf gesundheitsinformation.de einen eigenen Text mit dem Titel „Probleme mit der Knieprothese: Wann ist eine Nachoperation nötig?“ erstellt, das ausführlich beschreibt, wann eine Nachoperation tatsächlich notwendig ist oder doch vermieden werden könnte.

Wie läuft das Zweitmeinungsverfahren ab?
Die Entscheidungshilfe ist ein Baustein des seit 2015 gesetzlich festgelegten Zweitmeinungsverfahrens. Das bedeutet: Eine Ärztin oder ein Arzt, die/der einen planbaren Eingriff empfiehlt, muss die Betroffenen auf ihr Recht hinweisen, diese Behandlungsentscheidung noch einmal kostenfrei mit Spezialisten einer anderen Praxis oder Klinik besprechen zu können.
Für welche planbaren Eingriffe das Zweitmeinungsverfahren gilt, entscheidet der G-BA. Bislang besteht ein vom G-BA geregelter Zweitmeinungsanspruch bei Operationen an den Gaumen- und/oder Rachenmandeln (Tonsillektomien, Tonsillotomien), bei Gebärmutterentfernungen (Hysterektomien), arthroskopischen Eingriffen am Schultergelenk und bei Amputationen beim Diabetischen Fußsyndrom.

Zum Projektverlauf
Der G-BA hatte das Institut am 15. Oktober 2020 mit der Erstellung der Entscheidungshilfe zu Gelenkersatzoperationen bei Kniearthrose beauftragt.
Die Entscheidungshilfe wurde nach den Allgemeinen Methoden des IQWiG erstellt und hat eine Nutzertestung und Stellungnahme durchlaufen. Sie wird auf der IQWiG-Website gesundheitsinformation.de veröffentlicht und im Rahmen der üblichen Aktualisierung spätestens nach drei Jahren auf Aktualität überprüft und bei Bedarf angepasst.

Weitere Informationen
Das IQWiG hat in früheren Aufträgen bereits Entscheidungshilfen zu Gebärmutterentfernung, Mandeloperation, Schultereingriffen und zu Amputationen beim diabetischen Fußsyndrom erstellt.
Diese Entscheidungshilfen sind auf der Website gesundheitsinformation.de in umfassende Themenpakete zu den jeweiligen Erkrankungen eingebunden. Die Entscheidungshilfen lassen sich dort als PDF herunterladen und kostenfrei in beliebiger Menge ausdrucken.

Originalpublikation:
https://www.iqwig.de/projekte/p20-03.html

Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_39…

(nach oben)


KIT: Zuckerhirse: Süßes Versprechen für die Umwelt

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Zuckerhirse lässt sich zur Herstellung von Biogas, Biokraftstoffen und neuen Polymeren nutzen. Zudem kann sie dazu beitragen, Phosphatdünger zu ersetzen. Eine am Karlsruher Institut für Technologie (KIT) entwickelte neue Zuckerhirsesorte akkumuliert besonders viel Zucker und gedeiht unter heimischen Bedingungen. Wie die Forschenden in der Zeitschrift Industrial Crops & Products berichten, hängen der Zuckertransport und die Zuckerakkumulation mit dem Bau der Leitungsbahnen der Pflanzen zusammen. Dies ergab ein Vergleich zwischen Zucker- und Körnerhirse. (DOI: 10.1016/j.indcrop.2021.113550).

Zuckerhirse lässt sich zur Herstellung von Biogas, Biokraftstoffen und neuen Polymeren nutzen. Zudem kann sie dazu beitragen, Phosphatdünger zu ersetzen. Eine am Karlsruher Institut für Technologie (KIT) entwickelte neue Zuckerhirsesorte akkumuliert besonders viel Zucker und gedeiht unter heimischen Bedingungen. Wie die Forschenden in der Zeitschrift Industrial Crops & Products berichten, hängen der Zuckertransport und die Zuckerakkumulation mit dem Bau der Leitungsbahnen der Pflanzen zusammen. Dies ergab ein Vergleich zwischen Zucker- und Körnerhirse. (DOI: 10.1016/j.indcrop.2021.113550).

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2021_054_zuckerhirse-susses-versprechen-fur-die-umwel…

Mit der Weltbevölkerung wächst der Bedarf an Nahrungsmitteln, Rohstoffen und Energie. Dadurch nehmen die Belastungen für die Umwelt und das Klima zu. Eine Strategie, den Treibhausgasausstoß zu verringern, besteht darin, sogenannte C4-Pflanzen anzubauen. Diese betreiben besonders effizient Photosynthese, binden daher Kohlendioxid (CO2) besser und bauen mehr Biomasse auf als andere Pflanzen. Gewöhnlich sind sie an sonnige und warme Standorte gebunden. Zu den C4-Pflanzen gehört die Sorghumhirse, auch Mohrenhirse genannt, eine Hirseart aus der Gattung Sorghum in der Familie der Süßgräser. Die besonders zuckerhaltigen Sorten heißen Zuckerhirse. Zu den weiteren Sorten gehört die als Futtermittel eingesetzte Körnerhirse. Sorghumhirse lässt sich auf schwer zu bewirtschaftenden sogenannten Grenzertragsflächen anbauen, sodass sie nicht mit sonstigen Nahrungs- oder Futterpflanzen in Konkurrenz tritt.

Eine neue Zuckerhirsesorte namens KIT1 hat Dr. Adnan Kanbar in der Arbeitsgruppe Molekulare Zellbiologie unter Leitung von Professor Peter Nick am Botanischen Institut des KIT entwickelt. KIT1 akkumuliert besonders viel Zucker und gedeiht besonders gut unter gemäßigten Klimabedingungen. Sie lässt sich sowohl energetisch zur Herstellung von Biogas und Biokraftstoffen als auch stofflich zur Produktion neuer Polymere nutzen. Der geschätzte Zuckerertrag je Hektar liegt bei über 4,4 Tonnen, was knapp 3 000 Litern Bioethanol entspräche. Darüber hinaus lassen sich die bei der Biogasherstellung anfallenden Gärreste als Dünger nutzen, der den knapp werdenden Phosphatdünger ersetzen kann.

Auf die Anatomie des Pflanzenstängels kommt es an
Forschende im Nick-Labor am Institut für Angewandte Biowissenschaften und am Institut für Technische Chemie des KIT sowie bei der ARCUS Greencycling Technology in Ludwigsburg haben nun die Zuckerhirsesorte KIT1 und die Körnerhirsesorte Razinieh miteinander verglichen, um die unterschiedliche Zuckerakkumulation im Pflanzenstängel zu untersuchen. Für die in der Zeitschrift Industrial Crops & Products publizierte Studie betrachtete das Team die Stängelanatomie. Dazu zählen die verdickten Bereiche oder Knoten (Nodien) und die schmalen Bereiche oder Abstände zwischen den Knoten (Internodien), aber auch Transkripte wichtiger Saccharose-Transporter-Gene sowie Stressreaktionen der Pflanzen bei hoher Salzkonzentration im Boden. Sowohl bei KIT1 als auch bei Razinieh war die Zuckerakkumulation in den mittleren Internodien am höchsten. Allerdings zeigte sich ein Zusammenhang zwischen der Zuckerakkumulation und dem Bau der Leitungsbahnen, die dem Transport von Wasser, gelösten Stoffen und organischen Substanzen dienen. Die Leitungsbahnen sind zu Leitbündeln gruppiert. Diese bestehen aus dem Phloem (Bastteil) und dem Xylem (Holzteil). Im Phloem werden vor allem Zucker und Aminosäuren, im Xylem vor allem Wasser und anorganische Salze transportiert; zudem übernimmt das Xylem eine stützende Funktion. Die Untersuchung ergab, dass bei KIT1 und fünf weiteren Zuckerhirsesorten im Stängel die Phloem-Querschnittsfläche wesentlich größer als die Xylem-Querschnittsfläche ist – der Unterschied ist viel ausgeprägter als bei der Körnerhirsesorte Razinieh. „Untere Studie ist die erste, die sich mit dem Zusammenhang zwischen dem Bau der Leitbündel und der Zuckerakkumulation im Stängel befasst“, sagt Nick.

Zuckerhirse wird mit Salzstress besser fertig
Wie die Studie weiter ergab, führte Salzstress zu höherer Zuckerakkumulation in KIT1 als in Razinieh. Die Expression von Saccharose-Transporter-Genen ist in den Blättern von KIT1 unter normalen Bedingungen höher und steigt unter Salzstress deutlich an. „Neben den anatomischen Faktoren könnten auch molekulare Faktoren die Zuckerakkumulation im Stängel regulieren“, erläutert Kanbar. „Auf jeden Fall kommt KIT1 mit Salzstress besser zurecht.“ (or)

Originalpublikation
Adnan Kanbar, Ehsan Shakeri, Dema Alhajturki, Michael Riemann, Mirko Bunzel, Marco Tomasi Morgano, Dieter Stapf, Peter Nick: Sweet versus grain sorghum: Differential sugar transport and accumulation are linked with vascular bundle architecture. Industrial Crops & Products, 2021. DOI: 10.1016/j.indcrop.2021.113550

Abstract unter https://doi.org/10.1016/j.indcrop.2021.113550

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Originalpublikation:
Abstract unter https://doi.org/10.1016/j.indcrop.2021.113550

Weitere Informationen:
https://www.kit.edu/kit/pi_2021_054_zuckerhirse-susses-versprechen-fur-die-umwel…

(nach oben)


Gewässerschutz: Deutsche haben ökologische Grundwerte, aber wenig Bezug zu Fischen

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
In einer Längsschnittstudie mit jeweils 1.000 Befragten in Frankreich, Deutschland, Norwegen und Schweden untersuchten Wissenschaftler*innen unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB), welche Werte, Überzeugungen und Normen naturschutzorientiertes Verhalten gegenüber heimischen Flussfischen fördern. Die Studie zeigt: Die Deutschen haben wenig Bezug zu Fischen. Der Schutz von Fischen wird hierzulande eher durch allgemeine pro-ökologische Werthaltungen und Normen gestützt. In Frankreich, Schweden und Norwegen haben heimischen Fischarten hingegen großes Gewicht für das individuelle naturschutzorientierte Verhalten.

Süßwasserökosysteme beherbergen weltweit etwa ein Drittel aller Wirbeltierarten und 43 Prozent aller Fischarten. In Europa sind mehr als 40 Prozent der heimischen Süßwasserfische bedroht oder bereits ausgestorben: Gewässerverbau, Wasserkraft und Aufstau, Verschmutzung, Klimawandel, invasive Arten und zum Teil auch die Überfischung sind die Hauptursachen dafür. Es hängt also von unserem Handeln ab, wie sich Gewässer und Fischarten entwickeln. Um Flüsse und Fischbestände besser zu schützen, muss man Menschen überzeugen – doch nicht jedes Argument zieht: Wie eine aktuelle Studie zeigt, muss man den kulturellen Kontext beachten, in dem die Öffentlichkeit die Bedrohung der Artenvielfalt wahrnimmt und darauf reagiert.

Die Forschenden des IGB, der Humboldt-Universität zu Berlin und internationale Kooperationspartner*innen nutzten die umweltpsychologische Werte-Überzeugungen-Normen Theorie, um zu untersuchen, wovon umweltfreundliches Verhalten am Beispiel des Fischartenschutzes abhängt. Dr. Carsten Riepe, Erstautor der Veröffentlichung im Fachjournal Society and Natural Resources, betont: „Das Besondere unserer Studie liegt darin, dass wir nicht nur Verhaltensabsichten betrachtet haben, sondern auch das tatsächlich gezeigte Verhalten im Alltag der Menschen erhoben haben – beispielsweise die Spendenbereitschaft von Menschen für Maßnahmen, die dem Fischartenschutz in Flüssen zugutekommen. Das erhöht die Aussagekraft unserer Umfrage enorm.“

Gleiche ökologische Grundwerte, unterschiedliche Verbundenheit mit Fischen:
Die Befragten in den vier Ländern zeigten ähnliche umweltbezogene Überzeugungen, Einstellungen und Normen. Beispielsweise waren ökologische Grundwerte und der Erhalt der biologischen Vielfalt in und an Flüssen allen Befragten mehrheitlich wichtig. Der überwiegende Teil fühlte sich sogar tendenziell moralisch verpflichtet, Bedrohungen für den Rückgang der Fischartenvielfalt in Flüssen abzumildern.
In den vier Ländern gab es aber auch einige relevante Unterschiede: So deuten die Umfrageergebnisse aus Norwegen – aber auch aus Schweden und Frankreich – auf eine höhere Verbundenheit mit Fischen und der aquatischen Umwelt hin. In diesen drei Ländern war der Schutz heimischer Fischarten ein besonders wichtiger Anreiz für naturschutzorientiertes Verhalten; in Deutschland hingegen hatte der ökologische Gesamtkontext mehr Gewicht. Deutsche zeigten im Vergleich zu den anderen drei Ländern insgesamt wenig Bezug zu Fischen und der aquatischen Umwelt.

Ökologische und gesellschaftliche Länderunterschiede wirken sich auf die gesellschaftliche und politische Wahrnehmung von Fischen und Flüssen aus:
„Die vier untersuchten Länder unterscheiden sich in ihren Fischgemeinschaften und dem Zustand ihrer Süßgewässer. Außerdem gibt es kulturelle, freizeitbezogene und sozio-ökonomische Unterschiede. Diese Faktoren beeinflussen auch das naturschutzorientierte Denken und Verhalten in Bezug auf den Fischartenschutz. Die Ergebnisse erklären, warum bestimmte Länder höhere Investitionen in den Fischschutz tätigen, warum fischbezogene Themen unterschiedlich im politischen Diskurs auftreten und warum es zwischen den europäischen Ländern Unterschiede in der gesellschaftlichen Bedeutung und in der Wahrnehmung von Fischen und der Fischerei gibt“, erläutert der Projektleiter Professor Dr. Robert Arlinghaus vom IGB.

Wichtige Erkenntnisse für die Umweltbildung:
Aus den Ergebnissen leiteten die Forschenden Erkenntnisse für effektive Umweltbildungs- und Interventionskampagnen ab. Diese Maßnahmen – beispielsweise initiiert von Ministerien oder von umweltbezogenen Nichtregierungsorganisationen – brauchen einen argumentativen Rahmen, der den Nerv der Adressaten trifft: „Ein vielversprechender Weg besteht darin, die Kernbotschaft einer Informationskampagne in ein Narrativ einzubetten, das länderspezifische Bezüge zur Art und Weise der Umweltwahrnehmung herstellt. Während Themen und Fakten rund um den Wildlachs oder die Bachforelle Menschen in Norwegen und Schweden begeistern, erreicht man die Deutschen eher mit allgemeinen Themen wie der Wasserqualität oder der Gefährdung der Biodiversität als Ganzes“, fasst Carsten Riepe die praktischen Schlussfolgerungen der Studie für die Umweltbildung und -kommunikation zusammen.

Wissenschaftliche Ansprechpartner:
Dr. Carsten Riepe
Email: riepe@igb-berlin.de

Prof. Dr. Robert Arlinghaus
Forschungsgruppenleiter am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) und
Professor für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin
E-Mail: arlinghaus@igb-berlin.de
Tel.: +49 30 64181-653
http://www.ifishman.de

Originalpublikation:
Carsten Riepe, Ulf Liebe, Marie Fujitani, Sophia Kochalski, Øystein Aas & Robert Arlinghaus (2021): Values, Beliefs, Norms, and Conservation-Oriented Behaviors toward Native Fish Biodiversity in Rivers: Evidence from Four European Countries, Society & Natural Resources, 34:6, 701-722, DOI: 10.1080/08941920.2021.1890865

Weitere Informationen:
https://www.igb-berlin.de/news/gewaesserschutz-deutsche-haben-oekologische-grund…

(nach oben)


Roboterhunde auf der Baustelle

Franziska Trede Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Der digitale Wandel ist überall zu finden. Das beschränkt sich nicht nur auf sprachgesteuerte Fernseher oder selbstfahrende Autos. Auch der Bau von Hochhäusern kann durch die Digitalisierung optimiert werden. „Noch vor einigen Jahren hätte man es für unmöglich gehalten, Beton zu drucken. Jetzt können wir sogar ganze Häuser mithilfe von 3D-Druck errichten“, sagt Kay Smarsly. Seit dem 1. März 2021 ist er Professor und Leiter des neuen Instituts für Digitales und Autonomes Bauen (IDAC) an der Technischen Universität Hamburg und arbeitet an den Gebäuden der Zukunft. „Alle meine Forschungsideen sind dadurch motiviert, Mensch und Natur zu schützen und das Leben angenehmer zu machen.“

Beton-Kontrolle durch Laufroboter
So beschäftigt sich Smarsly in seiner Forschung unter anderem mit Beton-Druck, Künstlicher Intelligenz (KI) sowie intelligenten Sensoren, die für die Überwachung von Brücken, Talsperren oder Hochhäusern eingesetzt werden. Aktuell arbeiten er und sein Team an intelligenten Laufrobotern, die Bauwerke überwachen und miteinander kommunizieren können. Mithilfe von Laserscannern und weiteren Sensoren erfassen sie Messdaten von Gebäuden, die sie dann durch KI selbstständig analysieren und an die angeschlossenen Computersysteme weiterleiten. „Die Roboter können sich eigenständig in den Bauwerken zurechtfinden und erinnern dabei ein wenig an herumstreunende Hunde“, erklärt der TU-Professor. Sobald sie bei ihren Kontrollgängen Auffälligkeiten im Beton messen, zum Beispiel Risse, werden die verantwortlichen Mitarbeiterinnen und Mitarbeiter auf der Baustelle sofort digital benachrichtigt. Das erleichtert nicht nur die Bauarbeiten, sondern macht auch die Gebäude sicherer.

Umweltschutz durch Sensoren
Auch Themen wie Umwelt gehören zum Forschungsprofil von Kay Smarsly. Die von ihm entwickelten intelligenten Sensoren, können nicht nur Schäden an Bauwerken, sondern auch Schadstoffe im Boden messen. Dadurch kann unter anderem die Trinkwasserqualität jederzeit und an jedem Ort kostengünstig und leicht bedienbar geprüft werden. „Diese Technologie möchten wir langfristig auch in Entwicklungsländern einsetzen“, so Smarsly.

Die Vielseitigkeit, die sein Forschungsbereich mit sich bringt, fasziniert den TU-Forscher: „Der digitale Wandel ermöglicht es mir, visionäre Ideen umzusetzen und interdisziplinär zu arbeiten.“ Eine wissenschaftliche Karriere hatte er während seines Bauingenieur-Studiums aber eigentlich nie im Sinn. Er habe es einfach auf sich zukommen lassen: „’Ett kütt wie et kütt’ – wie man in meiner Heimat, dem Rheinland, so schön sagt.“ Vor seiner Tätigkeit an der TU Hamburg war Smarsly Professor und Lehrstuhlinhaber an der Bauhaus-Universität Weimar.

Weitere Informationen auf der Homepage des Instituts für Digitales und Autonomes Bauen: http://www.tuhh.de/alt/idac.

Das Institut für Digitales und Autonomes Bauen ist in den sozialen Medien auf Instagram und Twitter vertreten:
https://www.instagram.com/idac_tuhh/
https://twitter.com/IDAC_TUHH

Wissenschaftliche Ansprechpartner:
Professor Smarsly: kay.smarsly@tuhh.de

(nach oben)


Dem Meeresmüll trotzen

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Meeresmüll ist eines der drängendsten weltweiten Verschmutzungsprobleme. Nikoleta Bellou, Forscherin am Helmholtz-Zentrum Hereon, hat mit ihrem Team im renommierten Fachmagazin Nature Sustainability eine Überblicksstudie über die Lösungen zur Vermeidung, zum Monitoring und zur Reinigung veröffentlicht. Die Erkenntnis: Es braucht mehr Förderung, mehr Vernetzung der Akteure und mehr politischen Gestaltungswillen, sollen die Meere sauberer und nachhaltiger genutzt werden.

Plastikflaschen, die im Meer treiben. Tüten in den Mägen von Schildkröten. Corona-Masken, die auf Schaumkronen tanzen. Wenige Bilder sind so hässlich anzuschauen wie die Verschmutzung unserer Weltmeere. Und kaum ein Umweltproblem ist so drängend und gleichzeitig im öffentlichen Bewusstsein. „Die meisten Menschen haben eine Beziehung zum Meer. Sie erleben die Verschmutzung als Angriff auf ihren Sehnsuchtsort. Deshalb passt unsere Studie zur Nachhaltigkeit in die Zeit, auch vor dem Hintergrund der angebrochenen UN-Dekade der Meeresforschung“, sagt die Küstenforscherin Nikoleta Bellou vom Institut für Küstensysteme – Analyse und Modellierung des Helmholtz-Zentrums Hereon. Allein zwischen 1990 und 2015 sollen bis zu 100 Millionen Tonnen Müll in die Ozeane gelangt sein, vor allem Kunststoffe.

Die neue Überblicksstudie erfasst erstmals das Gros der Lösungen – Technologien und Methoden – zu Prävention, Monitoring und Säuberung mit innovativem Charakter. Mit Blick auf die Zukunft hat Nikoleta Bellou mit einem internationalen Team Lösungen aus aller Welt eingeordnet und analysiert. Beteiligt waren unter Führung des Helmholtz-Zentrums Hereon noch der National Research Council of Italy, das Marine Enviromental Sciences Centre, die National Technical University of Athens, die Smithsonian Institution und Maritme Robotics.

In jede Schublade schauen
Das Team hat jede Schublade einmal geöffnet und hineingeschaut. Dabei wurde alles unter die Lupe genommen – von Crowdfunding-Projekten bis hin zu Forschungsdatenbanken. Die Forschenden haben fast 200 geplante oder bereits umgesetzte Lösungen betrachtet, bei denen etwa Drohnen, Roboter, Förderbänder, Netze, Pumpen oder Filter zum Einsatz kommen sollen – je nachdem, ob sie an der Küste, auf hoher See oder am Meeresgrund säubern.

Während bis heute viele Entwickler ähnliche technologische Ansätze verwenden, gibt es Hinweise, dass die nächste Generation zunehmend auf unterschiedlichste Lösungen setzt. Bei diesen integrieren sie immer öfter maschinelles Lernen, Robotik, Automatisierungen, Big-Data-Analysen und Modellierungen. Während die wissenschaftliche Gemeinschaft laut dieser Studie ihr hauptsächliches Augenmerk auf das Monitoring zu legen scheint und NGOs meist auf die Prävention schauen, entstanden die meisten Reinigungslösungen durch Kooperationen verschiedener Akteure.

Selten umgesetzt
Trotz aller guten Vorsätze: Die meisten Projekte kommen nicht über eine Entwicklungsphase hinaus. Fast keine der Lösungen ist technisch Realität geworden oder gar auf dem Markt. Der Planstatus müsse überwunden und vieles fertiggedacht werden, so die Autoren. „Die Eingliederung von Lösungen in Richtlinien muss politisch gepusht werden, um so eine Branche der Zukunft zu etablieren“, sagt Bellou. Basierend auf Recherchen und Datenerhebungen zeigt die Analyse, wie weit die Informationen verstreut und zudem oft schwer zugänglich sind. Die meisten Lösungen, rund 60 Prozent, hatten primär das Monitoring zum Ziel und wurden in den letzten drei Jahren entwickelt.

Empfehlungen an die Politik
Die Studie geht auf die Grenzen bestehender und die Herausforderungen bei der Entwicklung neuer Lösungen ein. Zusätzlich gibt sie Handlungsempfehlungen für die Politik ab. Neben internationaler Kooperation von Forschenden und nationaler Umweltministerien und behörden, empfehlen die Wissenschaftlerinnen und Wissenschaftler eine Definition von Standards für jede Lösung, etwa die Bewertung nach jeweiliger Größe, Effizienz und umweltverträglichem Fußabdruck. Dann kann das Auflegen neuer Förderprogramme zur Weiterentwicklung bekannter und neuer Lösungen folgen, flankiert durch eine globale Datenbank. „Auf die Weise bestärken wir Forschende aber auch politische Entscheider und Entscheiderinnen, einen nachhaltigen Ansatz zu entwickeln für die Eindämmung des Meeresmülls. Damit wir künftigen Generationen einen sauberen Ozean hinterlassen“, sagt Nikoleta Bellou.

Wissenschaftliche Ansprechpartner:
Dr. Nikoleta Bellou I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I nikoleta.bellou@hereon.de

Christoph Wöhrle I Helmholtz-Zentrum Hereon I Kommunikation und Medien
T: +49 (0) 4152 87-1648 I presse@hereon.de I http://www.hereon.de

Originalpublikation:
https://www.nature.com/articles/s41893-021-00726-2

Weitere Informationen:
https://www.hereon.de/institutes/coastal_systems_analysis_modeling/index.php.de

(nach oben)


Wie Katalysatoren altern

Dr. Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
PSI-Forschende haben eine neues Tomografie-Verfahren entwickelt, mit dem sie chemische Eigenschaften im Inneren von Katalysator-Materialien in 3-D extrem genau und schneller als bislang messen können. Die Anwendung ist gleichermassen für Forschung und Industrie wichtig. Ihre Ergebnisse veröffentlichten die Forschenden heute in der Fachzeitschrift Science Advances.

Die Materialgruppe der Vanadium-Phosphor-Oxide (VPO) ist in der chemischen Industrie weit verbreitet als Katalysator. Bereits seit den 1970er-Jahren werden VPO bei der Herstellung von Maleinsäure-Anhydrid eingesetzt; dies wiederum ist Ausgangsmaterial zur Herstellung bestimmter Arten von Plastik, darunter zunehmend biologisch abbaubarer Kunststoffe. In der Industrie werden die Katalyse-Materialien über mehrere Jahre genutzt, denn sie spielen zwar für den Ablauf der chemischen Reaktionen eine wichtige Rolle, werden dabei selbst aber nicht verbraucht. Dennoch verändert sich der VPO-Katalysator durch diesen Einsatz mit der Zeit.

Forschende aus zwei Einheiten des Paul Scherrer Instituts PSI – dem Forschungsbereich für Photonenforschung sowie dem Bereich Energie und Umwelt – haben nun in Zusammenarbeit mit der ETH Zürich und der Schweizer Firma Clariant AG den Alterungsprozess von VPO genau untersucht – und in diesem Zuge auch ein neues experimentelles Verfahren entwickelt.

Zwei Methoden…
Die Clariant AG ist ein weltweit führendes Unternehmen für Spezialchemie. Clariant stellte dem PSI zwei Proben zur Verfügung: Erstens eine Probe aus bislang ungenutztem VPO und zweitens VPO, das vier Jahre lang als Katalysator im industriellen Betrieb eingesetzt worden war. Dass sich das VPO mit den Einsatzjahren verändert und seine gewünschten Eigenschaften leicht einbüsst, war schon lange bekannt. Nicht restlos geklärt war jedoch bisher, welche Prozesse in der Nano-Struktur und auf der Ebene der Atome hierfür verantwortlich sind.

Dieser Frage gingen die PSI-Forschenden mittels hochmoderner Methoden der Materialcharakterisierung nach. Um den chemischen Aufbau der Proben auf der Nano-Skala sichtbar zu machen, kombinierten sie zwei Verfahren: Erstens eine bestimmte, zuvor am PSI entwickelte Tomografie-Methode namens ptychografische Röntgen-Computertomografie, die die Röntgenstrahlung der Synchrotron Lichtquelle Schweiz SLS nutzt und zerstörungsfrei das Innere der Probe in 3-D und mit Nano-Auflösung abbilden kann. Zweitens nahmen die Forschenden eine lokale Transmissionsspektroskopie-Methode hinzu, die zusätzlich in jedem Volumenelement der Tomogramme die chemischen Eigenschaften des Materials aufzeigte.

«Im Grunde haben wir 4-dimensionale Daten erhoben», erklärt Johannes Ihli, Forscher am PSI und einer der Studien-Autoren: «Wir haben eine hochaufgelöste 3-D-Darstellung unserer Probe rekonstruiert, bei der die einzelnen Volumenelemente – genannt Voxel – eine Kantenlänge von nur 26 Nanometern haben. Zusätzlich haben wir zu jedem dieser Voxel ein quantitatives Röntgen-Transmissionsspektrum, dessen Analyse uns die Chemie genau dort verrät.»

Anhand dieser Spektren ermittelten die Forschenden für jedes Voxel einige der grundlegendsten chemischen Grössen: Die Elektronendichte, die Vanadiumkonzentration und der Oxidationsgrad des Vanadiums. Da es sich bei den untersuchten VPO-Katalysatoren um ein sogenanntes heterogenes Material handelt, ändern sich diese Grössen in verschiedenen Massstäben über das gesamte Probenvolumen. Dies wiederum bestimmt oder begrenzt die Leistungsfähigkeit des Katalysatormaterials.

… und ein neuer Algorithmus
Das schrittweise Vorgehen, um diese Daten zu erhalten, bestand darin, die Probe zunächst für ein 2-D-Projektionsbild zu vermessen, sie dann ein winziges Stück zu drehen, wiederum zu vermessen und so weiter. Dieser Prozess wurde dann bei verschiedenen Energien wiederholt. Nach dem bisherigen Verfahren wären dabei rund fünfzigtausend einzelne 2-D-Aufnahmen nötig gewesen, die zu etwa hundert Tomogrammen zusammengesetzt worden wären. Für jede der beiden Proben hätte dies etwa eine Woche reine Messzeit bedeutet.

«Die Experimentierplätze an der SLS sind sehr begehrt und rund ums Jahr ausgebucht», erklärt Manuel Guizar-Sicairos, ebenfalls PSI-Forscher und Leiter dieser Studie. «Wir können es uns daher nicht erlauben, Messungen durchzuführen, die so lange dauern.» Die Datenerhebung musste effizienter werden.

Dies gelang Zirui Gao, Erstautor der Studie, in Form eines neuen Prinzips der Datenaufnahme und einem zugehörigen Rekonstruktions-Algorithmus. «Für die 3-D-Rekonstruktion von Tomogrammen braucht man Aufnahmen aus vielen Winkeln», erklärt Gao. «Unser neuer Algorithmus aber schafft es, die benötigte Menge an Information auch dann zu gewinnen, wenn man den Abstand zwischen den Winkeln ungefähr verzehnfacht – also nur rund ein Zehntel der 2-D-Bilder aufnimmt.» So gelang es den Forschenden, die benötigten Daten in nur rund zwei Tagen Messzeit zu gewinnen und folglich viel Zeit und damit auch Kosten zu sparen.

Grössere Poren und fehlende Atome
Die Messungen der beiden Proben zeigten: Das frische VPO hatte wie erwartet viele kleine Poren, die gleichmässig im Material verteilt waren. Diese Poren sind wichtig, denn sie stellen die Oberfläche bereit, an der die Katalyse ablaufen kann. In der VPO-Probe dagegen, die vier Jahre lang in Gebrauch gewesen war, hatte sich die Struktur auf der Nano-Skala umgebaut: Es gab grössere und dafür weniger Hohlräume. Das Material dazwischen zeigte grössere, länglich-kristalline Formen.

Auch auf molekularer Ebene zeigten sich Veränderungen: Mit der Zeit waren im Atom-Gitter Fehlstellen, auch genannt Löcher, entstanden. Deren Existenz war bisher nur vermutet worden. Mit ihrem neu erhaltenen Wissen über die Probenchemie auf der Nanoskala konnten die Forschenden nun diese Löcher bestätigen und ihre genaue Lage bestimmen: an der Stelle bestimmter, nunmehr fehlender Vanadium-Atome. «Dass der relative Gehalt an Vanadium mit der Zeit abnimmt, war schon vorher bekannt», so Gao. «Aber wir konnten jetzt erstmals zeigen, an welcher Stelle im Kristallgitter diese Atome fehlen. Zusammen mit unseren anderen Ergebnissen bestätigt dies eine bisherige Vermutung: dass nämlich diese Fehlstellen im Atomgitter als zusätzliche aktive Stellen für den Prozess der Katalyse dienen können.»

Dies bedeutet, dass diese zunehmenden Fehlstellen ein willkommener Effekt sind: Sie erhöhen die katalytische Aktivität und wirken so zumindest teilweise dem Aktivitätsverlust entgegen, der entsteht, wenn die Zahl der Poren abnimmt. «Unsere neuen, detaillierten Ergebnisse könnten Industrie-Unternehmen helfen, ihre Katalysatoren zu optimieren und langlebiger zu machen», so Gao.

Text: Paul Scherrer Institut/Laura Hennemann

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 400 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.

Wissenschaftliche Ansprechpartner:
Zirui Gao
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 29 10, E-Mail: zirui.gao@psi.ch [Englisch, Chinesisch]

Dr. Manuel Guizar-Sicairos
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 34 09, E-Mail: manuel.guizar-sicairos@psi.ch [Englisch, Spanisch]

Dr. Johannes Ihli
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 40 50, E-Mail: johannes.ihli@psi.ch [Deutsch, Englisch]

Dr. Mirko Holler
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 36 13, E-Mail: mirko.holler@psi.ch [Deutsch, Englisch]

Originalpublikation:
Sparse ab initio X-ray transmission spectro-tomography for nanoscopic compositional analysis of functional materials
Z. Gao, M. Odstrcil, S. Böcklein, D. Palagin, M. Holler, D. Ferreira Sanchez, F. Krumeich, A. Menzel, M. Stampanoni, G. Mestl, J.A. van Bokhoven, M. Guizar-Sicairos, J. Ihli
Science Advances 9. Juni 2021 (online)
DOI: https://dx.doi.org/10.1126/sciadv.abf6971

Weitere Informationen:
http://psi.ch/de/node/45305 – Darstellung der Mitteilung auf der Webseite des PSI und Bildmaterial
http://psi.ch/de/node/33008 – Nanowelten in 3-D (Ein Text vom 11. März 2020)

(nach oben)


«Wir sollten den Einfluss von Reisen nicht unterschätzen»

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Emma Hodcroft vom Institut für Sozial- und Präventivmedizin hat mit Hilfe der von ihr mitentwickelten Sequenzierplattform Nextstrain eine neue Coronavirus-Variante (EU1) identifiziert, die sich vergangenen Sommer in Europa rasant ausgebreitet hat. Dabei spielten Ferienreisen eine wichtige Rolle. Bald sind Sommerferien: Wie können wir reisen ohne zu hohes Risiko?

Sie haben gezeigt, wie schnell eine Virus-Variante dominant werden kann, ohne besonders ansteckend zu sein. Wie erklären Sie sich die starke Ausbreitung von EU1, das letzten Sommer in Spanien aufgetaucht ist?

Das wirklich Interessante an EU1 ist, dass wir zuerst dachten, es könnte ansteckender sein, weil wir sahen, wie seine Häufigkeit in ganz Europa anstieg. Aber je mehr wir uns damit beschäftigten, stellten wir fest, dass es einen Zusammenhang mit Reisen gab. Wir glauben, dass der eigentliche «Erfolg» von EU1 darin bestand, dass es die Ferienreisen im letzten Sommer nutzen konnte, um sich zumindest für ein paar Monate unkontrolliert in ganz Europa auszubreiten. EU1 hat also gezeigt, dass eine Variante sich rasch ausbreiten kann, ohne ansteckender sein zu müssen. Selbst jetzt, wo wir Varianten haben, die ansteckender zu sein scheinen, werden wir daran erinnert, dass wir den Einfluss von Reisen nicht unterschätzen sollten. Das sollten wir im Hinterkopf behalten bei der Entdeckung neuer Varianten.

Wie genau hat sich EU1 so schnell verbreitet, auch in der Schweiz?

In der Schweiz erreichte es seinen Höhepunkt mit einem Anteil von etwa 30 Prozent unserer Sequenzen. In der Schweiz hatten wir also eher einen Mix von Varianten. Wir gehen davon aus, dass EU1 in den meisten Ländern Europas mehrfach aus Spanien eingeschleppt wurde – so kamen wahrscheinlich viele Ferienreisende aus Spanien damit zurück. Aber dann breitete sich EU1 mit der Zeit auch in anderen Ländern Europas aus. Das heisst: selbst als Länder empfahlen, nicht mehr nach Spanien zu reisen, war EU1 zu diesem Zeitpunkt leider schon ausserhalb Spaniens. Es reiste also auch zwischen anderen europäischen Ländern hin und her.

Welche Eindämmungsstrategien sind in Bezug auf Reisen am wirksamsten?

Das ist nicht einfach, aber Tests sind ein guter Weg, um zu erkennen, ob jemand mit dem Virus zurückkommt. Am wichtigsten ist, dass es die Betroffenen selbst mitbekommen. Eine Quarantäne, die auf Vertrauen basiert, ist schwierig, wenn sich Reisende gut fühlen und denken: «Ich werde mich nicht angesteckt haben, es ist OK, wenn ich rausgehe.» Wenn aber Personen wissen, dass sie infiziert sind, ist es für sie viel einfacher zu erkennen: «Ich muss wirklich zu Hause bleiben, weil ich jemanden anstecken könnte.»

Sie waren Teil des internationalen Expertinnen- und Expertengremiums, das die aktuellen «besorgniserregenden Varianten» nach griechischen Buchstaben umbenannt hat, wie etwa «Delta» für die sogenannte «indische Variante». Warum?

Wir wollten etwas, das leicht auszusprechen ist, das man sich leicht merken kann, etwas, das den Leuten schon ein bisschen vertraut ist, das aber nicht mit einem Land assoziiert ist. Das war etwas, das wir zu vermeiden suchten: dass weiterhin von der «indischen Variante» oder der «südafrikanischen Variante» die Rede ist. Ich finde, griechische Buchstaben erfüllen viele dieser Kriterien: Sie sind einfach auszusprechen, werden weltweit in Mathematik, Physik und der Wissenschaft allgemein verwendet und lassen uns nicht denken, dass die Variante von diesem einen Ort stammt und dieser Ort schlecht ist. Wir haben andere Optionen ausprobiert, wie zum Beispiel nur Zahlen zu verwenden: Variante 1, Variante 2, … oder die Varianten so wie Stürme zu benennen, ihnen also Personennamen zu geben. Aber jeder dieser Ansätze hatte Nachteile, so dass wir uns für das griechische Alphabet entschieden.

Glauben Sie, dass die Delta-Variante auch die dominante Variante in Europa werden könnte?

Ich denke, es ist noch ein bisschen zu früh, um dazu etwas zu sagen. Was mit der Delta-Variante passiert, zeigt, was wir von EU1 gelernt haben: Im Moment sehen wir die Delta-Variante nicht oft in Kontinentaleuropa, sondern vor allem in Grossbritannien. Was dort wirklich anders ist, sind die zahlreichen starken Verbindungen zu Indien, und viele Menschen reisten von Indien nach Grossbritannien ein, bevor das Reiseverbot in Kraft trat. Genau wie bei EU1 machen Einreisen einen Unterschied. Das heisst jetzt nicht, dass die Variante nicht ansteckender ist, aber es macht es ein bisschen schwieriger vorherzusagen, ob das bei uns ähnlich sein wird oder ob wir es vielleicht – weil wir weniger Einschleppungen hatten – besser eindämmen können. Dazu brauchen wir aktuell mehr Daten.

Wir sind hier in einer komfortablen Position, aber was passiert, wenn die Delta-Variante Länder ohne Impfstoffe oder mit schlechter Infrastruktur trifft, wie Nepal oder Länder in Afrika?

Dies sollte uns wirklich beunruhigen, und wir könnten hier mehr Unterstützung leisten. Vor allem in den USA und in weiten Teilen Europas sind nun die Impfungen gut angelaufen, und es wird in den nächsten ein, zwei Monaten eine grosse Anzahl geimpfter Personen geben. Das ist fantastisch, aber so viele Länder auf der Welt sind noch weit entfernt davon und noch immer gefährdet. Ich würde gerne sehen und hören, wie mehr Regierungen anfangen, ihre Aufmerksamkeit darauf zu richten: «Okay, in unserem Land läuft es ganz gut, wie können wir jetzt andere Länder unterstützen? Wie können wir die Verfügbarkeit von Impfungen ausweiten, wie können wir Sauerstofftanks in Ländern mit Ausbrüchen zur Verfügung stellen oder Geld für Gesundheitsdienste?»

Denn die Sache ist die: Dies ist eine globale Pandemie, und wir haben gesehen, was passiert, wenn Varianten in anderen Ländern auftreten: Sie können in unser Land kommen. Unsere Schutzmassnahmen sind nicht perfekt. Und was wir definitiv nicht wollen, ist, dass eine Variante entsteht, die sich im Hintergrund durchsetzen kann. Die beste Strategie ist also, alle Länder darin zu unterstützen, ihre Fallzahlen zu kontrollieren. Denn wir werden erst dann wirklich sicher vor Sars-CoV-2 sein, wenn alle Länder in der Lage sind, ihre Fallzahlen niedrig zu halten.

Wie können Sie mit genomischer Überwachung eine Pandemie bekämpfen, wenn Sie kein globales Bild von Ausbrüchen oder neuen Varianten haben, vor allem, wenn nur sehr wenige Daten aus afrikanischen Ländern verfügbar sind?

Gute Frage – das ist ein Problem. Bei Reisebeschränkungen ist es zum Beispiel so: Wenn wir keine Sequenzen aus einem bestimmten Land haben, hat es natürlich auch keine Varianten, und die Reisefreiheit wird nicht eingeschränkt. Ich sage jetzt nicht, dass wir diese einschränken sollten, aber es zeigt, dass keine Daten zu haben nicht notwendigerweise bedeutet, dass es kein Problem gibt. Es bedeutet nur, dass wir es nicht wissen.

Was würden Sie empfehlen, wenn ich mit meiner Familie im Sommer nach Spanien oder in ein anderes Land reisen wollte, das nicht auf der Risikoliste steht?

Ich würde auf jeden Fall empfehlen, sich impfen zu lassen, und wenn es möglich ist, bis zwei Wochen nach der zweiten Dosis zu warten. Dann sollte man eine wirklich wirksame Immunität gegen Sars-CoV-2 haben. Das heisst natürlich nicht, dass Sie herumlaufen und jeden küssen sollten, den Sie treffen, aber es senkt wirklich das Risiko, sich anzustecken oder etwas einzuschleppen.

Und: Reisen Sie bewusst. Überlegen Sie sich: was möchten Sie wirklich tun, und worauf können Sie vielleicht in diesem Jahr verzichten? Vielleicht verbringen Sie mehr Zeit am Strand und weniger Zeit in einem Club. Oder Sie versuchen, in Restaurants draussen zu sitzen. Und wenn Sie irgendwo hingehen, wo es voll zu sein scheint – vielleicht sind in anderen Ländern mehr Leute in einem Raum erlaubt als in der Schweiz – können Sie immer sagen: «Das ist nichts für mich.» Es ist okay, seine Meinung zu ändern und zu sagen: «Lass uns versuchen, morgen früher zu kommen, dann ist weniger los.» Diesen Sommer ist Flexibilität etwas, das wir alle nutzen können. Wir sollten darüber nachdenken, wie wir mehr Zeit draussen verbringen können, und nicht etwas tun, nur weil wir gesagt haben, dass wir es tun, sondern weil wir das Gefühl haben, dass es sicher ist und wir uns dabei wohlfühlen.

Wie sieht es mit Ihren Plänen für den Sommer aus? Werden Sie Ihre Familie in Grossbritannien oder den USA besuchen?

Ich mache im Moment keine konkreten Pläne, bin aber hoffnungsvoll, vor allem, weil dort, wo meine Familie in Grossbritannien und den USA wohnt, die Impfung wirklich gut läuft und die Fälle im Allgemeinen eingedämmt wurden. Aber ich möchte sichergehen, dass es sicher und ratsam ist, bevor ich mich zu sehr freue. Wenn sich herausstellt, dass Abwarten das Beste ist, würde ich lieber meinen Teil zur Sicherheit beitragen, als jemanden zu gefährden. Aber ich drücke mir die Daumen!

Über Emma Hodcroft
Seit 2020 arbeitet die Bioinformatikerin Emma Hodcroft im Rahmen eines Postdoc am Institut für Sozial- und Präventivmedizin (ISPM) der Universität Bern. Die 34-Jährige studierte Biologie an der Texas Christian University, wechselte für den Master an die University of Edinburgh und absolvierte dort anschliessend ein Doktorat und ein Postdoc zur genetischen Entwicklung von HIV. Hunderte von Zeitungen weltweit berichteten über ihre Arbeit auf Nextstrain, eine Open-Source-Plattform, auf der die Entwicklung von Mutationen des Sars-CoV-2 verfolgt wird. Mit über 64’000 Followern (Stand Anfang Juni) gehört sie zu den meistbeachteten Forschenden der Schweiz auf Twitter.

Zur Autorin
Nathalie Matter arbeitet als Redaktorin bei Media Relations und ist Themenverantwortliche «Gesundheit und Medizin» in der Abteilung Kommunikation & Marketing an der Universität Bern.

(nach oben)


Studie: Mit KI Ressourcen im Betrieb wirksam einsetzen

Jörg Walz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Die vom Bundesumweltministerium (BMU) beauftragte Studie »Potenziale der schwachen Künstlichen Intelligenz für die betriebliche Ressourceneffizienz« untersucht konkrete Einsatzmöglichkeiten von KI, um die Ressourceneffizienz vor allem in kleinen und mittleren Unternehmen (KMU) zu steigern.

Am 5. Mai war es wieder so weit: Erdüberlastungstag in Deutschland. Seit einem Monat leben wir wieder auf Kosten der Umwelt und zukünftiger Generationen. Wir agieren außerhalb der planetaren Grenzen und verbrauchen mehr Ressourcen als unsere Erde regenerieren kann. Das war die schlechte Nachricht.

Und jetzt die gute: Nachhaltiges Wirtschaften wird immer mehr als eine Notwendigkeit anerkannt – auch um die Zukunftsfähigkeit des Mittelstands zu sichern. Dabei sind die treibenden Kräfte u.a. die Forderungen von Kunden, Investoren und der Gesellschaft sowie sich verschärfende Vorgaben und Regularien seitens des Gesetzgebers. Dies lässt mehr und mehr Unternehmen tätig werden.

Unterstützung bei der Umsetzung im Betrieb
Es ist also höchste Zeit, unsere Produktions- und Lebensweise nachhaltig zu gestalten. Dazu gehört, dass die Ressourceneffizienz deutlich erhöht wird. Inwieweit Methoden der Künstlichen Intelligenz sich eignen, die natürlichen Ressourcen Wasser, Energie, Material im verarbeitenden Gewerbe effizient einzusetzen und damit Treibhausgase zu vermeiden, untersucht die jetzt erschienene Studie vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA und der Unternehmensberatung Deloitte Artificial Intelligence & Data. Ihr Fokus liegt dabei auf KMU. Denn insbesondere für KMU ist es schwierig, die richtigen Ansatzpunkte für den Einsatz vo n KI zu identifizieren. Häufig fehlen Zeit und Personal, um sich einen Überblick über die Möglichkeiten von KI und den damit verbundenen Methoden und Technologien zu verschaffen. Auch das nötige Fachwissen zur Auswahl und Umsetzung von KI-Projekten im eigenen Betrieb ist häufig nicht vorhanden. So stellt die Implementierung und Umsetzung von KI oftmals eine große Herausforderung dar. Die Studie zeigt deshalb nicht nur KI-Beispiele für die betriebliche Ressourceneffizienz auf, sondern bietet auch praktische Hilfestellungen bei der Umsetzung im eigenen Betrieb.

Forschungsfragen
Die Studie orientiert sich entsprechend an folgenden Fragestellungen:
• Welche Technologien und Methoden der schwachen KI können KMU des verarbeitenden Gewerbes verwenden, um ihre betriebliche Ressourceneffizienz zu steigern?
• Welche Potenziale hinsichtlich betrieblicher Ressourceneffizienz ermöglicht schwache KI bei KMU des verarbeitenden Gewerbes?
• Welche Anwendungsszenarien von schwacher KI sind am vielversprechendsten, um die betriebliche Ressourceneffizienz in KMU zu steigern?
• Welche Erfolgsfaktoren und Hemmnisse existieren für die systematische Anwendung von schwacher KI zur Steigerung der betrieblichen Ressourceneffizienz in KMU?
• Welche Umsetzungsbeispiele existieren für eine erfolgreiche Steigerung der betrieblichen Ressourceneffizienz in KMU durch den Einsatz schwacher KI?

Wettbewerbsvorteile und Alleinstellungsmerkmale für KMU
Da die Analyse großer Datenmengen sowie die einhergehende Ableitung möglicher Optimierungsmaßnahmen oft nur mit der Etablierung von Digitalisierungslösungen möglich ist, gilt die Digitalisierung bereits seit einiger Zeit als zentrales Instrument zur Verbesserung der Nachhaltigkeit von produzierenden Unternehmen. »Die Einbindung von Methoden der KI ist der konsequente nächste Schritt auf dem Weg zur Ausschöpfung von Ressourceneffizienzpotenzialen in Produktionsumgebungen«, sagt Professor Alexander Sauer, Leiter des Fraunhofer IPA und des Instituts für Energieeffiziente Produktion (EEP) der Universität Stuttgart. »Gerade auch für KMU bieten sich Chancen durch zielgerichtete Einbindung von KI, Wettbewerbsvorteile zu erzielen und Alleinstellungsmerkmale zu stärken oder zu etablieren.«

Die im Auftrag des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit (BMU) erstellte Studie wurde durch das VDI Zentrum Ressourceneffizienz (VDI ZRE) koordiniert und vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA gemeinsam mit Deloitte Artificial Intelligence & Data durchgeführt. Die Studie ist am 7. Juni 2021 erschienen und im Rahmen der 25. Netzwerkkonferenz »Künstliche Intelligenz – Chancen und Herausforderungen für Ressourceneffizienz« erstmals öffentlich vorgestellt worden.

Anhang
Im Allgemeinen wird zwischen »schwacher« und »starker« KI (engl.: artificial narrow intelligence vs. artificial general intelligence) unterschieden. Dabei soll sich starke KI vor allem dadurch auszeichnen, dass sie kognitive Fähigkeiten besitzt, die dem Menschen in nahezu allen Aspekten überlegen oder mit ihm gleichauf sein werden. Im Gegensatz dazu kann schwache KI zwar dem Menschen überlegen sein, ist dies jedoch meist nur in den Bereichen, für die sie explizit programmiert und trainiert wurde. Die schwache KI fokussiert auf die Lösung konkreter Anwendungsprobleme auf Basis bekannter Methoden aus der Mathematik und Informatik. Die entwickelten Systeme sind dabei zur Selbstoptimierung fähig.

Pressekommunikation: Jörg-Dieter Walz | Telefon +49 711 970-1667 | joerg-dieter.walz@ipa.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Lara Waltersmann | Telefon +49 711 970-1756 | lara.waltersmann@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | http://www.ipa.fraunhofer.de

Steffen Kiemel | Telefon +49 711 970-1436 | steffen.kiemel@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | http://www.ipa.fraunhofer.de

Weitere Informationen:
https://www.ipa.fraunhofer.de/de/presse/presseinformationen/mit-ki-ressourcen-im…
https://www.ressource-deutschland.de/fileadmin/user_upload/downloads/studien/VDI…

Anhang
Studie: Mit KI Ressourcen im Betrieb wirksam einsetzen

(nach oben)


Pflanzenkonkurrenz im Klimawandel

Rimma Gerenstein Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Wie Pflanzen mit Stressfaktoren umgehen, ist bereits breit erforscht. Was aber geschieht, wenn eine Pflanze mit zwei zeitgleich auftretenden Faktoren konfrontiert wird? Das hat ein Forschungsteam um Simon Haberstroh und Prof. Dr. Christiane Werner von der Professur für Ökosystemphysiologie der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg untersucht. Mit Kolleginnen und Kollegen des Forest Research Centre der School of Agriculture der Universität Lissabon/Portugal und dem Institut für Meteorologie und Klimaforschung des Karlsruher Institut für Technologie haben sie ihre Ergebnisse nun im Fachjournal „New Phytologist“ veröffentlicht.

Im Park Tapada Real in der portugiesischen Kleinstadt Vila Viçosa kreierten die Forscherinnen und Forscher eine Feldstudie. Im Mittelpunkt stand der Umgang des Ökosystems Korkeiche (Quercus suber) mit zwei Stressfaktoren: zum einen mit extremer Dürre, zum anderen mit der invasiven Pflanzenart Lack-Zistrose (Cistus ladanifer). Die Studie hat eine große Relevanz, da beide Stressfaktoren aktuell deutlich zunehmen. Gleichwohl stellte das Thema in der Wissenschaft bisher eine Forschungslücke dar, Forschende haben bisher selten thematisiert, wie verschiedene, miteinander interagierende Stressfaktoren Ökosysteme beeinflussen.

Die Ergebnisse ihrer Studie waren für die Wissenschaftlerinnen und Wissenschaftler zum Teil überraschend. „Die Faktoren agierten dynamischer als wir das erwartet hätten“, sagt Haberstroh, der die Untersuchungen für seine Doktorarbeit geleistet hat. In einem feuchten Jahr ergab die Doppelbelastung für die Korkeiche keine signifikanten Änderungen, unter Trockenheit stärkten oder schwächten sich die Faktoren jedoch gegenseitig. Ein überraschendes Ergebnis ist auch, dass die Korkeiche sich trotz doppelter Belastung nach einer extremen Dürrephase besser regenerieren kann als erwartet. Das geschieht vor allem, wenn die invasiven Büsche der Lack-Zistrose selbst stark unter der extremen Trockenheit leiden. Um weitere Daten zu sammeln und längerfristige Trends zu diagnostizieren, wollen die Forschenden das Projekt in Portugal fortführen.

„Diese neuen Ergebnisse der Forschung tragen dazu bei, Ökosysteme besser und zielführender verstehen und pflegen zu können“, erklärt Haberstroh. „Dadurch können beispielsweise Regeln für besonders trockene Jahre konzipiert werden, was gerade in Zeiten des Klimawandels zentral ist.“

Wissenschaftliche Ansprechpartner:
Simon Haberstroh
Professur für Ökosystemphysiologie
Fakultät für Umwelt und natürliche Ressourcen
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-54076
E-Mail: simon.haberstroh@cep.uni-freiburg.de

Originalpublikation:
Haberstroh, S., Caldeira, M. C., Lobo-do-Vale, R., Martins, Joana I., Moemken, J., Pinto, J. G., Werner, C. (2021): Non-linear plant-plant interactions modulate impact of extreme drought and recovery on a Mediterranean ecosystem. In: New Phytologist. DOI: 10.1111/nph.17522

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/pflanzenkonkurrenz-im-klimawandel

(nach oben)


HSD-Forschungsschwerpunkt „Umweltmesstechnik in der Luftreinhaltung“ zum aktuellen EuGH-Urteil

Simone Fischer Informations- und Pressestelle
Hochschule Düsseldorf
Der Forschungsschwerpunkt Umweltmesstechnik in der Luftreinhaltung (UMT) der Hochschule Düsseldorf unter der Leitung von Prof. Dr. Konradin Weber führt schon seit einiger Zeit systematische Untersuchungen zur Luftqualität an der verkehrsreichen Münsterstraße im Norden von Düsseldorf durch.

Diese Untersuchungen sind gerade vor dem jüngsten EuGH-Urteil interessant, bei dem Deutschland wegen hoher Stickoxid-Werte in den Jahren 2010 bis 2016 verurteilt wurde.

Der Messwagen des Forschungsschwerpunktes UMT mit seinem umfangreichen Instrumentarium zur Messung der Luftqualität ist schon seit Ende 2020 an der Münsterstraße für kontinuierliche Untersuchungen stationiert. Die Münsterstraße ist durch einen signifikanten Innerortsverkehr gekennzeichnet. Die Untersuchungen haben gezeigt, dass für diesen Verkehrsstandort der Einstundengrenzwert für NO2 in diesem Jahr kein Mal überschritten wurde. Zusätzlich zu NO2 werden mit dem Messwagen Luftschadstoffe wie Feinstaub, Ultrafeinstaub, Dieselruß, Ozon, SO2 sowie meteorologische Parameter untersucht. Dabei werden neben den Standardmessverfahren auch besonders innovative spektroskopische Messverfahren sowie Low-Cost-Sensoren eingesetzt, die in verschiedenen Forschungsprojekten weiterentwickelt werden.

Der gleichzeitige Einsatz so vieler verschiedener Messverfahren an einem Mess-Standort ermöglicht neue lufthygienische Erkenntnisse.

Weitere Informationen:
http://www.hs-duesseldorf.de

(nach oben)


Wie man Elfmeter besser halten kann

Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
FORSCHUNG AKTUELL heißt der Forschungsnewsletter, den die Deutsche Sporthochschule Köln Medienvertreter*innen regelmäßig anbietet, um ausgewählte spannende Forschungsaktivitäten an Deutschlands einziger Sportuniversität vorzustellen. Anlässlich der Fußball-Europameisterschaft dreht sich in der neuen Ausgabe alles um Fußball.

Die Themen in der aktuellen Ausgabe:

PAPER
Wissenschaftler*innen haben die Elfmeterschießen aller Welt- und Europameisterschaften zwischen 1984 und 2016 analysiert. Die insgesamt 395 ausgewerteten Schüsse zeigen: Ob der Ball ins Tor geht oder nicht, hängt von dem Zusammenspiel der Strategien von Schütze und Torwart ab. Das Fazit: Um beim Elfmeterschießen erfolgreich zu sein, ist es wichtig, die eigene Strategie immer mal wieder zu ändern oder die des Gegners genau zu kennen.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/paper/

PROJEKT
Verletzungen gehören zum Fußball wie der Ball und das Tor. Rund 83 Prozent aller Spieler verletzen sich im Saisonverlauf mindestens ein Mal. Die zweithäufigste Muskelverletzung im Fußball sind Adduktorenverletzungen. Expert*innen gehen davon aus, dass schnelle Richtungswechsel und Schussbewegungen mit der Innenseite des Fußes das Risiko von Leistenverletzungen erhöhen. Ob das stimmt, hat Thomas Dupré untersucht.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/projekt/

PERSON
Seit frühester Jugend ist Jürgen Mittag (51) fasziniert von politischen Prozessen, wie diese funktionieren oder auch nicht funktionieren. Eines seiner liebsten Untersuchungsobjekte ist dabei die Europäische Union. Seit zehn Jahren besetzt er an der Deutschen Sporthochschule Köln die damals erste originär sportpolitikbezogene Professur in Deutschland und leitet das Institut für Europäische Sportentwicklung und Freizeitforschung.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/person/

PODCAST
In den beiden neuen Folgen unseres Wissenschaftspodcasts „Eine Runde mit…“ lernen Sie wieder zwei unserer Wissenschaftler*innen kennen. Im persönlichen Gespräch geben die Psychologin Dr. Babett Lobinger und Univ.-Prof. Dr. Daniel Memmert, der im Bereich Spielanalyse forscht, spannende Einblicke in ihre Forschung sowie Impulse für aktuelle gesellschaftliche Diskussionen.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/podcast/

NEWS
+++ Veröffentlichung zur Bekämpfung der Spielwettbewerbsmanipulation +++ Stark gegen Kinderkrebs +++ Von der Forschung in die Ausbildung +++ Queere Belange im Sport +++ Brexit – Auswirkungen auf den Sport +++
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/news/

Originalpublikation:
http://www.dshs-koeln.de/forschungaktuell

Weitere Informationen:
http://www.dshs-koeln.de/forschungaktuell

(nach oben)


Meilenstein für nachhaltige Batterien – „grünere“ Kohlenstoffe

Dipl.-Geophys. Marie-Luise Righi PR und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC
Lithium-Ionen-Batterien benötigen eine Reihe von speziellen Funktionsmaterialien für ihre Leistungsfähigkeit. Einige davon klingen eher unspektakulär: leitfähige Additive. Tatsächlich sind leitfähige Zusätze wie Leitruß oder Kohlenstoff-Nanoröhren ein entscheidender Baustein für die Leistungsfähigkeit und Umweltverträglichkeit von Lithium-Ionen-Batterien. Das kürzlich gestartete Verbundprojekt HiQ-CARB zielt darauf ab, neue Kohlenstoffe mit einer überlegenen Leistung und einem geringen CO₂-Fußabdruck für zukünftige grüne Batterien in Europa bereitzustellen. HiQ-CARB erhält EU-Fördermittel von EIT RawMaterials, um dieses essentielle neue Batteriematerial zu skalieren und zu validieren.

Mittlerweile ist es hinlänglich bekannt: Li-Ionen-Batterien sind eine Schlüsseltechnologie für zukunftsweisende europäische Industrien wie Elektrofahrzeuge, tragbare elektronische Geräte oder eine Vielzahl anderer Anwendungen, bei denen Energie möglichst aus erneuerbaren Ressourcen gespeichert und bereitgestellt wird. Große Teile der europäischen Industrie, darunter auch die europäische Automobilindustrie, sind zunehmend auf importierte Lithium-Ionen-Zellen angewiesen. Der europäische Green Deal und verschiedene unterstützende Maßnahmen zielen darauf ab, das Beschäftigungs-, Wachstums- und Investitionspotenzial von Batterien zu nutzen. Es soll eine wettbewerbsfähige Wertschöpfungskette „Batterie“ in Europa geschaffen werden – nicht zuletzt, um Batterietechnologien umweltfreundlicher und „grüner“ zu machen.

Was hat Kohlenstoff mit Lithium-Ionen-Batterien zu tun?
Kohlenstoff spielt eine entscheidende Rolle bei der Verbesserung der elektronischen Leitfähigkeit von Batteriekathoden und ist daher für das Erreichen schneller Lade- und Entladeraten unerlässlich. Im wachsenden Batteriemarkt machen die Rohstoffe den größten Teil der Kosten in der Produktion aus. „Um die wachsende europäische Batterieindustrie nachhaltig mit hochwertigen Leitadditiven versorgen zu können, müssen CO₂- und ressourceneffiziente Kohlenstoffmaterialien geschaffen, validiert und in ausreichender Menge in Europa wirtschaftlich produziert werden“, erklärt Projektkoordinator Dr. Andreas Bittner vom Fraunhofer-Institut für Silicatforschung ISC. Das ist es, was HiQ-CARB erreichen will.

Intelligent kombinieren, verarbeiten und lernen
Das Projektteam von HiQ-CARB setzt zum einen auf sehr profilierte Unternehmen wie ARKEMA oder ORION für die Herstellung von fortschrittlichen Additiven und Customcells für die Batteriezellproduktion. Auf der anderen Seite sind namhafte FuE-Partner wie das Fraunhofer-Institut für Silicatforschung ISC, die Aalto-Universität und die Universität Bordeaux für den wissenschaftlichen Teil der Evaluierung und Erprobung der neuen Materialkombinationen selbst und der daraus hergestellten Batteriezellen beteiligt.

Der HiQ-CARB-Ansatz für fortschrittliche Kohlenstoff-Additive ist die Kombination von dünnen Kohlenstoff-Nanoröhrchen und Acetylen-Black Partikel (Acetylenruß), die mit hoher Leitfähigkeit und geringer CO₂-Emission bei der Herstellung punkten. In Kombination bilden sie ein nahezu ideal leitendes Netzwerk innerhalb der Batterieelektrode. Ziel des Projektes ist der Aufbau einer Produktion dieser Spezialmaterialien im Tonnen- und Megatonnenmaßstab sowie ein effizienter Prozess für die Kathodenherstellung im Pilotmaßstab. Für ein effektives Qualitätsmanagement während der Produktion müssen entsprechende Prüfvorschriften und Routinen für die Qualifizierung und Qualitätssicherung entwickelt und etabliert werden.

Darüber hinaus wird das HiQ-CARB-Team Wissens- und Lernmodule zur Verfügung stellen, um die Ausbildung zukünftiger Experten für die Lithiumbatterie-Wertschöpfungskette und Beteiligungsmöglichkeiten für Industrie und Forschung gemäß den Bildungsempfehlungen von EIT RawMaterials zu unterstützen.

Wie Kohlenstoffe „grüner“ werden
Carbon Black (Kohlenstoff, hier speziell Leitruß) wird in der Regel mit hohem Energie- und Prozessmaterialaufwand hergestellt. HiQ-CARB wird Standard-Leitruß durch neuen und viel grüneren hochwertigen Acetylenruß ersetzen. Dies trägt erheblich zur Verbesserung der Umweltbilanz bei, z. B. durch die Reduzierung des CO₂-Fußabdrucks der Materialherstellung. Darüber hinaus werden die bereits kommerzialisierten Standard-Kohlenstoff-Nanoröhren (carbon nanotubes – CNT) durch neue, noch viel dünnere CNT ersetzt. Dies führt zu einer geringeren Menge an Kohlenstoffmaterialien für die gleiche oder sogar bessere Batterieleistung und führt zu einer verbesserten Ressourceneffizienz. Darüber hinaus ist dies das einzige CNT Material weltweit, das aus einem erneuerbaren Bioethanol-Rohstoff hergestellt wird. Darüber hinaus wird im Rahmen des Projekts eine Lebenszyklusanalyse durchgeführt, um die Nachhaltigkeit des Produktionsprozesses zu bewerten.

Besuchen Sie unsere Internetseite: https://www.isc.fraunhofer.de/de/presse-und-medien/presseinformationen/HiQ-CARB-…

Projekt Information auf der EIT RawMaterials Internetseite
https://eitrawmaterials.eu/project/hiq-carb
HiQ-CARB. High-Quality Conductive Additives for Rechargeable Batteries
Projektlaufzeit: 1. Januar 2021 – 30. September 2024

Partner
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. / Fraunhofer-Institut für Silicatforschung ISC, Deutschland (Projektkoordinator)
Aalto University, Finnland
Arkema France, Frankreich
Custom Cells Itzehoe GmbH, Deutschland
Orion Engineered Carbons GmbH, Deutschland
Université de Bordeaux, Frankreich

Wissenschaftliche Ansprechpartner:
Dr. Andreas Bittner l andreas.bittner@isc.fraunhofer.de | Fraunhofer-Institut für Silicatforschung ISC l www.isc.fraunhofer.de

Anhang
Die Presseinformation als pdf

(nach oben)


Es gibt einen deutlichen Zusammenhang zwischen freiwilligem Engagement und positiven Einstellungen zu Demokratie

Stefanie Hartmann Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen
Freiwilliges Engagement dient nicht nur der sozialen Teilhabe der Menschen, sondern ist zugleich Ausdruck einer starken Zivilgesellschaft und einer stabilen Demokratie. Wie der Freiwilligensurvey 2019 zeigt, engagieren sich 28,8 Millionen Menschen ab 14 Jahren in Deutschland freiwillig, das sind 39,9 Prozent dieser Bevölkerungsgruppe. Freiwilliges Engagement ist dann eine Ressource für demokratische Prozesse, wenn sie auf demokratischen Prinzipien beruht und demokratische Ziele verfolgt.

Die Ergebnisse des Freiwilligensurveys 2019 zeigen: Die große Mehrheit der Bevölkerung in Deutschland steht der Demokratie als Regierungsform positiv gegenüber. Freiwillig engagierte Personen bewerten dabei mit 95,0 Prozent die Demokratie als gute Regierungsform zu höheren Anteilen als nicht freiwillig engagierte Personen mit 87,8 Prozent. Auch auf die Frage, wie zufrieden man mit dem Funktionieren der Demokratie in Deutschland ist, fällt die Bewertung engagierter Personen positiver aus als die der nicht engagierten Personen: Während 72,2 Prozent der engagierten Personen mit dem Funktionieren der Demokratie in Deutschland zufrieden sind, sind es bei nicht engagierten Personen 65,8 Prozent. Freiwillig engagierte Personen weisen darüber hinaus höheres Vertrauen in grundlegende gesellschaftliche und demokratische Institutionen auf (Polizei, Justiz, Bundestag, Bundesregierung, Europäisches Parlament, Parteien) als nicht engagierte Personen.

Diese Ergebnisse aus dem Hauptbericht des Deutschen Freiwilligensurveys 2019 weisen darauf hin, dass freiwilliges Engagement zu einer demokratischen und solidarischen Gesellschaft beitragen kann. Allerdings muss zur Kenntnis genommen werden, dass es auch im freiwilligen Engagement Menschen gibt, die wenig Vertrauen in demokratische Institutionen haben sowie der Demokratie – generell oder in Hinblick auf ihr Funktionieren in Deutschland – kritisch gegenüberstehen. Hierauf sollten politische und gesellschaftliche Akteure mit geeigneten Maßnahmen der Demokratieförderung reagieren.

Der Hauptbericht mit diesen und weiteren Befunden des Deutschen Freiwilligensurveys 2019 ist seit kurzem veröffentlicht. Zentrale Ergebnisse werden auf einer Tagung am 09.06.2021 vorgestellt und diskutiert. Informationen zu der Veranstaltung sowie der Bericht zum Download sind erhältlich unter www.freiwilligensurvey.de.

Die hier genannten Befunde zu Demokratieeinstellungen stammen aus dem Kapitel: Karnick, N., Simonson, J., Tesch-Römer, C. (2021). Einstellungen gegenüber gesellschaftlichen Institutionen und der Demokratie. In: J. Simonson, N. Kelle, C. Kausmann & C. Tesch-Römer (Hrsg.) Freiwilliges Engagement in Deutschland – Der Deutsche Freiwilligensurvey 2019 (S. 252–274). Berlin: Deutsches Zentrum für Altersfragen.

Der Deutsche Freiwilligensurvey (FWS) ist seit zwei Jahrzehnten die Basis für die Berichterstattung zum aktuellen Stand und zur Entwicklung des freiwilligen Engagements in Deutschland. Der Freiwilligensurvey wird gefördert vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ). Seit 1999 wird er alle fünf Jahre als telefonische, bevölkerungsrepräsentative Studie durchgeführt. Der Freiwilligensurvey 2019 wurde vom Deutschen Zentrum für Altersfragen (DZA) durchgeführt.

Originalpublikation:
Karnick, N., Simonson, J., Tesch-Römer, C. (2021). Einstellungen gegenüber gesellschaftlichen Institutionen und der Demokratie. In: J. Simonson, N. Kelle, C. Kausmann & C. Tesch-Römer (Hrsg.) Freiwilliges Engagement in Deutschland – Der Deutsche Freiwilligensurvey 2019 (S. 252–274). Berlin: Deutsches Zentrum für Altersfragen.

(nach oben)


Verklär²: Innovatives Verwertungskonzept für energieautarke und ressourcenschonende Kläranlagen

Sonja Wiesel M.A. Hochschulkommunikation und Öffentlichkeitsarbeit
Ostbayerische Technische Hochschule Amberg-Weiden
Pilotprojekt in Haßfurt: Autarke Kläranlage schützt das Klima und schont Ressourcen.

Herzstück des Projekts eine innovative Technologie zur Monoverbrennung, die erstmals die thermische Verwertung von Klärschlämmen in kleinskaligen Anlagen direkt am Ort der Entstehung ermöglicht – dezentral, emissionsarm und autark. Möglich macht dies der Einsatz der Wirbelfeuerungstechnik. Unterstützung für das Projekt erhält die Stadt von Experten aus Industrie und Forschung. In Kooperation mit der Spanner Re² GmbH, der Rheinisch-Westfälischen Technischen Hochschule Aachen (RWTH Aachen) und dem Institut für Energietechnik (IfE) an der Ostbayerischen Technischen Hochschule Amberg-Weiden entsteht am Standort Haßfurt eine Pilotanlage mit Wirbelfeuerung zur dezentralen Verbrennung und energetischen Nutzung von Klärschlamm.

Im Zuge von Klimaschutz und Ressourcenschonung ist Klärschlamm einer der relevantesten biogenen Abfallstoffe, dessen thermische Energie es effizient zu nutzen gilt.
Die in den kommenden Jahren in Kraft tretenden Verpflichtungen zur Phosphorrückgewinnung und Bestimmungen der Düngemittelverordnung schränken die bisher etablierten Entsorgungswege für kommunalen Klärschlamm erheblich ein. Die landwirtschaftliche Verwertung von Klärschlamm wird durch den steigenden öffentlichen Fokus auf Boden-, Pflanzen- und Umweltschutz kritisch bewertet und rechtlich eingeschränkt. Die Mitverbrennung des Klärschlamms, beispielsweise in Müllverbrennungsanlagen und Zementwerken, sieht hingegen die Rückgewinnung von Phosphor nicht vor. Außerdem fallen die Kapazitäten zur Mitverbrennung in Kohlekraftwerken durch den Kohleausstieg auf absehbare Zeit weg. Diese Auswirkungen erfordern in den nächsten Jahren einen massiven Ausbau von Monoverbrennungsanlagen zur Entsorgung von Klärschlamm. Bisher ist Klärschlamm-Monoverbrennung jedoch nur in großen Anlagen an zentralen Standorten technisch und wirtschaftlich machbar.

Das Konsortium im Forschungsprojekt „Verklär²“ hat es sich daher zum Ziel gesetzt, die dezentrale Monoverbrennung in kleinskaligen Anlagen zur Praxisreife zu bringen. Das Projekt wird im Rahmen des 7. Energieforschungsprogramm des Bundesministeriums für Wirtschaft und Energie gefördert. Das Projektvolumen beträgt knapp 1,1 Mio. €. Ziel ist die Erprobung und Demonstration der umweltgerechten energetischen Verwertung von Klärschlamm in einer Wirbelbefeuerung für kommunale Kläranlagen der Größenklasse IV a (10.000 – 50.000 Einwohner).

Die Kläranlage in Haßfurt wird im Rahmen des Projekts um eine Wirbelfeuerung erweitert. Die im Verbrennungsprozess gewonnene Wärme wird zur Wärmeversorgung der Kläranlage und des kommunalen Umfeldes verwendet. Einerseits wird die Wärme zur Trocknung des Klärschlamms genutzt, andererseits kann Überschusswärme aus der Wirbelfeuerung im Sinne der Sektorenkopplung in das lokale Wärmenetz eingespeist werden. Die Wirbelfeuerungsanlage substituiert in Haßfurt gleichzeitig ein bestehendes Blockheizkraftwerk (BHKW), welches mit Erdgas betrieben wird und die Klärschlammtrocknung mit Wärme versorgt. Damit wird künftig nicht nur auf Wärmebereitstellung aus dem fossilen Energieträger Erdgas verzichtet, sondern auch eine Autarkie der Kläranlage hinsichtlich Energieversorgung und Abfallentsorgung erreicht. Die intelligente und flexible Kombination der Klärschlammverbrennung mit der Klärgasverstromung führt zu einer Verbesserung der Energiebilanz der Kläranlage und zur Steigerung der Energieeffizienz. Zuversichtlich blickt Michael Kastner, Projektleiter vom Institut für Energietechnik, in die Zukunft: „Mit der dezentralen thermischen Verwertung des Klärschlamms kann ein wichtiger Meilenstein im künftigen Transformationsprozess vom Klärwerk zum Kraftwerk erreicht werden.“
Die RWTH Aachen übernimmt im Projekt die praktischen Untersuchungen zur Klärschlammverbrennung. Schrittweise erfolgt dies vom Technikumsmaßstab über den bestehenden Prototyp bis hin zur Inbetriebnahme der ersten dezentralen Verwertungsanlage mit Wirbelfeuerungstechnik in Haßfurt. Die Spanner Re2 GmbH verantwortet hingegen die konstruktive Anpassung für den Dauerbetrieb und fertigt die Pilotanlage. Unterstützung bei der Planung und Konzeption zur Integration der Feuerungstechnik in den bestehenden Kläranlagenbestand erhält die Stadt Haßfurt vom IfE. Dieses ist auch für die wissenschaftlich-messtechnische und ökologische Bewertung des Vorhabens zuständig.

Macht das Projekt Schule, leisten regionale Kläranlagen durch den Einsatz dezentraler Verbrennungstechnologien künftig einen entscheidenden ökologischen Beitrag – klimafreundlich und ressourcenschonend.

Institut für Energietechnik (IfE) GmbH an der Ostbayerischen Technischen Hochschule Amberg-Weiden:
Die Arbeitsschwerpunkte des IfE liegen bei der Beratung von Politik, Kommunen, Energieversorgungs- und Industrieunternehmen in den Bereichen Energieeffizienz, Erneuerbare Energien und Kraft-Wärme-Kopplung. Im Fokus steht dabei die Analyse von Energieverbrauchsstrukturen, die Herausarbeitung von Potenzialen zur Effizienzsteigerung und dezentralen Energieerzeugung und die Entwicklung effizienter Energieversorgungslösungen sowie deren technische, ökonomische und ökologische Bewertung.

Ergänzend zu den konzeptionellen Arbeiten forscht und entwickelt das IfE praxisorientiert auf dem Gebiet der Kraft-Wärme-Kopplung und Erneuerbaren Energien und setzt die gewonnenen Erkenntnisse im Rahmen von Modell- und Demonstrationsvorhaben mit wissenschaftlich-messtechnischer Begleitung in die Praxis um.

Wissenschaftliche Ansprechpartner:
Institut für Energietechnik IfE GmbH
Kaiser-Wilhelm-Ring 23a
92224 Amberg
Tel: 09621/482-3935
E-Mail: presse@ifeam.de

(nach oben)


Einjährige Corona-Studie ELISA zu Antikörpern zeigt: Dunkelziffer ist deutlich zurückgegangen

Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
Im März 2020 startete ein Forschungsteam die ELISA-Studie und untersuchte insgesamt mehr als 3000 Lübeckerinnen und Lübecker über ein Jahr lang auf das Auftreten von SARS-Co-V-2 Infektionen. Aufgrund der Ergebnisse hält die Forschungsgruppe Lockerungen bei niedrigen Fallzahlen für vertretbar, fordert aber schnelle und konsequente Maßnahmen bei einem Anstieg der Fallzahlen.
Ein Ausgangspunkt der ELISA-Studie (Lübecker Längsschnittuntersuchung zu Infektionen mit SARS-CoV-2) war die Frage nach der Dunkelziffer von SARS-CoV-2 Infektionen. Weiter wollten die Forscherinnen und Forscher untersuchen, wie sich das Virus in der Bevölkerung verbreitet, wann und wo Neuinfektionen auftreten.

Zur Beantwortung dieser und weiterer Fragen wurde in der ELISA-Studie eine feste Bevölkerungsgruppe (Kohorte) aus Lübeck und Umgebung über ein Jahr regelmäßig unter-sucht und befragt. Über 3000 Personen nahmen mittels einer mobilen Studien-App teil. Über ein Jahr wurden knapp 100.000 Fragebögen erhoben und fast 20.000 PCR- und Antikörpertests durchgeführt. Die Studienorganisation einschließlich der Terminvergabe und die personalisierte Rückmeldung von Befunden erfolgten rein elektronisch.
Beantworten wollten die Forschenden aus den Bereichen Epidemiologie, Infektiologie und Neurologie zudem die Frage, ob sich die Pandemieentwicklung an einer Stichprobe von ca. 1 % der lokalen Bevölkerung zuverlässig beschreiben ließe.
Außerdem im Fokus der Forschungsgruppe: Wie hoch sind die Infektionsraten in definierten Risikogruppen mit vielen Kontakten (z. B. Kranken- und Altenpflege) und welchen Einfluss haben die Lockerungsmaßnahmen (z. B. Schulöffnungen, Gastronomie, Tourismus etc.) auf das Infektionsgeschehen? Besonderes Augenmerk wurde auf die Entwicklung der Antikörper-Spiegel im Blut über die Zeit gelegt: bleibt eine erworbene Immunität auch erhalten?

Erste Langzeituntersuchung in einem Niedrigprävalenzgebiet
Schleswig-Holstein zählt auch aktuell in Deutschland zu den Niedrigprävalenzgebieten für Corona-Infektionen. Der Großraum Lübeck gehört mit seinen ca. 300.000 Einwohnern zur Metropolregion Hamburg. Viele Menschen pendeln zwischen Lübeck und Hamburg und normalerweise besuchen ca. 50.000 Touristen pro Tag die Hansestadt Lübeck. Daher eignet sich die Region ideal als Modellregion, besonders um die Dynamik des Infektionsgeschehens zu verfolgen.

Ergebnisse der Langzeitstudie der Universität zu Lübeck
• Die Teilnehmerinnen und Teilnehmer blieben über das gesamte Jahr mit Teilnahmeraten von 75 – 98 % weit überdurchschnittlich engagiert und erlauben somit valide Aussagen zum Infektionsgeschehen
• 3,5 % der Getesteten wurden dabei an den insgesamt 7 Testzeitpunkten als entweder Virus-PCR- oder Antikörper-positiv identifiziert.
• Die Dunkelziffer lag zu Studienbeginn im Mai 2020 bei ca. 90%. D.h. dass nur 10% der mutmaßlichen, durch Antikörpertest bestätigten Infektionen auch durch einen PCR-Test entdeckt wurden und somit in die offizielle Statistik eingingen. Knapp ein Jahr später ist die Dunkelziffer auf 30% gesunken, d.h. 7 von 10 Infektionen wurden auch durch einen PCR-Test bekannt.
• Antikörperspiegel blieben relativ konstant über die Zeit. Bei den Personen, die im Mai 2020 positive Antikörper aufwiesen, waren diese knapp ein Jahr später bei etwa 70% noch nachweisbar.
• Mit ca. 1 % der Bevölkerung konnte das Pandemiegeschehen in der Region Lübeck zwar gut abgebildet werden, aber ansteigende Infektionen bei den im Herbst 2020 zwei Monate auseinanderliegenden Testzeitpunkten konnten nur verzögert entdeckt werden.
• Das höchste Risiko, sich mit SARS-CoV-2 zu infizieren, bestand bei Personen, die Kontakt mit an Covid-19 Erkrankten angegeben hatten. Es war jedoch auch in bestimm-ten Berufsgruppen, wie z. B. bei Pflegepersonal, Polizisten und Feuerwehrleuten erhöht. Darüber hinaus konnten keine klaren Risikofaktoren oder Risikomuster als Infektions-quellen identifiziert werden.

Schlussfolgerungen aus der ELISA-Studie
• Mit einer Stichprobe in der Größenordnung von 1% der Bevölkerung lässt sich mit engmaschigem Testen das Infektionsgeschehen gut abbilden und zur Bewertung ggf. zur Vorhersage des Pandemiegeschehens in einer Region nutzen.
• Die Prävalenz von 3,5% an durchlebten Infektionen zeigt, dass man auch nach ei-nem Jahr Pandemie weit von einer Herdenimmunität entfernt ist. Die Bevölkerung ist weiterhin vulnerabel für das Corona-Virus, was die Bedeutung von Impfung und Aufrechterhaltung von AHA_L Regeln betont.
• Die Dunkelziffer war zu Beginn der Pandemie hoch. Die wahre Infektionslast dürfte hier bis zu 10mal höher gewesen sein, als offizielle Fallzahlen dies vermuten lassen. Heute wird die Mehrzahl der Infektionen über die vermehrten Testungen häufiger entdeckt, die Dunkelziffer ist stark gesunken.
• Die Studie zeigt, dass in Regionen mit niedriger Inzidenz Öffnungsschritte unter kontinuierlicher Beobachtung vertretbar sind. So zeigte sich in den Untersuchungen der ELISA-Studie kein Anstieg der Fallzahlen ab Mai 2020 – trotz weitreichender Öffnungs-schritten im gesellschaftlichen Leben sowie eines zu den Vorjahren vergleichbaren Ferientourismus in der Lübecker Bucht.

Die ELISA-Studie wird gefördert durch das Nationale Forschungsnetzwerk der Universitätsmedizin (B-FAST), das Land Schleswig-Holstein, Stiftungen und Vereine und durch die Lübecker Bevölkerung (Crowd funding).
Weiterführende Informationen finden Sie hier: https://elisa-luebeck.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christine Klein
Universität zu Lübeck
Institut für Neurogenetik
Ratzeburger Allee 160
D-23538 Lübeck
Tel: +49-451-3101-8200
E-Mail: christine.klein@neuro.uni-luebeck.de

Prof. Dr. Alexander Katalinic
Universität zu Lübeck
Institut für Sozialmedizin und Epidemiologie
Ratzeburger Allee 160
D-23538 Lübeck
Tel: +49-451-500-51200
E-Mail: alexander.katalinic@uni-luebeck.de

Prof. Dr. Jan Rupp
Universität zu Lübeck
Klinik für Infektiologie und Mikrobiologie
Ratzeburger Allee 160
D-23538 Lübeck
Tel: +49-451-500-45300
E-Mail: jan.rupp@uni-luebeck.de

(nach oben)


In Millisekunden von verschmutztem zu klarem Wasser – Neue Erkenntnisse im Bereich Nanoscience

Juliane Jury Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kolloid- und Grenzflächenforschung
(Potsdam) Forscher am Max-Planck-Institut für Kolloid- und Grenzflächenforschung haben eine Membran entwickelt, die aus unzähligen nanometerkleinen Röhren besteht. Diese setzten sie als Nanoreaktor ein, um mithilfe von Sonnenlicht in Millisekunden mit Methylenblau markiertes Wasser in klares umzuwandeln. „Reaktionen in Flüssigkeiten mit geringerer Viskosität blitzschnell ablaufen zu lassen, stellt eine neue Chance für die Chemie dar,“ sagt Prof. Dr. Markus Antonietti, Direktor der Abteilung Kolloidchemie.

Die Chemie gilt oft als ausgereifte Disziplin, in der neue Erkenntnisse nur an den äußeren Rändern entstehen. Ein Team um Gruppenleiter Dr. Aleksandr Savateev hat nun gezeigt, dass es gerade im Inneren – im Nanobereich – noch bemerkenswerte Überraschungen gibt. Eigenschaften gängiger Flüssigkeiten wie Wasser hängen von der Größe des Behältnisses ab, in dem sie eingeschlossen sind. Füllt man Wasser als bereits recht agile Flüssigkeit mit geringer Viskosität in ein Behältnis in Nanogröße, in das nur wenige Wassermoleküle passen, so wird es „superfluidisch“. Je kleiner der Raum, desto größer ist der Suprafluid-Effekt. Wasser ist also nicht gleich Wasser.

Funktionsweise
In ihren Reaktionsexperimenten entwickelte die Savateev-Gruppe eine Membran, die aus Milliarden von parallel angeordneten Kohlenstoffnitrid-Röhren besteht. Jedes dieser Röhrchen verfügt über einen Durchmesser von wenigen Nanometern, was 1/10.000 eines menschlichen Haares entspricht. Sie beobachteten, dass Wasser ohne jegliche Reibung durch sie hindurchgleitet. Dabei wird Licht als Treiber für die chemische Umwandlung von verschmutztem zu sauberem Wasser genutzt, während der durch die Membran erzeugte Quanteneinschluss auch die Energie des Lichts mit bisher unerreichter Effizienz lenkt. Die konkave Oberfläche der parallelen, fast eindimensionalen Röhren dient als eine Art Spiegel, der das interne elektrische Feld im Inneren der Nanoröhre konzentriert. In Verbindung mit dem von außen einfallenden Licht erhöht dies die Reaktionsgeschwindigkeit enorm. „Im gewöhnlichen 3D-Raum sind diese Reaktionsgeschwindigkeiten von Millisekunden einfach unmöglich,“ sagt Dr. Savateev.

„Wir arbeiten aktiv an der Entwicklung dieser Technologie, um Treibstoff und andere für die Gesellschaft wichtige Materialien mit nachhaltiger Energie wie Sonnenlicht in einfachen Geräten, vergleichbar mit einem Kaffeefilter, zu erzeugen,“ sagt Aleksandr Savateev.

Originalpublikation:
https://pubs.acs.org/doi/10.1021/acsnano.0c09661

Weitere Informationen:
https://www.mpikg.mpg.de/pressemeldungen

(nach oben)


Hygieneregeln wirken auch gegen britische und südafrikanische Mutante

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Die mutierten Sars-Cov-2-Viren B.1.1.7 und B.1.351 gelten als „variants of concern“, da sie leichter übertragbar sind als der Wildtyp des Virus oder nicht so gut von unserem Immunsystem erkannt werden. Wie die sogenannte britische und die südafrikanische Variante auf Desinfektion und Reinigung reagieren und wie lange sie auf verschiedenen Oberflächen infektiös bleiben, hat ein Forschungsteam aus Bochum, Jena, Nürnberg und Duisburg-Essen untersucht. Die Forschenden stellten fest, dass die Mutanten unter Laborbedingungen eine ähnliche Oberflächenstabilität wie der Wildtyp aufweisen, aber durch Desinfektion und gründliches Händewaschen effektiv beseitigt werden können.

Sie berichten im Journal of Infectious Disease vom 16. Mai 2021.
Für die Arbeit kooperierten das Team der Abteilung für Molekulare und Medizinische Virologie sowie des Lehrstuhls Materials Discovery and Interfaces der Ruhr-Universität Bochum (RUB) mit dem European Virus Bioinformatics Center Jena, dem Universitätsklinikum Duisburg-Essen sowie der Paracelsus Medizinische Privatuniversität Nürnberg.

Dass Viren sich mit der Zeit genetisch verändern, ist bekannt. Besorgniserregend sind Varianten, die dem Virus einen Vorteil verschaffen, zum Beispiel indem es sich schneller vermehren kann, leichter ansteckend wird oder der Immunantwort besser entgehen kann. Die britische und die südafrikanische Variante haben mehrere Mutationen angesammelt, die sie leichter ansteckend machen und teilweise zu schwereren Krankheitsverläufen führen. „Daher stellte sich die Frage, ob sie sich auch von der Ursprungsvariante unterscheiden, was ihre Empfindlichkeit für Hygienemaßnahmen anbelangt“, erklärt Toni Meister aus der RUB-Virologie.

Hitze, Seife, Alkohol
Das Team hat daher untersucht, wie lange die Varianten auf Oberflächen aus Stahl, Silber, Kupfer und auf Gesichtsmasken infektiös bleiben und wie sie mittels Seife, Hitze oder Alkohol unschädlich gemacht werden können.

Es zeigte sich, dass beide Mutanten ebenso wie der Wildtyp des Virus durch die Behandlung mit mindestens 30-prozentigem Alkohol für mindestens 30 Sekunden beseitigt werden konnten. „Übliche Desinfektionsmittel wirken also gegen alle diese Varianten“, so Prof. Dr. Stephanie Pfänder aus der RUB-Virologie. Gründliches Händewaschen mit Seife konnte ebenfalls die Ansteckungsgefahr bannen. Auch Hitze wirkt gegen das Virus: Nach 30 Minuten bei 56 Grad Celsius waren auch alle Varianten unschädlich gemacht.

Um herauszufinden, ob sich die Stabilität der verschiedenen Mutanten auf Oberflächen voneinander unterscheidet, beobachteten sie die Menge der infektiösen Viruspartikel auf damit kontaminierten Oberflächen aus Stahl, Kupfer, Silber und auf chirurgischen und FFP2-Masken über 48 Stunden hinweg. „Die Oberflächenstabilität hat sich nicht zwischen den Virusvarianten unterschieden“, so RUB-Virologe Prof. Dr. Eike Steinmann. „Wie schon mehrfach beschrieben wirkt insbesondere Kupfer sehr stark antiviral auf die Viren“. Zusammenfassend konnte das Team keine Unterschiede zwischen den verschiedenen Mutanten feststellen, was ihre Empfindlichkeit gegenüber Hygienemaßnahmen anbelangt.

Pressekontakt
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@rub.de

Prof. Dr. Stephanie Pfänder
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 29278
E-Mail: stephanie.pfaender@rub.de

Toni Luise Meister
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 26465
E-Mail: toni.meister@rub.de

Coronaforschung an der RUB
Seit Beginn der Coronapandemie wird an der RUB zu Covid-19 geforscht – über alle Fächergrenzen hinweg. Beteiligt sind deshalb nicht nur Medizin und Lebenswissenschaften, sondern beispielsweise auch Psychologie, Soziologie, Rechts-, Erziehungs- und Geschichtswissenschaft. Einen Überblick der Forschungsprojekte findet sich online: https://www.bionet.ruhr-uni-bochum.de/biodb/covid19/projekte.html.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@rub.de

Prof. Dr. Stephanie Pfänder
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 29278
E-Mail: stephanie.pfaender@rub.de

Toni Luise Meister
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 26465
E-Mail: toni.meister@rub.de

Originalpublikation:
Toni Luise Meister et al.: Comparable environmental stability and disinfection profiles of the currently circulating SARS-CoV-2 variants of concern B.1.1.7 and B.1.351, in: Journal of Infectious disease, 2021, DOI: 10.1093/infdis/jiab260, https://academic.oup.com/jid/advance-article/doi/10.1093/infdis/jiab260/6276396?…

(nach oben)


Vibrionen und Klimawandel: Können Natur-basierte Methoden das Gefährdungspotenzial in der Ostsee mildern?

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Vibrio-Bakterien, darunter auch für Menschen gefährliche Arten, sind natürlicher Bestandteil des Ostseeplanktons. Im Zuge des Klimawandels können sie durch steigende Wassertemperaturen häufiger und damit ein zunehmendes Gesundheitsrisiko werden. Das Projekt BaltVib erforscht unter Leitung des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW), ob spezielle Pflanzen- und Tiergesellschaften wie Seegraswiesen und Muschelbänke die Vibrionen-Belastung in Küstennähe auf natürliche Weise senken und wie dieser Effekt durch Umweltgestaltung aktiv unterstützt werden kann. Der Forschungsverbund mit Partnern aus sieben Ostseestaaten nimmt am 19.5. mit einem virtuellen Kickoff-Treffen die Arbeit auf.

„Die besondere Stärke von BaltVib liegt darin, dass das gesellschaftlich hochrelevante Thema ‚Klimawandel und Vibrionen‘ erstmals für den gesamten Ostseeraum und darüber hinaus auch disziplinenübergreifend – gemeinsam von Mikrobiologie, Molekularbiologie, Meeresökologie und Sozioökologie – bearbeitet werden kann. Und auch die zukünftigen Anwender von praxisnahen Lösungsansätzen sind von Anfang an mit im Boot“, kommentiert Prof. Dr. Matthias Labrenz den heutigen Projektauftakt. Der IOW-Meeresmikrobiologe ist Leiter des internationalen BaltVib-Projektes, das im Rahmen des europäischen BiodivERsA-Programms* bis 2024 mit knapp 1,45 Mio. gefördert wird.

An BaltVib beteiligte wissenschaftliche Einrichtungen neben dem IOW sind das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, das Meeresforschungsinstitut der litauischen Universität Klaipėda, die Universität Kopenhagen, die Estnische Universität für Lebenswissenschaften, das Königliche Institut für Technologie Stockholm, die finnische Åbo Akademi Universität und Polens Nationales Forschungsinstitut für Meeresfischerei. An der heutigen Online-Tagung am IOW nehmen neben Wissenschaftler:innen auch Fachleute aus Umwelt- und Gesundheitsämtern, Fischereibehörden sowie den jeweils zuständigen Ministerien teil, die in ihrer Arbeit konkret mit der Vibrionen-Problematik befasst sind.

Vibrionen und Klimawandel
Als „Vibrionen“ bezeichnet man alle Bakterien der Gattung Vibrio. Sie sind im offenen Meer allgegenwärtig und kommen auch in Küsten-, Brack- und Süßgewässern sowie in Gewässersedimenten vor. Man kennt ca. 130 verschiedene Arten, von denen nur rund 10 % Infektionen bei Menschen, Fischen oder Muscheln verursachen.

Klimawandelbedingte Veränderungen der Ostsee, wie etwa der bis zum Jahr 2100 erwartete Anstieg der Oberflächenwassertemperatur um 2 – 4 ˚C, begünstigen die Vermehrung von Vibrionen und damit auch der gefährlichen Arten. Vibrio vulnificus beispielsweise, der bei vorerkrankten und anderweitig geschwächten Menschen allein durch Wasserkontakt zu schwerster Sepsis mit tödlichem Ausgang führen kann, vermehrt sich bei Wassertemperaturen über 20°C besonders gut. Die höchsten Infektionsraten fallen daher genau mit der Haupttouristensaison in Nordeuropa zwischen Mai und Oktober zusammen. Vibrio-Wundinfektionen werden bereits seit Mitte der 1990er Jahre vermehrt während Hitzewellen beobachtet, so dass mit Blick auf die Zukunft in der Ostseeregion von einer erheblichen Bedrohung für die menschliche Gesundheit und die Tourismusindustrie ausgegangen werden kann.

Seegraswiesen, Muschelbänke & Co.: BaltVib setzt auf „Ökosystemingenieure“
In Küstenmeeren wie der Ostsee haben sich Muschelbänke, Seegraswiesen und Makroalgenbestände z. B. aus Blasentang als besonders wertvoll erwiesen. Diese Lebensräume mit hoher Biodiversität übernehmen viele für Meer und Mensch wichtige Ökosystemfunktionen. Sie werden daher auch als „Ökosystemingenieure“ bezeichnet. Neuere Untersuchungen deuten nun darauf hin, dass in solchen Lebensräumen pathogene Vibrio-Arten deutlich reduziert sein können.

Genau hier setzt BaltVib an. Denn dieser Effekt eröffnet die Option, sogenannte Natur-basierte Lösungsstrategien zur Kontrolle gefährlicher Vibrionen in küstennahen Bereichen zu entwickeln. „Denkbar sind verschiedene Ansätze“, erläutert Matthias Labrenz. Zum einen sei es wichtig, den Schutz dieser wertvollen Habitate nach Möglichkeit voranzutreiben. „Zum anderen kann es sinnvoll sein, über künstliche Unterwasserstrukturen z.B. die Ansiedelung von Seegraswiesen oder Muschelbänken gezielt in den Bereichen zu fördern, wo Menschen besonders stark mit dem Meer interagieren“, so der IOW-Forscher weiter.

Um effektive Strategien zur Milderung der Vibrionen-Problematik zu entwickeln, müsse man jedoch zuerst noch viele grundlegende Fragen klären: Wie ist der aktuelle Vibrionen-Status der Ostsee? Was kann man aus historischen Aufzeichnungen lernen? Lassen sich zukünftige, Klimawandel-geprägte Vibrio-Szenarien konkreter als bisher beschreiben? Welche ökologischen Schlüsselfaktoren regulieren die Vibrio-Prävalenz? Labrenz: „Noch wissen wir beispielsweise nicht, warum es im Umfeld von Seegraswiesen weniger Vibrionen geben könnte und wie wirksam andere Ökosystemingenieure sind.“ Außerdem werden auch die potenziell Vibrionen-reduzierenden Lebensräume vom Klimawandel beeinflusst – ein Faktor, den man ebenfalls besser verstehen müsse, führt der Meeresforscher aus.

Das BaltVib-Forschungsprogramm umfasst ein großes methodisches Spektrum, von historischen Studien und PC-gestützter Zukunftsmodellierung über umfangreiche Probennahme-Kampagnen, Labor- und Freilandexperimenten bis hin zur Klärung technischer und organisatorischer Fragen bei der Umsetzung von Gestaltungsmaßnahmen im Meer. „Da die Ostsee ein ideales Modellsystem für viele Randmeere ist, hoffen wir, so grundlegende Ergebnisse zu erarbeiten, dass sie weltweit übertragbar sind. Denn gefährliche Vibrionen gibt es nicht nur bei uns“, resümiert Projektleiter Matthias Labrenz.

*BiodivERsA (http://www.biodiversa.org) ist ein Netzwerk nationaler Förderorganisationen, das die europaweite Forschung zu Biodiversität und Ökosystemleistungen fördert. An der Förderung von BaltVib sind in diesem Rahmen neben der EU auch das Bundesministerium für Bildung und Forschung, der Innovation Fund Denmark, das Estonian Research Council, das Research Council of Lithuania, das Swedish Research Council for Environment, Agricultural Sciences and Spatial Planning, das Polish National Science Centre und die Academy of Finland beteiligt.

Kontakt IOW Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck: 0381 5197 135| kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch: 0381 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, die 96 eigenständige Forschungsein-richtungen miteinander verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftler*innen. Das Finanzvolumen liegt bei 1,9 Milliarden Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Labrenz | Leiter der IOW-Arbeitsgruppe Umweltmikrobiologie
Tel.: +49 381 5197 378 | matthias.labrenz@io-warnemuende.de

Weitere Informationen:
http://www.io-warnemuende.de/projekt/273/baltvib.html

(nach oben)


Wann und wie schädigt Alkohol das Gehirn?

Marion Hartmann Presse- und Öffentlichkeitsarbeit
Daimler und Benz Stiftung
Frühzeitige Erkennung und Überwachung können helfen, Hirnschäden zu minimieren.

Bier, Wein, Sekt oder Hochprozentiges zu trinken, ist in unserer Kultur tief verwurzelt: Über 13 Liter puren Alkohol nehmen Europäer im Alter ab 15 Jahren im Durchschnitt jährlich zu sich. Dabei ist längst bekannt, dass Alkoholmissbrauch das Gehirn schädigt. Die weiße Substanz, die fast die Hälfte des Gehirns ausmacht, ist nachweislich stark betroffen; dieser Teil des Zentralnervensystems besteht überwiegend aus Leitungsbahnen und Nervenfasern. In der Folge kann es zu zahlreichen Einschränkungen kommen, die Kontrolle des Menschen über die eigene Handlungsfähigkeit nimmt ab. Dies befördert wiederum die Sucht – ein Teufelskreis. Die Psychologin Dr. Ann-Kathrin Stock vom Dresdner Universitätsklinikum befasst sich in einem von der Daimler und Benz Stiftung geförderten Projekt mit Hirnschäden, die während des Rauschtrinkens, aber auch während eines Alkoholentzugs auftreten können. Ihr Forschungsziel ist es, diese Schäden früher und präziser erkennen zu können, um so zu einer Verbesserung der Behandlung alkoholkranker Menschen beizutragen.

Leider bleibt es oft nicht bei einem Gläschen Wein: Das Statistische Bundesamt zählte allein im Jahr 2017 über 300.000 Patienten, die wegen Alkoholmissbrauchs stationär behandelt werden mussten, und rund 16.000 entlassene Patienten nach einer Rehabilitation. Psychische und physische Störungen durch Alkoholmissbrauch belegen stets einen der vorderen Plätze der bundesweiten Krankheitsstatistik. „Eine traurige Bilanz, denn hinter diesen Zahlen stehen Einzelschicksale“, sagt Dr. Ann-Katrin Stock, die am Dresdner Uniklinikum die Grundlagen der menschlichen Handlungskontrolle erforscht. „Wir interessieren uns für die Mechanismen, die zu alkoholbedingten Hirnschäden führen, und wollen Optionen aufzeigen, wie sich die medizinische Versorgung bei einem kontrollierten Entzug mit diesem Wissen weiter verbessern lässt.“

Nach neuesten Erkenntnissen treten Hirnschäden nicht nur beim Rauschtrinken selbst auf, sondern verstärken sich insbesondere während der ersten Phasen des Entzugs. Laut Stock tragen die entzugsbedingten Schäden wiederum dazu bei, bestehende Suchtstörungen aufrechtzuerhalten – umso stärker, je mehr Entzüge notwendig sind. Für einen größtmöglichen Therapieerfolg sind daher die Motivation des Patienten und zugleich die medizinische Versorgung von großer Bedeutung. Wodurch entstehen aber die Hirnschäden, die durch Alkoholkonsum und -entzug bedingt werden? „Je mehr und regelmäßiger ein Suchtmittel konsumiert wird, desto stärker steuern Körper und Gehirn entgegen“, erklärt Stock, „es kommt zur Toleranzentwicklung.“ Ein Beispiel: Alkohol entzieht dem Körper Wärme – woraufhin der Körper als Ausgleich mit einer Erhöhung seiner Temperatur entgegenwirkt. Deshalb tritt beim sogenannten „kalten“ Entzug ohne medizinischen Beistand als häufige Gegenreaktion Fieber auf.

Ähnlich verhält es sich mit den Botenstoffen des Gehirns: Alkohol dämpft die Hirnaktivität, in-dem es die hemmende Wirkung des Botenstoffs Gamma-Aminobuttersäure (GABA) potenziert und gleichzeitig die erregende Wirkung von Glutamat, eines weiteren wichtigen Botenstoffs, reduziert. Um dies zu kompensieren, passen sich bei dauerhaftem Konsum die Art und Anzahl der entsprechenden Rezeptoren im Gehirn an – der Alkohol wirkt weniger dämpfend. Als Folge werden immer höhere Mengen getrunken, um den gewünschten Effekt noch erzielen zu können. Wenn das Botenstoffsystem aufgrund dieser Toleranzbildung jedoch nicht mehr richtig funktioniert, kommt es beim Entzug wegen der Übererregbarkeit des nüchternen Gehirns zum Absterben von Hirngewebe, insbesondere der weißen Substanz.

Im Klartext heißt das: Der Entzug ist für den Patienten umso gefährlicher, je mehr Alkoholtoleranz sein Körper im Lauf der Zeit entwickelt hat. Um die teils lebensbedrohlichen Konsequenzen zu behandeln, kommen Medikamente zum Einsatz, die die Wirkung des Alkohols am GABA-Rezeptor ersetzen. Die über Glutamat vermittelte Übererregbarkeit wird jedoch meist nicht gesondert behandelt, obwohl eine zu starke Aktivierung der Glutamatrezeptoren zu weitreichenden Schäden an der weißen Substanz führen kann. Genau dieser Mechanismus ist jedoch im Zusammenhang mit Alkohol noch nicht ausreichend erforscht; bis vor kurzen fehlte es auch an geeigneten Diagnosemethoden, um derartige Schäden schnell, kostengünstig und exakt identifizieren zu können.

„Um eine Verbesserung der Behandlungsergebnisse auf allen Ebenen zu erreichen, müssen wir zeigen, dass sich bereits geringfügige Schäden an der weißen Substanz messbar auf die Kontrolle über das eigene Denken und Handeln auswirken können“, erläutert Stock. In ihren Studien erforscht sie die akute Wirkung eines Vollrauschs und untersucht Patienten vor, während und nach dem Entzug. Der wissenschaftliche Fokus liegt auf dem Zusammenhang zwischen Handlungskontrolle und bestimmten Bruchstücken der weißen Gehirnsubstanz, die sich mithilfe eines innovativen und sehr empfindlichen Verfahrens im Blut nachweisen lassen. Diese stellen ein sensibles Maß für die suchtbedingte Schädigung bzw. die verbliebene Funktionalität der weißen Substanz dar. Laut Stock kann dies künftig einen wichtigen Baustein in der zeitnahen Diagnose und Behandlung entzugsbedingter Hirnschäden darstellen.

Das Forschungsprojekt wird von der Daimler und Benz Stiftung im Rahmen des Stipendienprogramms für Postdoktoranden über zwei Jahre mit einer Summe von 40.000 Euro gefördert. „Mit differenzierten Erkenntnissen über die alkoholbedingten Hirnschäden können wir Gefahren deutlicher benennen und Betroffenen in Zukunft hoffentlich zu mehr Lebensqualität verhelfen“, fasst Stock zusammen.

Stipendienprogramm für Postdoktoranden
Die Daimler und Benz Stiftung vergibt jedes Jahr zwölf Stipendien an ausgewählte Postdoktoranden mit Leitungsfunktion und Juniorprofessoren. Ziel ist, die Autonomie und Kreativität der nächsten Wissenschaftlergeneration zu stärken und den engagierten Forschern den Berufsweg während der produktiven Phase nach ihrer Promotion zu ebnen. Die Fördersumme in Höhe von 40.000 Euro pro Stipendium steht für die Dauer von zwei Jahren bereit und kann zur Finanzierung wissenschaftlicher Hilfskräfte, technischer Ausrüstung, Forschungsreisen oder zur Teilnahme an Tagungen frei und flexibel verwendet werden. Durch regelmäßige Treffen der jungen Wissenschaftler dieses stetig wachsenden Stipendiatennetzwerks in Ladenburg fördert die Daimler und Benz Stiftung zugleich den interdisziplinären Gedankenaustausch.

Daimler und Benz Stiftung
Die Daimler und Benz Stiftung fördert Wissenschaft und Forschung. Dazu richtet sie innovative und interdisziplinäre Forschungsformate ein. Ein besonderes Augenmerk legt die Stiftung durch ein Stipendienprogramm für Postdoktoranden sowie die Vergabe des Bertha-Benz-Preises auf die Förderung junger Wissenschaftler. Mehrere Vortragsreihen sollen die öffentliche Sichtbarkeit der Wissenschaft stärken und deren Bedeutung für unsere Gesellschaft betonen.

Weitere Informationen:
http://www.daimler-benz-stiftung.de

Anhang
Presse-Information „Wann und wie schädigt Alkohol das Gehirn?“

(nach oben)


Grundwasserüberwachung mit Erdbebenmessgeräten

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Wie lässt sich in schwer zugänglichen Gebieten ermitteln, wie leer oder voll der Bodenspeicher ist? Forschende des Deutschen GeoForschungsZentrums (GFZ) haben jetzt gemeinsam mit Kollegen aus Nepal demonstriert, mit Erdbebenmessgeräten die Grundwasserdynamik in Hochgebirgen zu verfolgen: Sie nutzen seismische Wellen, wie sie bei Bodenerschütterungen entstehen. Die Forschenden um Luc Illien, Christoph Sens-Schönfelder und Christoff Andermann vom GFZ berichten darüber im Fachjournal AGU Advances.

Wasser im Hochgebirge hat viele Gesichter. Gefroren im Boden ist es wie ein Zementfundament, das Hänge stabil hält. Gletschereis und Schnee versorgen in der Schmelzsaison die Flüsse und damit das Vorland mit Wasser zum Trinken und für die Landwirtschaft. Intensive Regengüsse mit Sturzfluten und Hangrutschungen dagegen stellen ein lebensgefährliches Risiko für die Menschen in den Tälern dar. Der Untergrund mit seiner Speicherfähigkeit für Wasser spielt daher eine existenzielle Rolle in Gebirgsregionen.

Wie aber lässt sich in schwer zugänglichen Gebieten ermitteln, wie leer oder voll der Bodenspeicher ist? Forscherinnen und Forscher des Deutschen GeoForschungsZentrums (GFZ) haben jetzt gemeinsam mit Kollegen aus Nepal eine elegante Methode demonstriert, um die Grundwasserdynamik in Hochgebirgen zu verfolgen: Sie nutzen seismische Wellen, wie sie bei Bodenerschütterungen entstehen, die sie mit hoch empfindlichen Messgeräten aufzeichnen. Dabei nutzen sie – ähnlich wie medizinisches Ultraschall – aus, dass sich die Wellen in unterschiedlichem Untergrund unterschiedlich ausbreiten. Die Forschenden um Luc Illien, Christoph Sens-Schönfelder und Christoff Andermann vom GFZ berichten darüber im Fachjournal AGU Advances.

Seismische Wellen sind den meisten von Erdbeben bekannt. Nach einem Bruch im Untergrund breiten sie sich rasant aus und entfalten zerstörerische Kräfte. Es gibt jedoch auch viel kleinere Wellen, die beispielsweise von Lastkraftwagen, Trambahnen oder – im Gebirge – von herabfallendem Gestein verursacht werden. Der Boden vibriert eigentlich ständig. In der Geoforschung spricht man vom „seismischen Rauschen“. Was in der Erdbebendetektion mühsam aus den gemessenen Daten der Erdbebenstationen herausgerechnet werden muss, erweist sich für den Blick in den Untergrund als wertvolle Informationsquelle. Denn seismische Wellen breiten sich in der mit Wasser gesättigten Zone anders aus als in der ungesättigten („vadosen“) Zone.

Der Doktorand Luc Illien vom GFZ nutzte mit seinen Kolleginnen und Kollegen zwei nepalesische Erdbebenmessstationen auf 1200 und 2300 Metern Höhe über dem Meer. Luc Illien sagt: „Der nepalesische Himalaya versorgt einen großen Teil der Bevölkerung Südasiens mit lebenswichtigen Wasserressourcen. Der größte Teil dieses Wassers fließt durch ein Gebirgsgrundwasserreservoir ab, das wir nur schlecht abgrenzen können.“ Das Studiengebiet umfasst einen kleinen Zufluss zum Bothe Koshi, einem Grenzfluss zwischen China und Nepal. Über mehrere Wetterstationen und Pegelmessgeräte erfasste das Team über drei Monsun-Jahreszeiten zum Teil minütlich Daten. Daraus errechneten sie ein Grundwassermodell, das sie mit den seismischen Aufzeichnungen vergleichen konnten. Das Ergebnis: Der Abfluss zum Bothe Koshi wird hauptsächlich aus dem tiefen Grundwasserspeicher gespeist. In der Trockenzeit fließt wenig Wasser talabwärts. Im Monsun steigen die Pegel, aber es lassen sich zwei unterschiedliche Phasen ausmachen. Zunächst regnet es, ohne dass sich der Abfluss erhöht, später jedoch zeigt sich ein deutlicher Zusammenhang zwischen Regenmenge und Flusspegel. Christoff Andermann, Koautor der Studie, erläutert: „Die ersten Niederschläge füllen zunächst oberflächennahen Bodenspeicher wieder auf. Wenn der Boden dann mit Wasser gesättigt ist, füllt sich der tiefe Grundwasserspeicher, welcher direkt an die Flüsse gekoppelt ist. Ein Anstieg im Grundwasser schlägt sich unmittelbar in steigenden Flusswasserstände nieder“

Der Abgleich mit den Daten der Erdbebenmessgeräte zeigte, dass man aus dem seismischen Rauschen die Sättigung der vadosen Zone gut ableiten kann. „Nur durch die Zusammenführung der hydrologischen Beobachtungen mit den seismischen Messungen ließ sich die Funktion der vadosen Zone als Verbindungsglied zwischen Niederschlag und Grundwasserreservoir analysieren.“ sagt Christoph Sens-Schönfelder. Erstautor Luc Illien: „Zu verstehen, wie sich das Reservoir füllt und abfließt, ist entscheidend für die Beurteilung seiner Nachhaltigkeit. Daraus können wir nicht nur Prognosen für den Abfluss anstellen, sondern auch vor erhöhtem Risiko von Hangrutschungen und Sturzfluten warnen.“ Ist zum Beispiel der Boden bereits gesättigt mit Wasser, fließt Regen vermehrt oberflächlich ab und kann Hänge mitreißen. Der Klimawandel verschärft die Situation, weil er zu Änderungen in den Großwetterlagen und zur Destabilisierung der Bergwelt beiträgt. Der Wissenschaftliche Vorstand des GFZ, Niels Hovius, der an der Studie mitwirkte, sagt: „Unsere Arbeiten in Nepal und deren Ergebnisse zeigen, wie wichtig es ist, zahlreiche Einflussfaktoren zu erfassen. Dazu gehören die Grundwasserspeicher, Änderungen der Landnutzung, der Bodenbedeckung und des Niederschlagsregimes. Solche Änderungen zu erfassen und zu antizipieren hilft uns, die Zukunft der Süßwasserressourcen und der Berglandschaften, insbesondere wenn Gletscher immer weiter schmelzen, besser vorhersagen zu können.“

Originalstudie: L. Illien C. Andermann C. Sens‐Schönfelder K. L. Cook K. P. Baidya L. B. Adhikari N. Hovius: Subsurface Moisture Regulates Himalayan Groundwater Storage and Discharge

Link (open access): https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2021AV000398

Wissenschaftliche Ansprechpartner:
Luc Illien
PhD Student
lillien@gfz-potsdam.de

Dr. Christoff Andermann
christoff.andermann@gfz-potsdam.de
+49 331 288-2 88 22

Originalpublikation:
L. Illien C. Andermann C. Sens‐Schönfelder K. L. Cook K. P. Baidya L. B. Adhikari N. Hovius: Subsurface Moisture Regulates Himalayan Groundwater Storage and Discharge

Weitere Informationen:
https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2021AV000398 (Link zur Studie, Open Access)

(nach oben)


Nachhaltige Stromerzeugung in Aquakultur, Kläranlage und Abwasserkanal

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Ein neues Forschungsprojekt des Instituts für Wasser und Energiemanagement der Hochschule Hof soll das Potential und die Nutzung von Wasserkraft in bestehenden Wasseranlagen fördern. Das vom Europäischen Sozialfond (ESF) mit 417.000 Euro geförderte Projekt „Netzwerk zur Erzeugung von Energie mit Wasserkraft in bestehenden Wasseranlagen (NEEWa)“, stärkt den Wissenstransfer aus der Green-Tech Hochschule Hof in die regionalen Unternehmen. Es soll zudem zum Erfolg des Kompetenzstandortes Wasser Hof und der erneuerbaren Energien in der Region beitragen.

„Überall, wo man Wasser fließen sieht, sieht man auch die Kraft des Wassers. Diese nicht zu nutzen, bedeutet Potential zu verschwenden“, so Dr. Harvey Harbach vom Institut für Wasser und Energiemanagement (iwe) der Hochschule Hof und Ideengeber des Forschungsvorhabens. Im neuen Projekt beschäftigen sich nun insgesamt 5 Wissenschaftler/Innen des iwe mit nachhaltiger Stromerzeugung in bestehenden Wasseranlagen.

Projektleiterin Prof. Manuela Wimmer stellt heraus: „Wir arbeiten allein mit Wasser, welches nach einer Erstnutzung zusätzlich noch zur Stromerzeugung verwendet werden soll. Konkret geht es um Wasser, welches in Aquakulturen zur Fischzucht genutzt wurde, in Kläranlagen zu Trinkwasser wiederaufbereitet wird oder schlichtweg um Brauchwasser, das durch das Abwasserkanalsystem von Haushalten fließt.“

In all diesen Fällen fließt das Wasser allein angetrieben durch die Schwerkraft. Stromenergie kann dabei – durch den Einsatz von Turbinen oder Wasserrädern – erzeugt werden, ohne die Ökosysteme zu beeinflussen. Ein mögliches Anwendungsbeispiel: „In unserer Region wird für die traditionelle Aquakultur Wasser durch Teiche geleitet in denen Fische wachsen. Oft werden dafür in einem Bruthaus die Jungtiere vorgezogen, damit diese durch eine gewisse Größe besser für die Umweltbedingungen außerhalb des Bruthauses gewappnet sind. Im Bruthaus benötigt man deshalb Strom u.a. für Pumpen. Die Idee liegt also nahe, diesen benötigten Strom vor Ort selbst mit nachhaltigen Methoden zu produzieren. Wasserkraft, welche 24h Energie bereitstellen kann, ist hierfür demnach in idealer Art und Weise geeignet“, so Dr. Harbach.

Zusammensetzen im Netzwerk
In unserer Region sind zahlreiche Fachkompetenzen in Form von spezialisierten Unternehmen, Landesämtern, Behörden und Bildungsträgern wie der Hochschule vorhanden. „Nur im Austausch und gemeinsamen Dialog können wir die besten Lösungen für eine nachhaltige Energiegewinnung 4.0 finden“ so Dr. Harvey Harbach. Die Hochschule Hof nimmt hierbei neben der fachlichen Koordination des Projekts auch eine unabhängige Stellung im Netzwerk ein. Die Hochschule verfolgt keine finanziellen Interessen und bietet hierdurch eine wissenschaftlich neutrale Netzwerktätigkeit um Wasserkraft auf Kosten-Nutzen-Kalkulation einer breiteren Nutzung zuzuführen. Ziel des Vorhabens ist es die gesamte Wertschöpfungskette unter dem Aspekt des Wissenstransfers im Netzwerk zusammen zu bringen. Durch die Etablierung des Netzwerks werden die Teilnehmer bezüglich der Chancen und Möglichkeiten weitergebildet. Der regelmäßige Austausch soll den Einsatz und die Weiterentwicklung bestehender und neuer Technologien zur Nutzung von Wasserkraft fördern.

Wasserkraft ein Beitrag zur Klimaneutralität
Die Europäische Union hat sich mit dem Green Deal bis 2050 zum Ziel gesetzt klimaneutral zu sein, d.h. die Emissionen von Nettotreibhausgas müssen vollständig vermieden werden. Dieses Ziel kann nur erreicht werden, wenn der Anteil an erneuerbaren Energien am Endenergieverbrauch gesteigert wird. Dieser Anteil soll bis 2030 auf 32% anwachsen. Diese Ziele werden auf nationaler Ebene mit dem Klimaschutzprogramm 2030 umgesetzt. Eine weitere Option der dezentralen Stromerzeugung aus Windkraft, Solarenergie und Biomasse stellt die Wasserkraft dar. Die Wasserkraft wird gekennzeichnet durch günstige Herstellungskosten und 100% saubere und grundlastfähige Energie aus rein durch Höhenunterschiede getriebenen Kraftwerken. Die größte Herausforderung ist aber die ökologische Verträglichkeit der Kraftwerke. „Wasserkraftwerke, egal welcher Größe, dürfen in keinem Fall zu einer Gefährdung der Flora und Fauna des Flussbettes führen. Aus diesem Grund werden in diesem Projekt keine Neubauten betrachtet, sondern ausschließlich bestehende Wasseranlagen“, so Prof. Dr. Wimmer.

Gesamtes Institut arbeitet zusammen
Das iwe bündelt Kompetenzen im Bereich Wasser und Energie. „Es freut mich ungemein, dass in diesem Projekt beide Kompetenzen zusammengeführt werden“, so Institutsleiter Prof. Dr. Tobias Plessing. Die Hochschule Hof arbeitet gemeinsam in zahlreichen Bereichen von angewandter Green-Tech Forschung.

Weitere Informationen zum Projekt finden Sie unter http://www.hof-university.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manuela Wimmer
Ingenieurwissenschaften
Umweltingenieurwesen
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
Fon: +49 (0) 9281 / 409 4580
E-Mail: manuela.wimmer@hof-university.deAnhang
Nachhaltige Stromerzeugung in Aquakultur, Kläranlage und Abwasserkanal

Anhang
Nachhaltige Stromerzeugung in Aquakultur, Kläranlage und Abwasserkanal

(nach oben)


Was Städteplaner aus der Corona-Krise lernen

Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Krisen beschleunigen bestehende Veränderungsprozesse und stoßen neue an. Die Corona-Krise zeigt, welche Veränderungen eine menschengerechte Stadtentwicklung in Europa braucht. In einem europäischen Netzwerk haben Studierende gemeinsame Anforderungen erarbeitet. Dabei beschäftigten sich angehende Architektinnen und Architekten bei Professor Mario Tvrtković an der Hochschule Coburg mit unsichtbaren Grenzen im Alltag.

Frei reisen, überall leben und arbeiten: Das ist die Europäische Union. Dass Grenzen für uns alle sehr schnell sehr aktuell werden, ahnte niemand, als für 2020 eine Summer School europäischer Studierender zum Thema „Borderline City“ geplant wurde. Die Pandemie veränderte alles. Grenzen zwischen Ländern und Regionen und Abstand zwischen Familien wurde Alltag. Statt wie geplant in Berlin fand die Veranstaltung online statt. An der Hochschule Coburg beteiligte sich eine Studierendengruppe von Professor Mario Tvrtković aus dem Studiengang Architektur. Danach arbeitete Tvrtković mit seinen Studierenden weiter an dem Thema. In seinem Fachgebiet Städtebau und Entwerfen bot er ein Semesterprojekt an: „Grenzen des Alltags – vom Wesen transitorischer Räume“.

Grenzlinien im Alltag
Viele Menschen nehmen gar nicht wahr, dass es überall in den Städten solche transistorischen Räume gibt. Übergangsräume. Räume mit Grenzen. Es sind Orte des Wartens wie Foyers und Wartezimmer. Oder städtische Konstellationen, die vom Übergang geprägt sind: Häfen, Bahnhofsviertel, Umschlagplätze, Grenzübergänge. „Unser Alltag als Architektinnen und Architekten, als Planerinnen und Planer ist von Grenzen geprägt“, erklärt Tvrtković. „Eines der wichtigsten Themen dabei ist die Aufteilung des Raumes in öffentlichen und privaten Raum.“ Dies sind zwei abstrakte juristische Kategorien. Wo sie im echten Leben aneinander grenzen, wie sie ineinander übergehen, wird von Architektur und Stadtplanung sichtbar und fühlbar gestaltet. Das Seminar erarbeitete eine Sammlung praktischer Beispiele der harten und weichen Grenzen und ihrer Auswirkungen auf den Alltag. „Häufig sind die räumlichen Grenzen in einem Quartier, einer Stadt oder Region mit weiteren Grenzen des Alltags wie politischen, sozialen, ethnischen oder religiösen Grenzen überlagert.“

Ergebnisse aus Europas Hochschulen
Die Ergebnisse dieses Semesterprojekts wurden jetzt veröffentlicht. Gemeinsam mit dem, was die Summer School und Lehrveranstaltungen von 18 anderen Hochschulen und Universitäten von Stockholm bis Madrid zum Thema erarbeitet haben, erscheinen sie in „Borderline City“. Untertitel ist „Shifting borders in the wake of the COVID-19 pandemic in european cities and regions“, erschienen ist der 135 Seiten starke Band im Universitätsverlag der TU Berlin in der Reihe „Städtebau und Kommunikation von Planung“ und kostet 12,95 Euro.

Weitere Informationen zu „Borderline Ciy“ gibt‘s auf http://www.borderlinecity.com

(nach oben)


Gesichtsmasken schützen effektiv vor COVID-19

Dr. Susanne Benner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie
Eine neue Studie zeigt, dass Gesichtsmasken die Reproduktionszahl von COVID-19 effektiv senken und warum sich ihre Wirksamkeit in virusarmer und virusreicher Umgebungsluft unterscheidet.

Maske nicht vergessen‘ – auch wenn die meisten Menschen sich dessen inzwischen wie selbstverständlich vergewissern, gibt es selbst unter Fachleuten unterschiedliche Auffassungen über die Wirksamkeit von Gesichtsmasken. Ein internationales Team um Forschende des Max-Planck-Instituts für Chemie in Mainz zeigt nun anhand von Beobachtungsdaten und Modellrechnungen, unter welchen Bedingungen und wie Masken dazu beitragen, das individuelle Ansteckungsrisiko für COVID-19 zu reduzieren und die Corona-Pandemie einzudämmen. Demnach hilft in den meisten alltäglichen Situationen sogar eine einfache OP-Maske effektiv, das Risiko zu verringern. In Umgebungen mit hoher Viruskonzentration in der Luft, insbesondere im medizinischen Umfeld und in dicht besetzten Innenräumen sollten jedoch Masken mit höherer Wirksamkeit (N95/FFP2) genutzt und mit weiteren Schutzmaßnahmen wie intensiver Lüftung kombiniert werden.

Gesichtsmasken gehören zu den einfachsten, am leichtesten einsetzbaren und effektivsten Maßnahmen gegen die Übertragung infektiöser Atemwegserkrankungen durch die Luft. Dennoch wurde ihre Wirksamkeit gegen die Übertragung von SARS-CoV-2 vielfach diskutiert und angezweifelt. Einige frühere Studien zeigten, dass Masken unter gewissen Bedingungen wenig wirksam sind. Andere fanden eine hohe Wirksamkeit. Eine schlüssige Begründung und Klärung der scheinbaren Widersprüche fehlte bisher.

Forscherinnen und Forscher des Max-Planck-Instituts für Chemie (MPIC), der Universitätsmedizin der Johannes Gutenberg-Universität Mainz und der Charité-Universitätsmedizin Berlin haben gemeinsam mit Partnern aus China und den USA nun geklärt, wie die Wirksamkeit von Gesichtsmasken von verschiedenen Umgebungs-bedingungen abhängt und sich bevölkerungsweit auf den Verlauf der COVID-19-Pandemie auswirkt. Dazu nutzten sie eine Vielzahl von Beobachtungsdaten sowie einen neuartigen Ansatz zur Berechnung der durchschnittlichen Virenbelastung und ihrer Verteilung in der Bevölkerung.

Meistens sind selbst einfache chirurgische Masken wirksam
„Normalerweise enthält nur ein geringer Anteil der von Menschen ausgeatmeten Tröpfchen und Aerosolpartikel Viren. Meist ist die Virenkonzentration in der Luft so gering, dass selbst einfache chirurgischer Masken die Verbreitung von COVID-19 sehr wirksam eindämmen“, erklärt Yafang Cheng, Leiterin einer Minerva-Forschungsgruppe am MPIC. „Unser Ansatz erlaubt detaillierte Berechnungen von Bevölkerungsmittelwerten und erklärt, warum Regionen, in denen ein höherer Anteil der Bevölkerung Masken trägt, die Pandemie besser unter Kontrolle haben.“

In virenreichen Innenräumen mit hoher Infektionswahrscheinlichkeit sind jedoch Masken mit höherer Wirksamkeit (N95/FFP2) und andere Schutzausrüstungen erforderlich, um eine Übertragung durch die Luft zu verhindern. Weil die Wirksamkeit von Gesichtsmasken stark von der Viruskonzentration abhängt, ist es wichtig, Masken mit anderen Schutzmaßnahmen zu kombinieren, um die Infektionswahrscheinlichkeiten gering zu halten.

„Die Kombination von hochwertigen Masken mit anderen Schutzmaßnahmen wie Lüften und Abstandhalten ist besonders wichtig für Krankenhäuser, medizinische Zentren und andere Innenräume, in denen Hochrisikopatienten auf hohe Viruskonzentrationen treffen können“, sagt Christian Witt, Leiter des Forschungsbereichs Pneumologie an der Charité – Universitätsmedizin Berlin. „Masken werden eine wichtige Schutzmaßnahme gegen SARS-Cov-2-infektionen blieben – sogar für geimpfte Personen, speziell wenn der Impfschutz mit der Zeit nachlässt.“

Mit dem Ansatz lässt sich der Schutz gegen infektiösere Mutanten beurteilen
„Unsere Methode setzt die Wirkung von Masken und anderen Schutzmaßnahmen in Bezug zu Infektionswahrscheinlichkeiten und Reproduktionszahlen. Der Ansatz und unsere Ergebnisse sind auf eine Vielzahl von Atemwegsviren wie Corona-, Rhino- und Influenzaviren und die entsprechenden Krankheiten anwendbar. Sie können auch verwendet werden, um die Wirksamkeit gegenüber neuen und infektiöseren Mutanten von SARS-CoV-2 zu beurteilen.“ sagt Hang Su, Forschungsgruppenleiter am MPIC. „Unsere Studie erklärt zudem, warum die Aerosolübertragung von Viren nicht unbedingt zu sehr hohen Reproduktionszahlen führt, wie sie bei Masern beobachtet wurden. Selbst bei relativ niedrigen Infektionswahrschein¬lichkeiten und Reproduktionszahlen kann man die Übertragung einer Infektionskrankheit durch die Luft nicht ausschließen.“

Die nun in Wissenschaftsmagazin Science veröffentlichte Studie zeigt ferner, dass Masken die Reproduktionszahl für COVID-19 nur effektiv senken können, wenn möglichst viele Menschen sie korrekt anwenden. Um die Reproduktionszahl von etwa drei, wie ursprünglich beobachtet, auf unter eins zu reduzieren, müssten mindestens 60 bis 70 Prozent der Menschen chirurgische Masken korrekt anwenden. Bei N95/FFP2-Masken wären es etwa 40 Prozent. Bei infektiöseren Varianten von SARS-CoV-2 müssten die Raten entsprechend höher sein.

„Wir sind überzeugt, dass die in unserer Studie gewonnenen mechanistischen Erkenntnisse und quantitativen Ergebnisse einen wissenschaftlichen Durchbruch darstellen, der dazu beitragen wird, die Debatte über die Nützlichkeit von Masken abzuschließen und die COVID-Pandemie effizient einzudämmen“, fasst Ulrich Pöschl, Leiter der Abteilung Multiphasenchemie am Mainzer Max-Planck-Institut für Chemie, zusammen.

Wissenschaftliche Ansprechpartner:
Dr. Hang Su
Abteilung Multiphasenchemie
Max-Planck-Institut für Chemie
Telefon: +49-6131-305-7300
E-Mail: h.su@mpic.de

Dr. Yafang Cheng
Forschungsgruppe Minerva
Max-Planck-Institut für Chemie
Telefon: +49-6131-305-7200
E-Mail: yafang.cheng@mpic.de

Originalpublikation:
Science First Release:
Face masks effectively limit the probability of SARS-CoV-2 transmission
Yafang Cheng, Nan Ma, Christian Witt, Steffen Rapp, Philipp S. Wild, Meinrat O. Andreae, Ulrich Pöschl, Hang Su
https://science.sciencemag.org/lookup/doi/10.1126/science.abg6296

Weitere Informationen:
https://www.mpic.de/4946356/face-masks-effectively-limit-sars-cov-2-transmission…

(nach oben)


Neue Fachzeitschrift präsentiert Wissen aus der Fischereiforschung

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Die „Zeitschrift für Fischerei“ (kurz: FischZeit) bündelt als erste begutachtete, deutschsprachige Fachzeitschrift für Fischereiforschung Wissen zu Aspekten der Berufs- und Angelfischerei, der Aquakultur, des Bestandsmanagements und des Artenschutzes in Binnen-, Küsten- und Meeresökosystemen. Herausgeber der FischZeit sind das Fachgebiet für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin in Kooperation mit dem Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB). Alle Artikel sind frei zugänglich und kostenfrei einsehbar.

Ob geangelt, gefischt oder gezüchtet – Fisch ist weltweit ein wichtiges Lebensmittel. Nachhaltige Produktionsmethoden in der Aquakultur und eine umweltgerechte Fischerei im kommerziellen sowie im privaten Bereich können dazu beitragen, Gewässer und Populationen zu schonen und ihre natürliche Widerstandskraft zu verbessern. Fundierte Entscheidungsgrundlagen und Empfehlungen dafür liefert die aktuelle Fischereiforschung.

Abgesicherte Erkenntnisse zu verschiedenen Themen der Fischerei:
Damit dieses Wissen in die Praxis einfließen kann, bietet die neue Zeitschrift für Fischerei (FischZeit) wissenschaftlichen Erkenntnissen nun eine deutschsprachige Plattform. Initiator und Chefredakteur der neuen Open-Access-Fachzeitschrift ist Prof. Dr. Robert Arlinghaus, Fischereiwissenschaftler und Preisträger des DFG-Communicator-Preises 2020.

„Unsere Zeitschrift soll ein zentraler Ort abgesicherten Wissens für alle Fragen der Fischerei, Angelfischerei, Aquakultur und des fischbezogenen Gewässermanagements in allen Gewässertypen vom See bis zum Meer sein“, erklärt Robert Arlinghaus die Idee. Ausdrücklich betont er, die Zeitschrift sei keinesfalls als Sprachorgan bestimmter fischereipolitischer Interessen zu verstehen. „Auch unbequeme Wahrheiten und Probleme der fischereilichen Nutzung müssen selbstverständlich untersucht und offen angesprochen werden. Nur so können konstruktive Wege zur nachhaltigen Nutzung von Fischen entwickelt werden“, unterstreicht Arlinghaus.

„Gerade in der heutigen Zeit, in der die Tendenz vorherrscht, neue Erkenntnisse möglichst schnell und oft populistisch oder aus einseitiger Sicht heraus zu publizieren, ist ein anerkannter vorgeschalteter Begutachtungsprozess, wie ihn die FischZeit vorsieht, von äußerster Wichtigkeit“, ergänzt Dr. Jasminca Behrmann-Godel vom Ministerium für Ländlichen Raum und Verbraucherschutz Baden-Württemberg, die Mitglied des Redaktionsgremiums ist.

Um möglichst viele Nutzungsgruppen und Interessierte zu erreichen, haben sich die Redakteurinnen und Redakteure bewusst für die Herausgabe in deutscher Sprache entschieden. So sollen auch Wissensbestände zugänglich werden, die sonst eher der englischsprachigen Fachliteratur vorbehalten bleiben. „Mit der Wahl der Publikationssprache Deutsch erleichtert die FischZeit einem großen Personenkreis von deutschsprachigen Leserinnen und Lesern das Verständnis der oft komplexen Themen“, sagt Behrmann-Godel. Sie hofft, dass die FischZeit damit auch für verantwortliche Personen in der Fischereiverwaltung und in weiteren Behörden und Verbänden in Deutschland und dem deutschsprachigen Ausland viel genutzte Informationsquelle wird.

Auswahl der Inhalte nach wissenschaftlichen Standards und mit konkretem Praxisbezug:
Publiziert werden Beiträge aus den Natur- und Sozialwissenschaften, die einen klar geregelten, wissenschaftlichen Begutachtungsprozess durchlaufen. Alle Manuskripte müssen verbindlich wissenschaftliche Qualitätsstandards einhalten sowie den konkreten Anwendungsbezug erfüllen, etwa Handlungsoptionen und Lösungsansätze für Herausforderungen im hiesigen Fischerei-, Aquakultur- oder fischbezogenen Gewässermanagement bieten.

„Diesem Anspruch kann die FischZeit nur mithilfe engagierter Autorinnen und Autoren, Gutachterinnen und Gutachter gerecht werden. Wir laden Forschende deshalb herzlich ein, die Zeitschrift mit ihren wissenschaftlichen Inhalten zu füllen und Manuskripte beim Redaktionsgremium einzureichen. Sprechen Sie uns an, wir unterstützen gern“, erklärt Robert Arlinghaus.

Neue Zeitschrift mit langer Tradition:
Die historischen Wurzeln der FischZeit reichen zurück zum IGB, denn fischereiliche Fachzeitschriften aus dem Institut und seinen Vorläufereinrichtungen haben eine lange Tradition. Hier wurden einst die Zeitschrift für Fischerei und deren Hilfswissenschaften (1893-1971), die Deutsche Fischerei-Zeitung (1954-1971), die Zeitschrift der Binnenfischerei der DDR (1971-1990) sowie die Fortschritte der Fischereiwissenschaft (1983-1997) herausgegeben. Erstgenannte fiel übrigens in den 1970ern dem Papiermangel zum Opfer – ein Schicksal, das die FischZeit nicht ereilen wird: Die Zeitschrift erscheint ausschließlich online, sämtliche Beiträge sind unter http://www.zeitschrift-fischerei.de frei verfügbar.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den IGB-Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter: https://twitter.com/LeibnizIGB

Wissenschaftliche Ansprechpartner:
Prof. Dr. Robert Arlinghaus
Forschungsgruppenleiter am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) und
Professor für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin
E-Mail: arlinghaus@igb-berlin.de
Tel.: +49 30 64181-653
http://www.ifishman.de

Weitere Informationen:
https://www.zeitschrift-fischerei.de/
https://www.zeitschrift-fischerei.de/index.php/FischZeit/about/submissions

(nach oben)


Die Macht der Bilder – Wissenschaftler untersuchen ihren Einfluss bei der Magersucht

Rosa Sommer M.A. Presse- und Öffentlichkeitsarbeit
LWL-Universitätsklinikum Bochum der Ruhr-Universität Bochum
Anorexia nervosa: Grundlagen-Studie des LWL-Universitätsklinikums Bochum testet belohnende Reize anhand von Bildern. Als Fachbeitrag im renommierten International Journal of Eating Disorders veröffentlicht.

Bilder vermitteln Botschaften und haben gerade in Zeiten von Social Media großen Einfluss auf Gedanken, Gefühle und Stimmungen – im positiven wie auch negativen Sinne. Im Zusammenhang mit der Anorexia nervosa lässt eine an der Medizinischen Fakultät der Ruhr-Universität Bochum abgeschlossene Doktorarbeit von Ann-Kathrin Kogel neue Aufschlüsse hinsichtlich der Präferenzen von betrachteten Bildern zu, die im Verlauf der gefährlichen Essstörung eine Bedeutung haben. Thema der in Kooperation zwischen der Klinik für Psychosomatische Medizin und Psychotherapie im LWL-Universitätsklinikum Bochum und dem Lehrstuhl für Klinische Psychologie und Psychotherapie der Otto-Friedrich-Universität in Bamberg bearbeiteten Studie: Identifikation störungsspezifisch belohnender visueller Stimuli bei Anorexia nervosa. Nun wurde die Studie als Fachartikel im renommierten International Journal of Eating Disorders veröffentlicht.

Bei der Magersucht ist die Wahrnehmung des eigenen Körperbilds bzw. das Körperbewusstsein gestört. Betroffene erachten sich als zu dick, obwohl sie in krankhaftem Ausmaß bis hin zu einem lebensbedrohlichen Untergewicht abnehmen. Inwiefern störungsspezifisch belohnende Reize auf Bildern eine Bedeutung für diese Essstörung haben, liefert die Studie unter Leitung von Prof. Dr. Martin Diers, zuständig für Klinische und Experimentelle Verhaltensmedizin der LWL-Universitätsklinik für Psychosomatische Medizin und Psychotherapie, einen neuen Ansatz. „Im Vordergrund der Untersuchung steht die Belohnung und damit verbunden die Frage: Welche Stimuli sorgen möglicherweise am besten für die Motivation, immer mehr abzunehmen?“, erklärt der Grundlagenforscher und Psychologe den Hintergrund der Studie.

Die Bedeutung des Belohnungssystems für die Entstehung und Aufrechterhaltung der Anorexia nervosa wurde bereits in mehreren Studien mit funktioneller Bildgebung untersucht. So wurde bisher oft von der Annahme ausgegangen, dass vor allem die Betrachtung von Bildern mit untergewichtigen Körpern einen bedeutenden Impuls liefert. Aufgrund der unzureichenden Datenlage wurden in der aktuellen Studie weitere Stimuli ermittelt, die spezifisch für Patientinnen mit Anorexie als belohnend analysiert worden waren. Die Wissenschaftler identifizierten die sechs Unterkategorien Gesundes Essen, Anerkennung durch andere, Disziplin, Dünne Körper, Gewichtsverlust und Sport. Den Kategorien wurde entsprechendes Bildmaterial zugeordnet. Patientinnen mit Anorexie sowie Gesunde bewerteten diese Bilder ebenso wie neutrale Bilder (z.B. Eimer, Locher, Stuhl). Ein Ergebnis bestand unter anderem darin, dass die Patientinnen mit Anorexie die störungsspezifischen Reize höher bewerteten als Gesunde. Die Konfrontation mit diesen Reizen (Triggern) könnte somit als bedeutsam für die Entstehung und Aufrechterhaltung der Anorexie erachtet werden. „Die Resultate unserer Studie sind aussagekräftig und eignen sich für Folgestudien“, so Prof. Diers abschließend.

Zur Veröffentlichung einschl. Bildern im International Journal of Eating Disorders:
https://onlinelibrary.wiley.com/doi/10.1002/eat.23526

Kontakt:
Prof. Dr. Martin Diers
Klinische und Experimentelle Verhaltensmedizin
Klinik für Psychosomatische Medizin und Psychotherapie
LWL-Universitätsklinikum
Ruhr-Universität Bochum
Tel.: +49 234 5077 3175
E-Mail: martin.diers@rub.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martin Diers
Klinische und Experimentelle Verhaltensmedizin
Klinik für Psychosomatische Medizin und Psychotherapie
LWL-Universitätsklinikum
Ruhr-Universität Bochum
Tel.: +49 234 5077 3175
E-Mail: martin.diers@rub.de

Originalpublikation:
https://onlinelibrary.wiley.com/doi/10.1002/eat.23526

(nach oben)


Multitalent für die Elektromobilität – der CrossChargePoint – ein Projekt der TH Deggendorf

Theresa Kappl Presse- und Öffentlichkeitsarbeit
Technische Hochschule Deggendorf
Forschende der Technischen Hochschule Deggendorf (THD) verfolgen in einem neuen Projekt seit kurzem den Gedanken, Ladesäulen für E-Fahrzeuge mulitfunktional auszustatten und daraus einen Mehrwert für Nutzer, Städte, Gemeinden und Betreiber zu generieren. Klassische Ladesäulen für E-Fahrzeuge sieht man inzwischen häufig auf öffentlichen Flächen/Parkplätzen. Sie sind für jedermann zugängig. Auto einfach anschließen, bezahlen und aufladen bzw. tanken. Theoretisch könnten Ladesäulen aber mit viel mehr Funktionen als nur dem reinen Laden ausgestattet werden. Dies wird im Projekt mit dem Titel „CrossChargePoint“, das dem Technologie Campus Freyung zugeordnet ist, untersucht.

Zum Beispiel könnten dort, wo Ladesäulen installiert werden, zusätzliche Energiespeicher entstehen. Daraus ergeben sich viele Vorteile: Schwankende Anforderungen an das lokale Stromnetz könnten besser abgefangen werden. Die schnelle und gleichzeitige Aufladung mehrerer Elektrofahrzeuge ist möglich. Oder die Energie wird durch Elektrolyse und Power-to-Gas umgewandelt, so dass gas- oder wasserstoffbetriebene Fahrzeuge ebenfalls betankt werden können.
Im Projekt „CrossChargePoint“ werden dabei die speziellen Anforderungen verschiedener Regionen durch unterschiedliche geografische, klimatische und wirtschaftliche Bedingungen berücksichtigt. Dies und die Entwicklung eines Prototyps, der in Zukunft mit nur wenigen Anpassungen in einem größeren Maßstab anwendbar sein soll, stellt die Hauptherausforderung des Projekts dar. Für das Projekt haben sich zehn Partner aus vier verschiedenen Ländern zusammengetan. Experten aus Israel, Österreich, Deutschland und der Schweiz, aus verschiedenen Unternehmen und Forschungsinstituten werden in den nächsten drei Jahren zusammen an der Entwicklung dieses Elektromobilitätsprojekts arbeiten.

Das Team aus Freyung ist für die Entwicklung der Simulations- und Planungssoftware verantwortlich. Für die Planung und den Betrieb eines CrossChargePoints werden Bedingungen gesammelt und in das Simulations- und Optimierungstool integriert, das durch Eingabe der erforderlichen Daten die optimalen Standorte, Größen und Technologien – wie z. B. ein Energiemanagementsystem – für neue CrossChargePoints spezifiziert. Ein besonderer Schwerpunkt liegt auch auf der Entwicklung eines Plans, um den einfachen Energietransfer in andere Regionen mit unterschiedlich wirtschaftlichen, infrastrukturellen und geografischen Bedingungen zu ermöglichen.

Für das Team des Technologie Campus in Freyung bietet dieses Projekt unter Leitung von Professor Dr. Javier Valdes eine großartige Chance, Themenfelder voranzutreiben, an denen schon in den letzten Jahren im Verkehrs- und Energiesektor gearbeitet wurde. Dazu hat Professor Dr. Wolfgang Dorner, der Leiter des Technologie Campus Freyung, ein Team mit umfassender Erfahrung durch die Entwicklung von Projekten wie Increase, Cross Energy oder e-Road aufgebaut. Gefördert wird das Projekt über das Programm Horizon 2020 der Europäischen Union.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Javier Valdes
https://th-deg.de/de/Javier-Valdes-Fakult%C3%A4t%20Angewandte%20Informatik-Profe…

(nach oben)


Unsichtbares sichtbar machen

Dr. Ute Schönfelder Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Wissenschaftlerinnen und Wissenschaftler der Friedrich-Schiller-Universität Jena, der University of California Berkeley und dem Institut Polytechnique de Paris nutzen intensives Laserlicht im extrem ultravioletten Spektrum, mit dem sie einen nichtlinear optischen Prozess im Labormaßstab erzeugen, wie es bislang nur an Großforschungsanlagen gelungen ist. Wie das Team in der aktuellen Ausgabe des Fachmagazins „Science Advances“ schreibt, konnte es diesen Effekt erstmals mit einer Laserquelle im Labormaßstab realisieren und damit die Oberfläche einer Titanprobe bis auf atomare Ebene untersuchen.

Chemische Reaktionen, wie sie beispielsweise beim Laden und Entladen einer Batterie auftreten, finden vorrangig an Oberflächen und Grenzflächen statt. Während sich die makroskopischen Produkte einer Reaktion recht einfach untersuchen lassen, ist es bislang jedoch schwierig, ein genaueres Bild über den Verlauf chemischer Reaktionen auf atomarer Ebene zu gewinnen. Dafür sind Messmethoden nötig, die auf den extrem kurzen Zeitskalen, auf denen chemische Reaktionen ablaufen, Beobachtungen ermöglichen.

Prinzipiell eignen sich dafür spektroskopische Methoden mit sehr kurzen Laserpulsen zur zeitlichen Auflösung. Gleichzeitig muss das Laserlicht von sehr kurzer Wellenlänge sein, wie Tobias Helk von der Friedrich-Schiller-Universität Jena erklärt. „Um einzelne Elemente mittels Kernelektronenresonanz gezielt untersuchen zu können, braucht es Laserlicht mit wenigen Nanometern Wellenlänge – also Strahlung im extrem-ultravioletten (XUV) oder Röntgenbereich des Spektrums.“ Für die Beobachtung chemischer Prozesse ist es außerdem wichtig, dass sich die Grenzflächen zwischen Medien und Materialoberflächen untersuchen lassen, an denen chemische Reaktionen stattfinden, so der Physiker weiter. Dafür müssen die Laserpulse, neben kurzer Wellenlänge und kurzer Dauer, auch eine extrem hohe Intensität aufweisen, um sogenannte nichtlineare Effekte hervorrufen zu können, welche es erlauben, das Messsignal auf die Grenzfläche zurückzuführen.

Bisher gibt es jedoch nur sehr wenige Methoden, um solch intensive Laserstrahlung im XUV- und Röntgenbereich zu erzeugen. „Bisher war das nur an Großforschungsanlagen, wie dem Freien-Elektronen-Laser FLASH am DESY möglich“, sagt Prof. Dr. Christian Spielmann vom Institut für Optik und Quantenelektronik der Universität Jena. Er und sein Team haben jetzt jedoch mit Forschenden aus den USA und Frankreich einen Weg gefunden, wie solche Untersuchungen auch in einem gängigen Laserlabor möglich sind.

Nichtlineare Frequenzverdopplung an einer Titanoberfläche
Hierfür wurde ein Soft-X-ray-Laser des Laboratoire d’Optique Appliquee in Palaisseau (Frankreich) als Lichtquelle genutzt. „In unserem Experiment haben wir eine spezielle Fokussiergeometrie aufgebaut, bestehend aus einem sphärisch geformten Spiegel, die es uns erlaubt, die Strahlung des Lasers auf einen sehr kleinen Bereich zu konzentrieren“, berichtet Doktorand Tobias Helk, Erstautor der Studie. Die Strahlung mit einer Wellenlänge von 32,8 Nanometern wurde auf eine ultradünne Titanfolie fokussiert und ihre nichtlineare Wechselwirkung mit den Materieteilchen analysiert. „Wie bereits aus Untersuchungen mit Strahlung im sichtbaren und infraroten Bereich bekannt, lässt sich durch die Wechselwirkung von Lichtteilchen und Materieteilchen Licht mit neuen Eigenschaften erzeugen“, erklärt Helk. Bei einem als „nichtlineare Frequenzverdopplung“ bezeichneten Prozess werden beispielsweise zwei Photonen des eingestrahlten Lichts vom Material absorbiert und ein Photon mit doppelter Frequenz (doppelter Energie) abgestrahlt.

Und genau diesen Effekt konnten die Forschenden jetzt zeigen. Sie haben die aus der Wechselwirkung mit der Titanfolie resultierende Strahlung durch ein Spektrometer getrennt und mittels einer Kamera aufgenommen. Durch den Vergleich von Simulationen mit den Messergebnissen konnten sie außerdem zeigen, dass die resultierende Strahlung an der Oberfläche der Titanfolie entsteht und nicht innerhalb des Materials.

„Diese Form der Oberflächenspektroskopie im XUV-Bereich im Labormaßstab durchführen zu können, öffnet völlig neue Perspektiven. Beispielsweise kann man nun chemische Prozesse an Oberflächen oder verborgenen Grenzflächen aus der Sicht eines einzelnen Atoms in ansonsten komplexen chemischen Umgebungen untersuchen“, ordnet Prof. Dr. Michael Zürch von der University of California in Berkeley das Ergebnis ein. Ferner ermögliche die kurze Pulsdauer der verwendeten Pulse die Untersuchung dynamischer Prozesse an Grenzflächen, wie sie beispielsweise beim Laden und Entladen von Batterien auftreten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Spielmann
Institut für Optik und Quantenelektronik der Universität Jena
Max-Wien-Platz 1, 07743 Jena
Tel.: 03641 / 947230
E-Mail: christian.spielmann@uni-jena.de

Originalpublikation:
T. Helk, E. Berger, S. Jamnuch, L. Hoffmann, A. Kabacinski, J. Gautier, F. Tissandier, J. P. Goddet, H.-T. Chang, J. Oh, C. D. Pemmaraju, T. A. Pascal, S. Sebban, C. Spielmann, and M. Zuerch. Table-top Extreme Ultraviolet Second Harmonic Generation, Science Advances 7, eabe2265 (2021), DOI: 10.1126/sciadv.abe2265

(nach oben)


Corona: Neue Webanwendung Aerosol Control berechnet Infektionsrisiko

Sven Dokter Abteilung Kommunikation
Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) gGmbH
Aerosole sind mit dem bloßen Auge nicht zu erkennen. Mithilfe von Simulationsmodellen lassen sich die Ausbreitungspfade der kleinen Teilchen jedoch nachvollziehen. Die Webanwendung Aerosol Control berechnet unter Berücksichtigung diverser Faktoren das individuelle Risiko, sich mit SARS-CoV-2 anzustecken. Als Grundlage dienten die Ergebnisse eines Forschungsprojekts: Dabei wurde eine Simulationssoftware, die normalerweise die Ausbreitung von Aerosolen oder Gasen in Kernkraftwerken berechnet, angewendet, um die Ausbreitung und Konzentration von SARS-CoV-2-Aerosolen in Räumen zu berechnen.

Bei der Bekämpfung der Covid-19-Pandemie ist deutlich geworden, dass mit Coronaviren belastete Aerosole eine der wesentlichen Ursachen für Infektionen sind. Forschungsergebnisse legen nahe, dass diese Form der Infektion einer der Hauptgründe dafür ist, dass sich Menschen ganz überwiegend in geschlossenen Räumen anstecken: Erkrankte atmen virusbelastete Aerosole aus, die sich in der Raumluft ansammeln. Um die Pandemie erfolgreich einzudämmen, sollte die Bevölkerung für die Gefahr in Innenräumen sensibilisiert sein. Dafür ist es wichtig, möglichst gut zu verstehen, wie potenziell ansteckende Aerosole entstehen und wie sie sich unter verschiedensten Bedingungen ausbreiten und verändern, um letzten Endes Maßnahmen abzuleiten, durch die sich Neuinfektionen möglichst effektiv verhindern lassen.

Wie hoch ist mein Infektionsrisiko?
Die GRS hat mit Aerosol Control eine Webanwendung entwickelt, die das Infektionsrisiko mit SARS-CoV-2 in einem Raum berechnet. Die Nutzerinnen und Nutzer müssen hierzu zuerst den betreffenden Raum beschreiben. Dabei berücksichtigt die Webanwendung verschiedene Faktoren, die das Infektionsgeschehen beeinflussen, wie die Virusvariante (Wildtyp oder B.1.1.7), die Anzahl der Personen im Raum, die Aufenthaltsdauer oder ob bzw. was für eine Maske (medizinische, FFP2 oder FFP3) getragen wird.

Die Infektionsrisiken lassen sich für verschiedene vordefinierte Räume berechnen, u. a. Auto, Zug, Flugzeug oder Klassenzimmer. Darüber hinaus können die Nutzerinnen und Nutzer selbst Räume definieren. Einstellbare Parameter sind dabei das Raumvolumen sowie die Lüftung (geschlossen, gekippt, geöffnet oder stark).

Jede Situation ein einzigartiges Szenario
Die Webanwendung basiert auf den Erkenntnissen aus dem Forschungsprojekt AeroCoV, in dem ein Team eine Simulationssoftware aus der Kerntechnik für die Berechnung der Ausbreitung von SARS-CoV-2-Aerosolen angewendet hat. Ursprünglich wurde die GRS-Software COCOSYS dazu entwickelt, u. a. die Ausbreitung von radioaktiven Stoffen in Form von Aerosolen in Kernkraftwerken zu berechnen. Die Projektergebnisse bildeten die Grundlage für die Entwicklung von Aerosol Control.

Gibt man die relevanten Eingangsgrößen in die Webanwendung ein, erhält man als Ergebnis das jeweilige Infektionsrisiko durch Corona-Aerosole. „Die Webanwendung gibt den Nutzerinnen und Nutzern ein besseres Verständnis dafür, welche Faktoren einen besonders großen Einfluss auf das Infektionsrisiko haben,“ sagt Holger Seher, Mitglied des GRS AppLabs.

Aerosol Control ist ab sofort auf der Website der GRS aufrufbar. Alle persönlichen Daten werden ausschließlich auf den Endgeräten der Nutzerinnen und Nutzer gespeichert. Die Webanwendung greift nicht auf sonstige Nutzerdaten zu oder leitet solche Daten an Dritte weiter.

Über die GRS
Die GRS erforscht und begutachtet seit mehr als 40 Jahren Themen rund um die nukleare Sicherheit. Die gemeinnützige technisch-wissenschaftliche Forschungs- und Sachverständigenorganisation ist vor allem in den drei Arbeitsfeldern Reaktorsicherheit, Entsorgung sowie Strahlen- und Umweltschutz tätig. Zu den Hauptauftraggebern der GRS zählen der Bund und die Europäische Kommission.

Weitere Informationen:
https://www.grs.de/sites/default/files/aerosol-control/wrapper.html Link zur Webanwendung
https://www.grs.de/sites/default/files/pdf/grs-632_0.pdf Abschlussbericht des Forschungsprojekts, welches der Webanwendung zugrunde liegt

(nach oben)


Neue Frühwarnsignale: Teile des grönländischen Eisschildes könnten Kipppunkt überschreiten

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Wissenschaftler haben neue Frühwarnsignale entdeckt, die darauf hinweisen, dass der zentral-westliche Teil des grönländischen Eisschildes relativ bald einen kritischen Übergang erleben könnte. Aufgrund steigender Temperaturen, so zeigt eine neue Studie von Forschern aus Deutschland und Norwegen, hat die Destabilisierung des Eisschildes bereits begonnen, und der Prozess des Abschmelzens könnte bereits bei begrenzter Erwärmung eskalieren. Ein Kippen des Eisschildes würde den langfristigen globalen Anstieg des Meeresspiegels erheblich verstärken.

„Wir haben Belege dafür gefunden, dass sich der zentral-westliche Teil des Grönland-Eisschildes destabilisiert hat“, erklärt der Erstautor Dr. Niklas Boers vom Potsdam-Institut für Klimafolgenforschung und der Freien Universität Berlin. „Unsere Ergebnisse deuten darauf hin, dass es in der Zukunft zu einem deutlich verstärkten Abschmelzen kommen wird – was sehr besorgniserregend ist.“

Ein Schlüsselmechanismus, der die Gesamtstabilität des grönländischen Eisschildes bestimmt, ist ein Rückkopplungsmechanismus namens melt-elevation feedback: Im Wesentlichen führt ein Temperaturanstieg zum Schmelzen, wodurch sich die Höhe des Eisschildes verringert. Auf einem Berg ist es oben kalt und unten weniger kalt. Wenn also die Oberfläche des Eisschildes schmilzt, sinkt es in die tiefere, wärmere Umgebungsluft – was wiederum zu beschleunigtem Schmelzen und zusätzlichem Höhenverlust führt. Ein Teufelskreis.

„Dieser Mechanismus ist seit Langem bekannt, und er ist einer der Hauptverdächtigen für die festgestellte Destabilisierung der zentral-westlichen Teile des grönländischen Eisschildes. Aber wir können nicht ausschließen, dass auch andere Rückkopplungen eine wichtige Rolle spielen, zum Beispiel im Zusammenhang mit der Albedo des Eisschildes“, erklärt Niklas Boers.

Beunruhigende Warnzeichen
Für ihre Analyse zogen Niklas Boers und sein Co-Autor Martin Rypdal von der Arctic University of Norway Meeresspiegeltemperaturen von Wetterstationen, Schmelzintensitäten aus Eisbohrkernen in Zentralwestgrönland sowie entsprechende Computermodell-Simulationen heran – und fanden in den Schwankungen der Eisschildhöhen beunruhigende Frühwarnzeichen, die darauf hindeuten, dass ein Kippen dieses Teils des Eisschildes bevorstehen könnte. „Die Warnzeichen werden durch charakteristische Veränderungen in der Dynamik des grönländischen Eisschildes verursacht, die widerspiegeln, wie gut sich der Eisschild gegen Störungen wehren und sich von ihnen erholen kann“, erklärt Rypdal.

Nach bisherigen Modellergebnissen ist das Abschmelzen des Grönlandeisschildes ab einer kritischen Schwelle der globalen Mitteltemperatur von 0,8 bis 3,2 Grad Celsius über dem vorindustriellen Niveau unvermeidlich. Sobald diese Schwelle überschritten wird, könnte der gesamte Eisschild über hunderte oder tausende von Jahren vollständig abschmelzen, was zu einem globalen Meeresspiegelanstieg von mehr als 7 Metern und einem Zusammenbruch der atlantischen meridionalen Umwälzzirkulation (AMOC) führen könnte, die für die relative Wärme in Europa und Nordamerika verantwortlich ist.

Doch neben mehreren positiven Rückkopplungen, die das Schmelzen beschleunigen, gibt es auch negative Rückkopplungen, die den grönländischen Eisschild auf mittleren Höhen stabilisieren könnten, vor allem durch zunehmende Akkumulation. „Wir müssen dringend das Zusammenspiel der verschiedenen positiven und negativen Rückkopplungsmechanismen besser verstehen, die die aktuelle Stabilität und die zukünftige Entwicklung des Eisschildes bestimmen“, sagt Niklas Boers.

Die Zukunft des Eisschildes ist ungewiss
Die Studie legt nahe, dass sich zumindest der zentral-westliche Teil des grönländischen Eisschildes einer kritischen Temperaturschwelle nähert. Doch wie sich dies auf den Eisschild als Ganzes auswirkt, bleibt unklar: „Angesichts der Anzeichen, die wir in Eiskernen aus dem zentral-westlichen Teil entdecken, müssen wir mehr Beobachtungen sammeln und unser Verständnis der entsprechenden Mechanismen verbessern, damit wir verlässlichere Schätzungen über die zukünftige Entwicklung des Grönland-Eisschildes machen können“, sagt Martin Rypdal.

„Das größte ​Problem ist die sogenannte Hysterese“, erläutert Niklas Boers weiter: „Unabhängig vom genauen Zusammenspiel der verschiedenen Rückkopplungen müssten wir die Temperaturen deutlich unter das vorindustrielle Niveau absenken, um wieder die Eisschildhöhe der letzten Jahrhunderte zu erreichen. Praktisch wird also der gegenwärtige und in naher Zukunft zu erwartende Massenverlust des Eises weitgehend irreversibel sein. Deshalb ist es höchste Zeit, dass wir die Treibhausgasemissionen aus der Verbrennung fossiler Brennstoffe schnell und deutlich reduzieren und das Eisschild und unser Klima wieder stabilisieren.“

Artikel: Niklas Boers & Martin Rypdal (2021): Critical slowing down suggests that the western Greenland ice sheet is close to a tipping point. PNAS. DOI: 10.1073/pnas.2024192118.

Wissenschaftliche Ansprechpartner:
presse@pik-potsdam.de

Originalpublikation:
Niklas Boers & Martin Rypdal (2021): Critical slowing down suggests that the western Greenland ice sheet is close to a tipping point. PNAS. DOI: 10.1073/pnas.2024192118.

(nach oben)


Neue REBOWL bald auch aus Biokunststoff? IfBB entwickelt nachhaltiges Material für neue Mehrweg-Schale

Dr. Lisa Mundzeck IfBB – Institut für Biokunststoffe und Bioverbundwerkstoffe
Hochschule Hannover
Das IfBB – Institut für Biokunststoffe und Bioverbundwerkstoffe an der Hochschule Hannover entwickelt in Zusammenarbeit mit dem Startup für messbar nachhaltige Produkte Crafting future für das Münchner Startup re-Cup ein nachhaltiges biobasiertes Material für die neue Mehrweg-Schale „REBOWL“ für „to go“-Lebensmittel. Nachhaltigkeit auf drei Ebenen: Vermeidung von Verpackungen, Wiederverwendung im Pfandsystem und baldmöglichst der Einsatz biobasierter Materialien.

Die Pfandschale „REBOWL“ wurde im April erfolgreich von re-Cup GmbH in Zusammenarbeit mit ihrem Partner Crafting future GmbH unter Unterstützung des IfBB auf den Markt gebracht. Nach dem Pfandsystem RECUP für Coffee-to-go-Mehrwegbecher gibt es damit auch für „to go“-Mahlzeiten ein Mehrwegpfandsystem. Das nachhaltige Konzept von Lebensmitteln und Getränken zum Mitnehmen in Mehrweg-Pfandbehältern wird weiter ausgebaut.
In der Pfandschale „REBOWL“, einer mit Deckel verschließbaren Schale, können „To go“-Gerichte auslaufsicher und nachhaltig transportiert, Schale und Deckel nach der Nutzung gespült deutschlandweit bei allen REBOWL-Partnern zurückgegeben werden.

Damit werden überflüssige Verpackungen vermieden und die Mehrwegnutzung durch das Pfandsystem nachhaltig gefördert – eine echte Alternative zur Einwegnutzung.

Die nun herausgebrachte erste Version der Schale besteht aus herkömmlichem Polypropylen, recycelbar und BPA frei. Nach der intensiven Zusammenarbeit der drei Partner im ersten Schritt soll nun im nächsten auch das Material ein nachhaltiges werden. Dafür bauen re-Cup und Crafting future ihre Zusammenarbeit mit dem IfBB an der Hochschule Hannover, den Experten auf dem Gebiet der Entwicklung biobasierter Kunststoffe, aus.
Die Herausforderung dabei: Der Biokunststoff muss ganzheitlich nachhaltig sein und sowohl bei der Nutzung und Wiederverwendung (für Lebensmittel zugelassen, ausreichend hitzebeständig, kratz-, spülmaschinen- und mikrowellenfest) als auch bei Rezyklierbarkeit und Wirtschaftlichkeit überzeugen.
Verschiedene Rezyklate sind bereits getestet worden und noch 2021 soll es aus Sicht der Partner einen fließenden Materialwechsel geben.

In den kommenden zwei Jahren soll ein Volumen von über einer Million REBOWLs erreicht werden.

Mehr zur REBOWL unter: https://rebowl.de/pfandschale/

(nach oben)


Verarmte Flora in Wiesen und Wäldern gefährdet Insekten

Reinhard Lässig Medienkontakt WSL Birmensdorf
Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft WSL
Wo die pflanzliche Vielfalt zurückgeht, nimmt die Diversität der Insekten und damit die Biodiversität als Ganzes ab. Auf intensiv genutzten Wiesen und Weiden sowie in dunklen Buchenwäldern fehlen etwa auf wenige Pflanzenarten spezialisierte Insekten, da dort ihre Futterpflanzen nicht mehr vorkommen. Dies zeigt eine von der Eidg. Forschungsanstalt für Wald, Schnee und Landschaft WSL koordinierte internationale Studie.

Die Intensivierung der Landnutzung stellt eine grosse Bedrohung für die biologische Vielfalt dar, unter anderem für pflanzenfressende Insekten und ihre Wirtspflanzen. Sind Käfer, Heuschrecken, Blattwanzen oder Zikaden nur auf eine oder sehr wenige Pflanzenarten spezialisiert, müssen sie abwandern oder sie sterben lokal aus, wenn ihre Wirtspflanzen verschwinden. Ist die vorhandene Nahrungspalette einer Insektenart hingegen artenreich, kann sie trotzdem überleben, auch wenn die Pflanzenarten abnehmen. Das Zusammenspiel von Arten unterschiedlicher Organismengruppen ist letztlich entscheidend für die Stabilität eines Ökosystems.

Diesen Wechselwirkungen zwischen Pflanzen und Insekten gingen Forschende mehrerer Forschungseinrichtungen aus Deutschland und der Schweiz unter der Leitung der Eidg. Forschungsanstalt für Wald, Schnee und Landschaft WSL auf den Grund. In der vom Schweizerischen Nationalfonds (SNF) finanzierten Studie im Rahmen des «Schwerpunktprogramms Biodiversitäts-Exploratorien» der Deutschen Forschungsgemeinschaft (DFG) untersuchten sie in den drei deutschen Naturräumen Schwäbische Alb (Baden-Württemberg), Hainich (Thüringen) und Schorfheide (Brandenburg) die Vielfalt der Pflanzen und Insekten, sowie deren Wechselwirkungen. Mit ihrer Studie auf intensiv bis wenig bewirtschafteten Wiesen und Weiden (Grünland) sowie in unterschiedlich bewirtschafteten Buchen- und Nadelwäldern wollten sie mehr über das Zusammenspiel zwischen Pflanzen- und Insektenarten herausfinden, die lokale Netzwerke bilden. Die bis zu 1300 Quadratkilometer grossen Naturräume decken eine genügende Anzahl unterschiedlich bewirtschafteter Flächen ab, um statistisch gesicherte Ergebnisse zu erhalten.

In den Gebieten mit einer Mischung aus naturnahen bis hin zu stark von Menschen genutzten Ökosystemen gingen die Forschenden davon aus, sehr unterschiedliche Insektengemeinschaften vorzufinden. «Da in diesen Gebieten zum Teil auch Insektenarten vorkommen, die auf wenige Futterpflanzen spezialisiert sind, versprachen wir uns neue Einblicke in die Konsequenzen, die eine intensive Nutzung für die ökologische Stabilität von Grünland und Wäldern hat», sagt Martin Gossner, Insektenforscher an der WSL und Leiter der Studie. Insgesamt erfassten die Forschenden auf 289 langfristig angelegten Stichprobenflächen 531 Pflanzen- und 1053 Insektenarten sowie deren Häufigkeiten.

Stabilere Insektengemeinschaften dank hoher Pflanzenvielfalt
In der Studie zeigte sich, dass Pflanzen-Insekten-Netzwerke in wenig beweidetem Grünland aus mindestens 70 Pflanzenarten und 80 pflanzenfressenden Käfer-, Heuschrecken-, Blattwanzen- und Zikadenarten bestehen. So bietet beispielsweise die wilde Möhre, eine typische Pflanze mässig bewirtschafteter Weiden, zahlreichen spezialisierten Käferarten Nahrung. Auf häufig gemähten oder gedüngten Wiesen und Weiden konnten im Mittel hingegen nur 40 Pflanzen- und 60 bis 70 der untersuchten Insektenarten nachgewiesen werden.

In seit kurzem unbewirtschafteten Wäldern mit dichtem Baumbewuchs ist die Biodiversität mit durchschnittlich 25 Pflanzen- und 30 solcher Insektenarten deutlich geringer als in lichten Wäldern. Jenen Insekten, die nur wenige Baum- oder Krautarten als Nahrung nutzen können, fehlt dort die Lebensgrundlage. Hingegen dringt in Wäldern mit zahlreichen Lücken im Kronendach viel Licht auf den Boden, so dass dort bis zu 80 Pflanzen- und 50 pflanzenfressende Insektenarten der studierten Gruppen vorkommen. «Licht fördert die Vielfalt an Pflanzen, welche wiederum mehr Insektenarten als Nahrungsgrundlage dienen. Gleichzeitig sind die Insektenarten weniger gefährdet, lokal auszusterben, das System ist also stabiler», sagt WSL-Forscher Felix Neff, der Erstautor des soeben in der Zeitschrift «Science Advances» erschienenen Fachartikels. Ein Beispiel für die stabilisierende Wirkung lichtdurchfluteter Wälder ist etwa die Brennnessel, die in diesen bevorzugt vorkommt und Nahrungsquelle für viele spezialisierte Schmetterlingsraupen, Rüsselkäfer, Blattzikaden und -wanzen ist. «Als Doktorand fasziniert mich diese Forschung nicht nur wegen der grossen, artenreichen Gebiete, die wir untersuchen; für mich ist auch die Zusammenarbeit mit den zahlreichen interdisziplinären Forschungsgruppen eine Bereicherung», betont Felix Neff.

Ergebnisse dürften sich in die Schweiz übertragen lassen
Werden lichtere Wälder gefördert, erhöht sich nicht nur die Vielfalt an Bodenpflanzen, Sträuchern und Bäumen, sondern auch die von der Pflanzenvielfalt profitierenden Insektenarten. Auch förderlich sind aus verschiedenen Laub- und Nadelbäumen gemischte Bestände, die sich ausserdem als stabiler gegenüber dem fortschreitenden Klimawandel erweisen dürften. Nimmt die pflanzliche Vielfalt hingegen ab, geht auch die Diversität der erfassten Insekten und damit die gesamte Biodiversität zurück. Derartige Ökosysteme verarmen also.

Für Grünland empfehlen die Forschenden eine moderate Beweidung anstelle des intensiven Mähens, um vielfältige und stabile Insektengemeinschaften zu fördern. «Diese Erkenntnisse lassen sich auch auf die Schweiz übertragen, beispielsweise aufs Mittelland, den Jura oder die tieferen Lagen der Voralpen», sagt Martin Gossner, «das Projekt der Exploratorien hatte von Beginn an zum Ziel, Aussagen machen zu können, die auf verschiedene Regionen Europas zutreffen».

Wissenschaftliche Ansprechpartner:
Felix Neff, Tel. +41 44 739 23 25

Originalpublikation:
F. Neff, M. Brändle, D. Ambarlı, C. Ammer, J. Bauhus, S. Boch, N. Hölzel, V. H. Klaus, T. Kleinebecker, D. Prati, P. Schall, D. Schäfer, E.-D. Schulze, S. Seibold, N. K. Simons, W. W. Weisser, L. Pellissier, M. M. Gossner, Changes in plant-herbivore network structure and robustness along land use intensity gradients in grasslands and forests. Sci. Adv. 7, eabf3985 (2021). doi: 10.1126/sciadv.abf3985

Weitere Informationen:
https://www.wsl.ch

(nach oben)


Geothermie als nachhaltige Energiequelle: Neue Fallstudie zeigt Potenziale für die Verringerung von CO₂-Emissionen

Christian Wißler Pressestelle
Universität Bayreuth
Geothermie kann als nachhaltige Energiequelle auch in Deutschland einen signifikanten Beitrag zur Senkung von CO₂-Emissionen leisten. Dies zeigt eine Fallstudie zum Kraftwerk Kirchstockach, die Wissenschaftler am Zentrum für Energietechnik (ZET) der Universität Bayreuth in der Zeitschrift „Renewable Energy“ veröffentlicht haben. Die Geothermie-Forschung am ZET ist in die Geothermie-Allianz Bayern integriert, die vom Bayerischen Wissenschaftsministerium seit 2016 gefördert wird. Im Rahmen der vor kurzem gestarteten zweiten Förderphase erhält das ZET rund 500.000 Euro.

Das Kraftwerk in Kirchstockach südwestlich von München wurde 2013 in Betrieb genommen und produziert jährlich rund 40 GWh erneuerbaren Strom. Die neue Fallstudie zu dieser Anlage bietet die erste umfassende Ökobilanz eines realen geothermischen Kraftwerks in Deutschland. Partner der Untersuchung waren das Karlsruher Institut für Technologie und die Martin-Luther-Universität Halle-Wittenberg. „Wir haben die Strombereitstellung durch das Geothermie-Kraftwerk in Kirchstockach insbesondere unter dem Aspekt der CO₂-Emissionen analysiert. Dabei stellte sich heraus: Wird die in der Erdkruste gespeicherte Wärme für die Stromerzeugung verwendet, fallen beim derzeitigen Stand der Technik weniger CO₂-Emissionen an, als wenn Biogas oder Photovoltaik für die Stromerzeugung genutzt werden“, sagt Dr.-Ing. Florian Heberle, Ko-Autor der Studie und Geschäftsführer des Zentrums für Energietechnik (ZET) der Universität Bayreuth.

Um die in heißen Themalwasser gespeicherte Erdwärme in elektrischen Strom zu wandeln, kommt in Kirchstockach – wie in vielen anderen Geothermie-Kraftwerken in Deutschland – ein spezielles Verfahren zum Einsatz: der Organic Rankine Cycle (ORC). Anstelle von Wasser wird dabei ein organisches Fluid, ein sogenanntes Arbeitsmedium, mit der Wärmequelle gekoppelt. Der auf diesem Weg erzeugte Dampf treibt Turbinen an und dient so der Stromerzeugung. Die Fallstudie kommt nun zu dem Ergebnis, dass die CO₂-Emissionen eines ausschließlich zur Stromerzeugung eingesetzten Geothermie-Kraftwerks zu mehr als einem Drittel vom jeweils verwendeten Arbeitsmedium abhängen. Hier sehen die Wissenschaftler signifikante Potenziale für einen noch klimafreundlicheren Betrieb von Geothermie-Anlagen. „Werden statt der bisher üblichen Fluide natürliche Kältemittel oder Hydrofluorolefine (HFO) – dies sind neuartige organische Verbindungen aus Wasserstoff, Fluor und Kohlenstoff – verwendet, lassen sich die CO₂-Emissionen bei der Stromerzeugung erheblich senken“, sagt Heberle. Er forscht am Lehrstuhl für Technische Thermodynamik und Transportprozesse (LTTT) schon seit vielen Jahren an einer optimierten Nutzung von Erdwärme als nachhaltiger Energiequelle.

„Die weitsichtige Entscheidung des Bayerischen Wissenschaftsministeriums, die Geothermie-Allianz Bayern in einer zweiten Phase bis 2024 weiter zu fördern, begrüßen wir sehr. Allein für dieses Jahr sind insgesamt 1,9 Millionen Euro für Forschungsvorhaben bereit gestellt worden, die darauf abzielen, die Geothermie verstärkt für eine integrierte Energieversorgung aus nachhaltigen Energiequellen zu nutzen. Daran wird sich das Zentrum für Energietechnik an der Universität Bayreuth insbesondere auf dem Gebiet der Wärmebereitstellung beteiligen. Hierbei steht unter anderem die technische, ökonomische und ökologische Betrachtung innovativer Energiesysteme mit Hochtemperatur-Wärmepumpen im Mittelpunkt. Darüber hinaus kooperieren wir sehr erfolgreich auch mit dem Kompetenzzentrum für Kraft-Wärme-Kopplung an der OTH Amberg-Weiden, das parallel zur Geothermie-Allianz gefördert wird“, sagt Prof. Dr.-Ing. Dieter Brüggemann, Direktor des Zentrums für Energietechnik und Inhaber des Lehrstuhls LTTT.

Der Geothermie-Allianz Bayern gehören neben der Universität Bayreuth auch die FAU Erlangen-Nürnberg sowie die Technische Universität München, die LMU München und die Hochschule München an.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Dieter Brüggemann / Dr.-Ing. Florian Heberle
Zentrum für Energietechnik (ZET)
Lehrstuhl für Technische Thermodynamik und Transportprozesse (LTTT)
Universität Bayreuth
Telefon: +49 (0)921 55-7160 / 55-6803
Brueggemann@uni-bayreuth.de / Florian.Heberle@uni-bayreuth.de

Originalpublikation:
Kathrin Menberg et al.: Environmental performance of a geothermal power plant using a hydrothermal resource in the Southern German Molasse Basin. Renewable Energy (2021), Volume 167, 20-31. DOI: https://doi.org/10.1016/j.renene.2020.11.028

(nach oben)


Drei Viertel der Beschäftigten mit Homeoffice-Option sind teilweise oder ausschließlich im Homeoffice tätig

Marie-Christine Nedoma, Jana Bart und Inna Felde Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Ende April waren 28 Prozent der Beschäftigten mit Homeoffice-Option, das heißt deren Tätigkeit Homeoffice zulässt und deren Betrieb ihnen die Möglichkeit zu Homeoffice gibt, ausschließlich im Homeoffice tätig. 47 Prozent arbeiteten teilweise im Homeoffice. Das geht aus einer Betriebsbefragung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) von Ende April hervor.

Das grundsätzliche Potenzial für Homeoffice wird in der Pandemie immer stärker ausgeschöpft. Das heißt, dass immer mehr Beschäftigte, deren Tätigkeit es zulässt, im Homeoffice tätig sind. „Das Potenzial für Homeoffice wird weitgehend genutzt, aber es gibt noch etwas Luft nach oben,“ stellt Bernd Fitzenberger, Direktor des IAB, fest. Der Anteil der Belegschaft, der Homeoffice nicht nutzen kann, obwohl es die Tätigkeit zuließe, hat sich seit dem vergangenen Oktober nahezu halbiert. Im Oktober konnten 13 Prozent nicht in Homeoffice arbeiten, obwohl das ihre Tätigkeit zuließe, im April waren es noch 7 Prozent.

46 Prozent aller Betriebe ermöglichen zumindest einem Teil ihrer Beschäftigten Homeoffice. Der Anteil dieser Betriebe ist seit Oktober 2020 gestiegen, vor allem bei den kleineren Betrieben. Generell ist Homeoffice eher in größeren Betrieben möglich. Dementsprechend arbeiten 75 Prozent aller sozialversicherungspflichtig Beschäftigten in Betrieben mit Homeoffice-Option. Der Anteil der Beschäftigten in Betrieben mit Homeoffice-Möglichkeit ist ebenfalls gestiegen, was vor allem an dem Anstieg bei Betrieben mittlerer Größe liegt.

Datengrundlage ist eine etwa alle drei Wochen durchgeführte Befragung des IAB von mehr als 1.500 Betrieben der Privatwirtschaft, mit der die Auswirkungen der Corona-Krise auf die Situation der Betriebe laufend untersucht werden.

Zum Download stehen unter http://doku.iab.de/arbeitsmarktdaten/ADuI_BeCovid_W12.xlsx Tabellen zu den Ergebnissen aus der 12. Befragungswelle bereit. Verfügbar sind Ergebnisse unter anderem zur Betroffenheit der Betriebe von der Corona-Krise, zur Liquidität und Existenzbedrohung. Tabellen und Grafiken aus früheren Befragungswellen können Sie ebenfalls herunterladen unter https://www.iab.de/de/daten/arbeitsmarktentwicklung.aspx.

(nach oben)


Studie: Das durchschnittliche Einzelkrankenhaus hat wenig Zukunft

Elena Wassmann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Unter Herausgeberschaft der Forschungsstelle für öffentliche und Nonprofit-Unternehmen der HWG LU wurde gerade die Studie „Ein kommunaler Krankenhauskonzern – Eine wissenschaftliche Bewertung aus Sicht von Daseinsvorsorge, medizinischer Qualität und Wirtschaftlichkeit“ veröffentlicht. Kernergebnis der Studie: Krankenhäuser ohne Verbund- oder Konzernstruktur werden es künftig schwer haben, sowohl mit Blick auf die medizinische Qualität als auch aus wirtschaftlicher Sicht. Innovative Lösungen der Verbund- und Konzernbildung, die es auch im öffentlichen Bereich erlauben, überregionale Verbünde zu bilden, sind gefragt.

Unter Herausgeberschaft der Forschungsstelle für öffentliche und Nonprofit-Unternehmen der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen wurde gerade eine Studie mit dem Titel „Ein kommunaler Krankenhauskonzern – Eine wissenschaftliche Bewertung aus Sicht von Daseinsvorsorge, medizinischer Qualität und Wirtschaftlichkeit“ veröffentlicht.

Krankenhäuser ohne Verbund- oder Konzernstruktur werden es künftig schwer haben, sowohl mit Blick auf die medizinische Qualität als auch aus wirtschaftlicher Sicht. Insbesondere die wirtschaftlichen Folgen der Covid-19-Krise sowie die Herausforderungen, die sich aus der künftigen digitalen Medizin und digitalen Prozessorganisation ergeben, werden es für das Gros der Kliniken kaum möglich machen, als Einzelkrankenhaus weiterzubestehen. Aus diesem Grund sollten neue innovative Lösungen der Verbund- und Konzernbildung überlegt werden, die es auch im öffentlichen Bereich erlauben, überregionale Verbünde zu bilden.

Das ist das Kernergebnis einer Studie, die von der Forschungsstelle für öffentliche und Nonprofit-Unternehmen von Prof. Dr. Marcus Sidki der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen im Auftrag von consus clinicmanagement herausgegeben wurde.

Unter dem Titel „Ein kommunaler Krankenhauskonzern – eine wissenschaftliche Bewertung aus Sicht von Daseinsvorsorge, medizinischer Qualität und Wirtschaftlichkeit“ beschreiben die Studienautoren Dr. Stephan Balling und Prof. Dr. Björn Maier, dass insbesondere kleinere kommunale Krankenhäuser im ländlichen Raum – Kreiskliniken – vor der Frage stehen, Partnerschaften einzugehen.

„Kommunen sollten für ihre Krankenhäuser regionale oder überregionale Verbundlösungen finden“, sagt Dr. Stephan Balling, einer der beiden Studienverfasser. Zum einen zeige eine Analyse verschiedener Quellen, dass Einzelkrankenhäuser, die als Grund- und Regelversorger agieren, besonders große wirtschaftliche Probleme sowie höchstwahrscheinlich auch medizinisch-technische Qualitätsmängel hätten. Zum anderen habe eine Expertenbefragung veranschaulicht, welche Vorteile Konzernstrukturen bringen.
„Shared Services wie IT, Einkauf oder Personalmanagement kombiniert mit einheitlichen Standards und hoher Verbindlichkeit sind die wichtigsten Faktoren, weshalb Verbundlösungen auch im Krankenhauswesen sinnvoll sind“, erklärt Studienverfasser Prof. Dr. Björn Maier. Als zentrales Argument für intensive Kooperationen und Verbundlösungen zeige die Studie auch die Möglichkeiten zum Wissenstransfer sowie die Entwicklung und Einhaltung von Qualitätsstandards. Dazu komme ein weiterer wesentlicher Erfolgsfaktor: Cashpools, mit denen sich kurzfristige Liquiditätsengpässe vermeiden und Investitionen gezielter steuern ließen.

Die Studie kommt ferner zu dem Ergebnis, dass als Rechtsform für Krankenhäuser neben der öffentlich-rechtlichen Variante der Anstalt des öffentlichen Rechts (AÖR) insbesondere die privatrechtlichen Gesellschaftsformen der (gemeinnützigen) Gesellschaft mit beschränkter Haftung (gGmbH) oder der (gemeinnützigen) Aktiengesellschaft (gAG) sinnvoll seien. Das Ziel, Entscheidungen unter medizinischen und wirtschaftlichen Aspekten zu fällen und Strukturen nicht mit Blick auf Wahlchancen von Kommunalpolitikern zu gestalten, könne vor allem mit der Rechtsform der gAG erreicht werden, da diese aktienrechtlich einen nicht weisungsgebundenen Vorstand habe.

Um Politikferne zu erreichen, sei aber auch der Gesetzgeber gefragt, Klarheit über die Weisungsungebundenheit kommunaler Mandatsträger in Aufsichtsräten von Krankenhäusern zu schaffen. Dies gelte insbesondere mit Blick auf Fachexperten, die von kommunalen Gremien entsandt werden. „Unsere Analyse zielt darauf, dass Krankenhäuser nach fachlichen Aspekten geführt werden, nach der Frage, was ist für eine gute Versorgung der Bevölkerung wichtig, und was ist wirtschaftlich nachhaltig, aber zugleich eine gewisse Politikferne erreicht wird, ohne dass Krankenhäuser privatisiert werden“, fasst Balling den Ansatz der Studie zusammen.

„Die Studienergebnisse bieten sehr interessante Anstöße für eine ideologiefreie und gemeinwohlorientierte Debatte über die künftige Krankenhauslandschaft in Deutschland“, kommentiert Dr. Djordje Nikolic, Geschäftsführer von Studienauftraggeber consus clinicmanagement, die Ergebnisse.

Wissenschaftliche Ansprechpartner:
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Forschungsstelle für öffentliche und Nonprofit-Unternehmen
Prof. Dr. Marcus Sidki
Marcus.Sidki@hwg-lu.de

Weitere Informationen:
https://www.vwl.hwg-lu.de Hier finden Sie die Studie zum Download
https://vwl.hwg-lu.de/fileadmin/user_upload/forschung-transfer/oeffentliche-unte… Hier kommen Sie direkt zur Studie

(nach oben)


Neue Studie aus Bayreuth: Deutlicher Anstieg des Radfahrens in Großstädten nach Lockdown-Beginn 2020

Christian Wißler Pressestelle
Universität Bayreuth
Die pandemiebedingte Schließung von Sportplätzen, Sporthallen und Fitness-Studios in Deutschland hat zu einem signifikanten Anstieg des Radfahrens in den öffentlichen Grünanlagen von Großstädten geführt. Zu diesem Ergebnis kommen Forscher*innen der Universität Bayreuth in einer neuen, in PLOS ONE veröffentlichten Studie. Die Untersuchung beruht auf anonymisierten Daten der Fitness-App von Strava, die weltweit von mehr als 73 Millionen Menschen genutzt wird.

„Wir wollten herausfinden, wie die Menschen in Deutschland seit Beginn des Lockdowns im März 2020 auf die zunehmenden Beschränkungen ihrer gewohnten sportlichen Aktivitäten reagiert haben. Insbesondere interessierten wir uns für die Frage, ob sie auf Outdoor-Aktivitäten ausweichen, die mit den von Bund und Ländern beschlossenen Beschränkungen sowie mit den Regeln des ‚Social Distancing‘ vereinbar sind. Die Fitness-App von Strava, die mit GPS-Daten arbeitet und die Bewegungsprofile der Nutzer*innen mit hoher Genauigkeit erfasst, eignen sich für eine solche Studie besonders gut. Bei der Auswertung haben wir uns auf einen Vergleich des Radfahrens in großen Ballungszentren und in ländlichen Räumen konzentriert“, sagt die Bayreuther Sportökologin Anne-Marie Schweizer M.A., Erstautorin der Studie und Mitarbeiterin von Prof. Dr. Manuel Steinbauer, dem Leiter der Studie.

Insgesamt wurden die 15 bevölkerungsreichsten Großstädte sowie sieben ländlich geprägte Regionen für die Studie ausgewählt. In diesen Regionen – beispielsweise im Bayerischen Wald, dem Harz, der Hohen Mark oder der Ostsee-Insel Usedom – ließ sich keine durch den Lockdown verursachte Steigerung von Radsport-Aktivitäten feststellen. In den großen Metropolen hingegen wurde das Radfahren, vor allem in öffentlichen Parks, immer beliebter. Bereits im April 2020 erhöhten sich die Radsport-Aktivitäten in städtischen Grünanlagen sprunghaft um 81 Prozent gegenüber den Vormonaten. Im Zeitraum April bis Juni 2020 stiegen sie durchschnittlich um 55 Prozent an. Um diese Entwicklungen aus dem umfangreichen Datenmaterial der Strava-App herauszuarbeiten, mussten die Wissenschaftler*innen sowohl wetterbedingte Einflüsse auf das Radfahr-Verhalten als auch die steigende Anzahl der Sportler*innen berücksichtigen, die sich im Verlauf der Covid-19-Pandemie für die App registriert hatten.

„Der Trend zum Outdoor-Sport in den städtischen Zentren wurde vermutlich auch durch den sprunghaften Anstieg der Kurzarbeit gefördert – um 17 Prozent von Januar bis April 2020. So hatten Beruftstätige in den Städten mehr Zeit für Outdoor-Sport. Darüber hinaus zeigt das beliebte Radfahren in öffentlichen Parks und anderen innerstädtischen Grünanlagen natürlich auch das Bedürfnis der Menschen, unter den oft bedrückenden Einschränkungen des Lockdowns etwas für ihre Gesundheit und ihr seelisches Wohlbefinden zu tun“, sagt Schweizer und verweist auf die Folgen der von Bund und Ländern getroffenen Maßnahmen zur Eindämmung der Pandemie: 27,6 Millionen Mitglieder in Sportvereinen und 11,7 Mitglieder in Fitness-Studios konnten ihr gewohntes regelmäßiges Training in den Monaten April bis Juni 2020 nicht länger fortsetzen.

Wissenschaftliche Ansprechpartner:
Anne-Maria Schweizer M.A.
Wissenschaftliche Mitarbeiterin
Sportökologie
Universität Bayreuth
Telefon: +49 (0)921 / 55-4702
E-Mail: Anne-Maria.Schweizer@uni-bayreuth.de

Prof. Dr. Manuel Steinbauer
Sportökologie
Universität Bayreuth
Telefon: +49 (0)921 / 55-5834
E-Mail: Manuel.Steinbauer@uni-bayreuth.de

Originalpublikation:
Anne-Maria Schweizer, Anna Leiderer, Veronika Mitterwallner, Anna Walentowitz, Gregor Hans Mathes, Manuel Jonas Steinbauer: Outdoor cycling activity affected by COVID-19 related epidemic-control-decisions. PLOS ONE (2021), DOI: https://doi.org/10.1371/journal.pone.0249268

(nach oben)


Bioaktive Papierbeschichtung ersetzt Kunststoffverpackungen bei Lebensmitteln

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Von Jahr zu Jahr steigt die Menge an Plastikmüll. Dazu tragen auch die Kunststoffverpackungen der Lebensmittel bei. Forschende der Fraunhofer-Gesellschaft haben im Projekt »BioActiveMaterials« eine umweltfreundliche Beschichtung für Papierverpackungen entwickelt. Damit wird nicht nur Kunststoff eingespart, die Beschichtung aus pflanzenbasierten Proteinen und Wachsen verlängert auch die Haltbarkeit der Lebensmittel. Nach der Nutzung wird die Verpackung in der Altpapiertonne entsorgt.

Wer heute seine Lebensmittel beim Discounter holt, kauft fast immer die Kunststoffverpackung mit. Wurst, Käse, Fleisch und Fisch sind fast immer abgepackt. Auch Obst, Salat und Gemüse kommen häufig in der Kunststoffverpackung. Diese ist hygienisch und schützt das Lebensmittel beim Transport nach Hause. Allerdings tragen die mineralölbasierten Kunststoffe zum Anwachsen der Müllberge bei. In Deutschland wurden allein im Jahr 2017 pro Einwohner insgesamt 38,5 Kilogramm Müll aus Plastikverpackungen erzeugt. Der Plastikmüll schwimmt auf den Ozeanen oder wird zur Entsorgung in asiatische oder afrikanische Länder exportiert. Durch Abrieb oder Zerfall entsteht Mikroplastik, das am Ende in der Nahrungskette landet. Eine Reduzierung der Kunststoffverpackungen auch im Bereich der Lebensmittel tut also Not.

Nun haben das Fraunhofer-Institut für Verfahrenstechnik und Verpackung IVV und das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB eine innovative und nachhaltige Lösung für Lebensmittelverpackungen vorgestellt. Die Haltbarkeit der Lebensmittel wird – wie bei herkömmlichen Verpackungen – verlängert. Aber die neue Verpackung verzichtet dabei auf Kunststoff. Nach der Benutzung ist sie problemlos zu recyceln.

Proteine, Wachse und Antioxidantien verlängern die Haltbarkeit
Im Projekt »BioActiveMaterials« nutzen die Forschenden Papier als Basismaterial zur Herstellung typischer und funktioneller Verpackungsmaterialien: verschließbare Siegelrandbeutel oder Einschlagpapier. Das Papier wird über Standardverfahren mit einer speziellen Beschichtung versehen. Für diese Beschichtung nutzen die Forschenden Proteine und Wachse mit biobasierten Additiven. Die spezielle Formulierung der langzeitstabilen Beschichtung erfüllt gleich mehrere Funktionen. »Zum einen dienen die Proteine als Sauerstoffsperrschicht und die Wachse als Wasserdampfbarriere, so trocknet beispielsweise Obst nicht so schnell aus. Zum anderen verleihen die biobasierten Additive antioxidative und antimikrobielle Wirkung. Fleisch und Fisch verderben dann nicht so schnell. Insgesamt wird die Haltbarkeit des Lebensmittels deutlich verlängert«, erklärt Dr. Michaela Müller, Leiterin des Innovationsfelds Funktionale Oberflächen und Materialien am Fraunhofer IGB. Auch die Proteine in der Beschichtung übernehmen bestimmte Aufgaben. Sie verhindern, dass Mineralöl aus dem Papier auf die Lebensmittel übergeht. Gerade Altpapier enthält Reste von mineralölhaltiger Druckerfarbe.

Die im Rahmen des Projekts »BioActiveMaterials« entwickelten beschichteten Papiere stellen eine Alternative zu derzeitigen Verpackungen für Lebensmittel aller Art dar, egal ob Obst und Gemüse, Fleisch und Fisch, Käse oder auch Süßwaren. Die Verbraucherin oder der Verbraucher können die papierverpackten Lebensmittel genauso lagern und handhaben wie die mit Kunststoff verpackten. »Unsere papierbasierten Verpackungen sind auch für Lebensmittel geeignet, die gekühlt werden müssen, beispielsweise Fleisch. Hierbei bleibt die Schutzfunktion vor Sauerstoff erhalten«, ergänzt Müller. Sogar Tiefkühlkost lässt sich darin verpacken. »Nach der Nutzung wandert die Verpackung in die Altpapiertonne, die Beschichtung ist biologisch abbaubar und stört das Papierrecycling nicht«, sagt Dr. Cornelia Stramm, Abteilungsleiterin am Fraunhofer-Institut für Verfahrenstechnik und Verpackung IVV.

Die Fraunhofer-Institute haben das Projekt in eng verzahnter Teamarbeit vorangetrieben. Während die Wissenschaftlerinnen und Wissenschaftler am Fraunhofer IGB sich um die komplexe Formulierung und Herstellung der Beschichtung kümmerten, testeten die Forschenden am Fraunhofer IVV, wie gut die Beschichtung in der Praxis funktioniert. »Wir haben beispielsweise getestet, wie effektiv die jeweilige Beschichtung das Lebensmittel vor Außeneinflüssen wie Wasserdampf, Sauerstoff und Mineralöl schützt«, erklärt Stramm. Zudem sorgte das Team im Fraunhofer IVV für den Auftrag der Beschichtung im Rolle-zu-Rolle-Verfahren auf die Papiere. Der erfolgt mittels einer Maschine, auf der das Papier über Walzen geführt wird. Dabei wird die Beschichtung als wässrige Dispersion aufgetragen.

Proteine aus Reststoffen, Wachse aus Brasilien und Nordmexiko
Bei der Wahl der Rohstoffe für »BioActiveMaterials« setzte das Fraunhofer-Team auf natürliche, lebensmittelrechtlich zugelassene Substanzen. Für die Protein-Komponente etwa experimentierten sie mit Raps, Lupinen, Molke oder Sonnenblumen. In der Praxis könnten landwirtschaftliche Betriebe nicht verwertete Reststoffe aus der Produktion an die Verpackungsindustrie liefern. Bei den Wachsen setzen die Forschenden auf Bienenwachs und auf Wachse, die aus dem in Nordmexiko vorkommenden Candelilla-Busch sowie aus der brasilianischen Carnauba-Palme gewonnen werden. »Wir haben uns für diese Wachse entschieden, da sie biologisch abbaubar, lebensmittelrechtlich zugelassen und auf dem Markt leicht verfügbar sind«, erklärt Müller.

In der Herstellung kommt klassische Labortechnik zum Einsatz, also Zerkleinern, Erhitzen, Rühren und Mixen. »Die Kunst besteht im Mischungsverhältnis und in der Reihenfolge, in der man die einzelnen Substanzen dazugibt. Die Flexibilität beim Mischungsverhältnis der Substanzen ermöglicht es uns auch, die Beschichtung für bestimmte Anwendungen zu optimieren«, sagt Müller. So könnte etwa eine Verpackung für Fleisch durch mehr Antioxidantien eine besonders starke antimikrobielle und antioxidative Wirkung entfalten, während der Salat in der Tüte durch eine Wachsbeschichtung besonders gut vor Austrocknung geschützt ist.

Vorteile für Hersteller, Händler und Verbraucher
Auch an ganz praktische Aspekte haben die Forschenden gedacht. So lässt sich neben Papier auch Karton mit der bioaktiven Beschichtung ausstatten. Ein Bedrucken der Verpackung ist dabei kein Problem. Ein Hersteller könnte sein Logo oder lebensmittelrechtlich vorgeschriebene Angaben zu Inhaltsstoffen aufdrucken. Auch Discounter und Lebensmittelhändler profitieren von der Fraunhofer-Verpackung. Denn ressourcensparende und biologisch abbaubare Verpackungen ohne Kunststoff liegen bei den Verbraucherinnen und Verbrauchern im Trend.

Die Projektpartner vom Fraunhofer IVV und vom Fraunhofer IGB experimentieren bereits mit Konzepten, bei denen die Beschichtung direkt auf Lebensmittel wie etwa Obst oder Gemüse aufgetragen wird und so die Haltbarkeit erhöht. Aus gesundheitlicher Sicht ist die essbare Beschichtung ohnehin unbedenklich.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/mai-2021/bioaktive-…

(nach oben)


KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten

Beatrice Liebeheim-Wotruba Referat Hochschulmarketing & Kommunikation
Hochschule Ruhr West
KIWaSuS steht für „KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten“.
Im Projekt soll ‚Künstliche Intelligenz‘ eingesetzt werden. Es handelt sich um eine Technik, die eher in Smartphones, Autos oder Sprachassistenten zur Mustererkennung in Bildern und Sprache eingesetzt wird. In KIWaSuS soll KI eingesetzt werden, Zusammenhänge und Muster bei der Entstehung von Starkregenzellen zu erlernen, um dann die zeitliche und räumliche Entwicklung von Starkregenzellen besser vorhersagen zu können. Auch soll KI verwendet werden, um das Verhältnis zwischen Niederschlag und dem Abfluss zu erlernen. So sollen Überlastungen des Kanalnetzes und Überschwemmungen besser zu beschreiben sein.

Gelsenkirchen / Essen / Mülheim an der Ruhr, 04. Mai 2021: Starkregen und Sturzfluten sind kein neues Phänomen. Doch die extremen Wetterereignisse, besonders in den Sommermonaten, nehmen in Folge des Klimawandels zu. Vor allem in urbanen Gebieten, also Ruhrgebietsstädten wie Gelsenkirchen, kommt es schnell zur Überlastung der Kanalnetze, zu Überflutungen von Straßen und Unterführungen. Damit sind Rettungswege, z. B. für die Feuerwehr, blockiert. Hinsichtlich Vorwarnzeit, geographisch genauer Verortung und zu erwartender Niederschlagsmenge sind Starkregenereignisse kaum adäquat vorherzusagen. Umso wichtiger ist eine technische und inhaltliche Weiterentwicklung der Vorhersagemodelle. Hier setzt das BMBF-Verbundforschungsprojekt „KIWaSuS“ an.

KIWaSuS steht für „KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten“. Ziel des Projektes ist es, die Vorwarnzeiten vor Sturzfluten in den Städten signifikant zu erhöhen, diese besser zu lokalisieren und gleichzeitig wichtige Informationen für das kommunale Krisenmanagement bereitzustellen, um Bürger:innen besser zu schützen. Dazu soll eine intuitive, digitale Karte erstellt werden, die in Abhängigkeit des bevorstehenden Starkregenereignisses bereits Ort und Ausmaß der resultierenden Überflutung frühzeitig und zuverlässig darstellt. Damit können Akteure vor Ort sinnvoll unterstützt werden: Einsatzpläne für Feuerwehr, Katastrophenschutz und Kanalnetzbetreiber können so individuell an das Ereignis angepasst werden. Bürger können rechtzeitig gewarnt werden und eigene Schutzmaßnahmen einleiten.
Erschwerend in den Ruhrgebietsstädten kommt die Trennung ganzer Stadtteile durch Unterführungen aufgrund von zahlreichen Autobahnen und Bahntrassen hinzu. Vergangene Starkregenereignisse haben gezeigt, dass sich nicht nur Geländetiefpunkte wie Unterführungen zu Hindernissen entwickeln, sondern sich auch ganze Straßenzüge innerhalb kürzester Zeit in reißende Ströme verwandeln können. Der Bedarf für ein effizientes Echtzeitwarnsystem ist nicht auf Gelsenkirchen begrenzt, sondern deutschlandweit gegeben.

Im Projekt KIWaSuS soll ‚Künstliche Intelligenz‘ (KI) als zentrales Element eingesetzt werden. Dabei handelt es sich um eine Technik, die normalerweise eher in modernen Smartphones, Autos oder Sprachassistenten zur Mustererkennung in Bildern und Sprache eingesetzt wird. In KIWaSuS soll KI dazu eingesetzt werden, Zusammenhänge und Muster bei der Entstehung von Starkregenzellen zu erlernen, um künftig die zeitliche und räumliche Entwicklung von Starkregenzellen besser vorhersagen zu können. Andererseits soll KI verwendet werden, um das Verhältnis zwischen Niederschlag und dem daraus resultierenden Abfluss zu erlernen. So sollen Überlastungen des Kanalnetzes und Überschwemmungen besser zu beschreiben sein.

Voraussetzung für den effizienten Einsatz von KI ist ein intensiver Trainingsprozess, der eine große Datenbasis benötigt. Die Daten werden aus verschiedenen Quellen erhoben: Für den Niederschlag werden Messdaten durch die Kommunen und Wasserverbände bereits seit mehreren Jahrzehnten erfasst. Für den niederschlagsbedingten Abfluss hingegen liegen derzeit kaum Daten vor. Hier werden physikalisch basierte Abflussmodelle genutzt, um künstliche Trainingsdaten zu generieren. Darüber hinaus soll ein innovatives Sensorsystem zur Nachverdichtung bzw. Ergänzung der Datenbasis errichtet werden. Sämtliche Datenströme sollen in einer zentralen Datenplattform zusammengefügt und durch entsprechende Transformationsprozesse in ein ML-geeignetes Format gebracht und für die Vorhersagemodelle zur Verfügung gestellt werden.

Beteiligt an diesem Verbundprojekt sind die Unternehmen neusta sd west, Gelsenwasser AG, Abwassergesellschaft Gelsenkirchen, das Institut Wasserbau- und Wasserwirtschaft der Universität Duisburg-Essen und die Institute Bauingenieurwesen sowie Mess- und Sensortechnik der Hochschule Ruhr West. Konsortialführer ist Prof. Dr. Markus Quirmbach vom Institut Bauingenieurwesen. Anforderungen und Daten liefern die Feuerwehr Gelsenkirchen, das Landesamt für Natur, Umwelt und Verbraucherschutz und die Emschergenossenschaft. Das Projekt startete im April 2021 und läuft bis März 2024. Gefördert wird das Projekt mit ca. 1,5 Mio. Euro aus der BMBF Förderrichtlinie: „Künstliche Intelligenz in der zivilen Sicherheitsforschung“ im Programm „Forschung für die zivile Sicherheit 2018 bis 2023“.

Wissenschaftliche Ansprechpartner:
Hochschule Ruhr West | Institut Bauingenieurwesen
Prof. Dr. Markus Quirmbach
Telefon: 0208/ 882 54 463
E-Mail: markus.quirmbach@hs-ruhrwest.de

Weitere Informationen:
https://www.hochschule-ruhr-west.de/forschung/forschung-in-den-instituten/instit…

(nach oben)


Von Gewittern über Starkregen bis Dürreperioden

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Extremes Wetter wie starke Gewitter, Hagel oder Hitze haben in den letzten Jahren auch in Deutschland zugenommen und verursachen teils große wirtschaftliche und infrastrukturelle Schäden. Die komplexen physikalischen Prozesse, die beim Entstehen dieser Wetterereignisse ablaufen, untersucht die Helmholtz-Initiative MOSES, an der das Karlsruher Institut für Technologie (KIT) beteiligt ist. Ziel der nun startenden und vom KIT koordinierten Messkampagne „Swabian MOSES“ ist es, die Ursachen, Auswirkungen und Wechselwirkungen hydro-meteorologischer Extreme ganzheitlich zu untersuchen. Im Untersuchungsgebiet in Baden-Württemberg treten sowohl Gewitter als auch Hitze- und Dürreperioden häufig auf.

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2021_041_von-gewittern-uber-starkregen-bis-durreperio…

Um die Auswirkungen meteorologischer und hydrologischer Extreme auf die langfristige Entwicklung von Erd- und Umweltsystemen zu untersuchen, bauen neun Forschungszentren der Helmholtz-Gemeinschaft das mobile und modular einsatzfähige Beobachtungssystem MOSES (Modular Observation Solutions for Earth Systems) auf, das bis 2022 vollständig einsatzfähig sein soll. Testkampagnen sind ein wichtiger Teil dieser Aufbauarbeit, denn es gilt die neuen Messsysteme im mobilen Einsatz zu prüfen, weiterzuentwickeln und aufeinander abzustimmen. Zwei dieser Kampagnen zu unterschiedlichen Fragen und in unterschiedlichen Untersuchungsgebieten sind bislang für das Jahr 2021 geplant – im Bereich der Schwäbischen Alb und auf der Elbe.

Im Mai startet die Messkampagne „Swabian MOSES“ im Bereich der Schwäbischen Alb und des Neckartals in Baden-Württemberg, die voraussichtlich bis Mitte September läuft und vom KIT koordiniert wird. In deren Mittelpunkt stehen zwei hydro-meteorologische Extreme – Trockenheit und Starkniederschlag. So führte die Häufung von mehrwöchigen Trockenperioden in den Jahren 2018 bis 2020 dazu, dass im letzten Jahr der Grundwasserspiegel auf einen historischen Niedrigstand sank und viele Flüsse ein ausgeprägtes Niedrigwasser führten – mit erheblichen Einschränkungen für Schifffahrt, Bewässerung und Kraftwerkskühlung.

„Aufgrund ihrer komplexen Topographie und geographischen Lage ist die Untersuchungsregion besonders häufig auch von schweren Gewitterereignissen betroffen“, sagt Professor Michael Kunz vom Institut für Meteorologie und Klimaforschung – Department Troposphärenforschung (IMK-TRO), einer der Koordinatoren des Projekts. „Ein Hagelsturm genau in unserem Untersuchungsgebiet im Juli 2013 beispielsweise, bei dem Hagelkörner mit einem Durchmesser von bis zu 10 Zentimetern beobachtet wurden, verursachte Schäden von etwa einer Milliarde Euro.“ Die mit Gewittern einhergehenden Starkniederschläge können zudem lokale Sturzfluten an Hanglagen oder in flächenversiegelten urbanen Bereichen verursachen, die nicht nur zu erheblichen Schäden, sondern auch zu einem massiven Sediment- und Schadstofftransport in Gewässern führen.

Mit verschiedenen Messsystemen beteiligt sind neben dem federführenden Institut für Meteorologie und Klimaforschung (IMK) des KIT auch das Helmholtz Zentrum für Umweltforschung (UFZ) aus Leipzig, das Forschungszentrum Jülich (FZJ), die Universität Hohenheim, die Eberhard Karls Universität Tübingen, die Technische Universität Braunschweig, das Helmholtz Zentrum Potsdam – Deutsches GeoForschungsZentrum (GFZ), das Deutsche Zentrum für Luft- und Raumfahrt (DLR) sowie der Deutsche Wetterdienst (DWD).

Auswirkungen von Gewittern auf Atmosphäre, Klima und Ökosysteme
Das KIT setzt sein mobiles Observatorium KITcube ein. „Der KITcube liefert detaillierte Informationen über den Zustand der Atmosphäre bei der Entstehung und Entwicklung von Gewittern, dem ersten Schwerpunkt der Messkampagne“, so Dr. Andreas Wieser, wissenschaftlicher Direktor des KITcube. „Dies gelingt durch die Kombination modernster Fernerkundungsgeräte und einer Vielzahl im Messgebiet verteilter lokaler Messsysteme.“ Dazu zählen unter anderem ein hochmodernes Wolkenradar, ein Niederschlagsradar, ein Netzwerk aus Lidaren, mit denen atmosphärische Luftströmungen mithilfe von Lasern erfasst werden können, Wetterballons und Wetterstationen. Eine neuartige mobile Wolkenkammer des KIT misst die Menge an eisbildenden Partikeln, die in Gewitterwolken für die Niederschlags- und Hagelbildung mitverantwortlich sind. Erstmalig erprobt das KIT zudem kleine Schwarmsonden, die innerhalb einer Gewitterwolke die Windverhältnisse und damit auch die Bahnen von Hagelkörnern nachbilden, um die Wachstumsprozesse der Niederschlagsteilchen, insbesondere von Hagel, besser zu verstehen.

Die Universität Hohenheim betreibt während der Kampagne am Land-Atmosphäre Feedback Observatorium (LAFO) ihr Netz aus Bodenfeuchte- und Energiebilanzstationen zur Messung von Energie-, Feuchte- und CO2-Flüssen in Bodennähe, sowie mehrere moderne Lidar-Fernerkundungsgeräte, die gleichzeitig die Verteilung der Luftfeuchtigkeit, der Temperatur und des Windes sowie deren Fluktuationen in der Atmosphäre messen.

Die Wissenschaftlerinnen und Wissenschaftler des Forschungszentrums Jülich lassen Ballonsonden bis in 35 Kilometer Höhe steigen, um unter anderem zu ermitteln, wie sich Gewitter langfristig auf das Klima auswirken. Der DWD führt am Standort Stuttgart-Schnarrenberg zusätzliche Ballonaufstiege durch, sodass Informationen über wichtige Wetterparameter im Vorfeld von Gewittern gewonnen werden. Zwei Forschungsflugzeuge der Technischen Universität Braunschweig sammeln Daten in Gewitternähe während drei Wochen im Juni und Juli. An Bord integrierte Messgeräte erlauben die Bestimmung von Energie- und Feuchteflüssen innerhalb der Atmosphäre. Eingebaut ist zudem ein vom KIT entwickeltes Lidar, das vertikale Windprofile entlang der Flugstrecke erfasst, welche Rückschlüsse auf die Strömung in den Entstehungsgebieten von Gewittern ermöglichen.

Den Einfluss von Starkregen und Überflutungen auf die Stofffrachten von Fließgewässern untersuchen Forschende der Universität Tübingen und des UFZ. Ein besonderer Schwerpunkt liegt dabei auf den gelösten und partikelgebundenen Schadstoffen, die durch Starkregen aus verschiedenen Quellen in Gewässer gelangen, und der daraus resultierenden Toxizität für das aquatische Ökosystem. Ziel der Untersuchungen ist die Erfassung der Stoffeintragspfade in hydrologisch verschiedenen Einzugsgebieten, welche sich in Landnutzung und Urbanisierungsgrad unterscheiden, sowie die Erfassung der Wasserqualität. Ein Teil der Proben wird am UFZ auf organische Schadstoffe und deren Mischungstoxizität untersucht. In Zusammenarbeit mit dem KIT untersuchen die Forschenden zudem den Austausch von Treibhausgasen zwischen Fließgewässern und der Atmosphäre.

Entwicklung von Hitze- und Dürreperioden in der Region
Um die Auswirkungen von Hitze- und Dürrestress auf landwirtschaftliche Flächen der Schwäbischen Alb zu erfassen, werden seitens des KIT an mehreren Standorten Messstationen errichtet, die den Energie- und Stoffaustausch zwischen den betroffenen Ökosystemen und der Atmosphäre quantifizieren. Das GFZ ergänzt diese Messungen aus der Luft über entsprechende an Drohnen befestigte Sensoren. Zusätzlich installiert das KIT mehrere Aerosolmessgeräte, um Zusammenhänge zwischen deren Verteilung und Hitze- und Dürreperioden zu erforschen.

Die Wissenschaftlerinnen und Wissenschaftler des UFZ untersuchen die Dynamik der Bodenfeuchte als eine zentrale Steuergröße für den Abfluss des Regenwassers sowie für die Dürreentwicklung. Dazu installiert das UFZ während der Messkampagne mobile, drahtlose Sensornetzwerke, welche die Bodenfeuchte und -temperatur in verschiedenen Tiefen messen. Um großräumige Variationen der Bodenfeuchte zu beobachten, kommt zusätzlich ein Geländefahrzeug mit speziell entwickelten Neutronensensoren (Cosmic Ray Rover) zum Einsatz. Das DLR erfasst die oberflächennahe Bodenfeuchte zusätzlich mit Radar-Flugzeugmessungen. Die Forschenden setzen hierfür innovative Abbildungsverfahren ein und erproben neue Algorithmen. Um in den Boden einzudringen, verwenden sie langwellige elektromagnetische Wellen, die abhängig von der Bodenfeuchte und der Vegetation ein charakteristisches Signal abbilden. Die Ergebnisse dienen auch dem Vergleich der verschiedenen Messmethoden im Hinblick auf ihre Genauigkeit. (jwi-uwe)

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Weitere Informationen:
https://www.swabianmoses.de/ Swabian MOSES
http://www.moses-helmholtz.de MOSES allgemein
https://www.ufz.de/newsletter/ufz/Dezember2019/index.html#0 MOSES – zur rechten Zeit am rechten Ort
https://www.klima-umwelt.kit.edu/index.php Details zum KIT-Zentrum Klima und Umwelt

(nach oben)


Fehler am Anfang des Lebens

Dr. Carmen Rotte Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für biophysikalische Chemie
Statistisch führt bei Frauen nur jede dritte Befruchtung zu einer erfolgreichen Schwangerschaft. Viele Embryonen überstehen die frühe Entwicklungsphase nicht. Forschende am Göttinger Max-Planck-Institut (MPI) für biophysikalische Chemie haben nun mit Kolleginnen und Kollegen am Friedrich-Loeffler-Institut, Institut für Nutztiergenetik in Mariensee und weiteren internationalen Teams ein neues Modellsystem entwickelt, mit dem sich die frühe embryonale Entwicklung untersuchen lässt. So fanden sie heraus, dass schon bei der Vereinigung des elterlichen Erbguts unmittelbar nach der Befruchtung häufig Fehler passieren. Dahinter steckt ein bemerkenswert ineffizienter Prozess.

Menschliche Körperzellen besitzen in der Regel 46 Chromosomen, die Träger der Erbinformation. 23 erhält jeder Mensch mit dem Spermium vom Vater, 23 mit der Eizelle von der Mutter. Nach der Befruchtung liegen die elterlichen Chromosomen in der Eizelle zunächst in zwei getrennten Zellkernen vor, die man als Vorkerne bezeichnet. Diese bewegen sich langsam aufeinander zu, bis sie sich berühren. Danach löst sich die Hülle der Vorkerne auf, die elterlichen Chromosomen vereinigen sich. Soweit die Theorie.

Die überwiegende Zahl menschlicher Embryonen erhält allerdings eine falsche Zahl an Chromosomen. Diese Embryonen sind meistens nicht überlebensfähig. Damit ist eine fehlerhafte Chromosomenverteilung ein Hauptgrund für Fehlgeburten und Unfruchtbarkeit.

„Bei etwa 10 bis 20 Prozent der Embryonen, die eine fehlerhafte Chromosomenzahl aufweisen, bringt bereits die Eizelle zu wenige oder zu viele Chromosomen mit. Das war uns schon bekannt“, erläutert Melina Schuh, Direktorin am MPI für biophysikalische Chemie. „Wieso aber tritt das Problem bei noch viel mehr Embryonen auf? Die Zeit direkt nach der Vereinigung von Spermium und Eizelle – das sogenannte Zygoten-Stadium – schien eine extrem kritische Phase für die Entwicklung eines Embryos zu sein. Wir wollten herausfinden, warum das so ist.“

Erkenntnisse aus einem neuen Modellsystem
Für ihre Untersuchungen werteten die Wissenschaftlerinnen und Wissenschaftler zum einen Mikroskopie-Videos menschlicher Zygoten aus, die ein Labor in England aufgenommen hatte. Zum anderen machten sie sich auf die Suche nach einem neuen Modellorganismus, mit dem sich die frühe Embryonalentwicklung detailliert untersuchen lässt. „Wir haben gemeinsam mit unseren Kooperationspartnern am Institut für Nutztiergenetik ein System in Rinder-Embryonen entwickelt, da deren frühe Entwicklung der menschlichen stark ähnelt“, erläutert Tommaso Cavazza, Wissenschaftler in Schuhs Abteilung. „Der zeitliche Ablauf der ersten Zellteilungen ist beispielsweise vergleichbar, außerdem verteilen sich Chromosomen in Rinder-Embryonen etwa ebenso häufig fehlerhaft wie in menschlichen Embryonen.“ Ein weiterer Vorteil: Die Eizellen, aus denen sich die Rinder-Embryonen entwickelten, erhielten die Wissenschaftler aus Schlachtabfällen. Für das neue Modellsystem müssen also nicht eigens Tiere geopfert werden.

Schuhs Team befruchtete die Rinder-Eizellen im Reagenzglas und verfolgte anschließend mittels Lebend-Zell-Mikroskopie, wie sich das elterliche Erbgut vereint. Wie sie herausfanden, versammeln sich die elterlichen Chromosomen an der Grenzfläche der beiden Vorkerne. Bei manchen Zygoten beobachteten die Forschenden allerdings, dass einzelne Chromosomen aus der Reihe tanzten. In der Folge gingen diese bei der Vereinigung des Erbguts quasi verloren, sodass die entstehenden Kerne zu wenige Chromosomen besaßen. Diese Zygoten zeigten bald Entwicklungsdefekte.

„Das Ansammeln der Chromosomen an der Vorkern-Grenzfläche scheint ein extrem wichtiger Schritt zu sein“, erklärt Cavazza. „Denn wenn es nicht klappt, passieren in der Zygote folgenschwere Fehler.“

Abhängig von einem ineffizienten Prozess
Doch wie kommt es, dass sich die Chromosomen oft nicht korrekt versammeln? Auch das konnten die Max-Planck-Forschenden aufdecken, wie Cavazza berichtet: „Bestandteile des Zellskeletts und der Kernhülle orchestrieren, wohin sich die Chromosomen innerhalb der Vorkerne bewegen. Interessanterweise sind das dieselben Elemente, die auch dafür sorgen, dass sich die beiden Vorkerne aufeinander zu bewegen. Wir haben es also mit zwei eng verknüpften Vorgängen zu tun, die lebenswichtig sind, aber häufig fehlerhaft ablaufen. Dass sich ein Embryo gesund entwickelt, hängt damit von einem bemerkenswert ineffizienten Prozess ab.“

Die Ergebnisse der Wissenschaftlerinnen und Wissenschaftler sind auch für die künstliche Befruchtung beim Menschen relevant. Hier diskutiert man schon länger, ob die Ansammlung der sogenannten Kernkörperchen an der Vorkern-Grenzfläche als Indikator für die Chance auf eine erfolgreiche Befruchtung nutzen sollte: Zygoten, bei denen sich diese Bestandteile der Vorkerne allesamt an der Grenzfläche sammeln, haben bessere Entwicklungschancen und könnten bevorzugt für eine Kinderwunschbehandlung verwendet werden. „Unsere Beobachtung, dass sich auch die Chromosomen an der Grenzfläche sammeln müssen, um eine gesunde Entwicklung des Embryos zu garantieren, stützt dieses Auswahlkriterium“, so Schuh.

Wissenschaftliche Ansprechpartner:
Dr. Melina Schuh, Abteilung Meiose
Max-Planck-Institut für biophysikalische Chemie
Tel.: 0551 201-26000
E-Mail: melina.schuh@mpibpc.mpg.de

Originalpublikation:
Cavazza T, Takeda Y, Politi AZ, Aushev M, Aldag P, Baker C, Choudhary M, Bucevičius J, Lukinavičius G, Elder K, Blayney M, Lucas-Hahn A, Niemann H, Herbert M, Schuh M: Parental genome unification is highly error-prone in mammalian embryos. Cell (2021).
https://doi.org/10.1016/j.cell.2021.04.013

Weitere Informationen:
https://www.mpibpc.mpg.de/17816775/pr_2112 – Original-Pressemitteilung
https://www.mpibpc.mpg.de/de/mschuh – Webseite der Abteilung Meiose, Max-Planck-Institut für biophysikalische Chemie

(nach oben)


Schadstoffabbau und Treibhausgas-Verringerung: Neue Studie zur Funktionsweise aquatischer Ökosysteme

Christian Wißler Pressestelle
Universität Bayreuth
Die Funktionen wassergeprägter Ökosysteme können durch hydrologische Schwankungen erheblich beeinflusst und verändert werden. Von entscheidender Bedeutung sind dabei die variierenden Zustände redoxaktiver Substanzen. Dies haben Forscher*innen der Universität Bayreuth in Kooperation mit Partnern an den Universitäten Tübingen und Bristol sowie am Umweltforschungszentrum Halle-Leipzig herausgefunden. In der Zeitschrift „Nature Geoscience“ stellen sie ihre Entdeckung vor. Die neue Studie ermöglicht ein genaueres Verständnis biogeochemischer Prozesse, die zum Abbau von Schadstoffen und zur Verringerung von Treibhausgas-Emissionen beitragen.

Die Entstehung von Treibhausgasen zu verringern, Kohlenstoff zu speichern, Umweltschadstoffe wie Nitrat zu beseitigen und qualitativ hochwertiges Trinkwasser zu liefern – dies sind wichtige Dienstleistungen von Ökosystemen, die vom Wasser geprägt sind, wie beispielsweise Seen, Bäche, Sumpf- und Moorlandschaften. Die Funktionen solcher aquatischer Ökosysteme sind eng mit den Kreisläufen von Sauerstoff, Stickstoff, Kohlenstoff und anderen Elementen in der Natur verknüpft. Seit langem ist bekannt, dass es sich bei den Elementkreisläufen um vernetzte biogeochemische Vorgänge handelt, die von hydrologischen Schwankungen erheblich beeinflusst werden können. Beispiele hierfür sind Schwankungen des Wasserspiegels in Feuchtgebieten, Mooren und im Grundwasser oder veränderte Strömungsrichtungen des Grundwassers.

Dem von Prof: Dr. Stefan Peiffer an der Universität Bayreuth geleiteten Forschungsteam ist es nun gelungen, die Abhängigkeit der Elementkreisläufe von hydrologischen Fluktuationen genauer zu verstehen. Wie sich in zahlreichen Laborstudien herausgestellt hat, haben redoxaktive Substanzen dabei eine Schlüsselfunktion. „Wer einmal durch einen Sumpf gestapft ist oder an einem Badesee im Sand gewühlt hat, dem sind diese Substanzen aufgrund ihrer Farbenvielfalt aufgefallen. Auf engstem Raum wechseln sich Farbtöne ab, die von tiefschwarz über grau und braun bis zu hellrot reichen. Dahinter verbirgt sich ein Wechselspiel von mikrobiologischen und chemischen Vorgängen, bei denen Elektronen übertragen werden. Wir bezeichnen sie in der Forschung als Redoxreaktionen“, sagt Peiffer.

Eine vergleichsweise einfache Form von Redoxreaktionen ist die Atmung von Menschen und Tieren: Kohlenstoff wird dabei durch Sauerstoff zu Kohlendioxid oxidiert. Bei mikrobiell getriebenen Redoxreaktionen, die beispielsweise in einem Sumpf ablaufen, wird die Rolle des Sauerstoffs von einer Vielzahl redoxaktiver Substanzen übernommen – von Eisen-, Schwefel- und Manganverbindungen oder von Huminstoffen. Die Lebensdauer dieser Substanzen ist sehr kurz, aber sie zeigen eine sehr starke Tendenz, Redoxreaktionen einzugehen. Sie werden daher als „redoxaktive metastabile Phasen“ (RedoxActive Metastable Phases, RAMPs) bezeichnet. Aufgrund ihrer hohen Reaktionsbereitschaft haben RAMPs einen großen Anteil an den Elementkreisläufen in Ökosystemen: Sie sind beispielsweise in der Lage, Schadstoffe wie Nitrat oder verschiedene organische Chemikalien abzubauen.

Ein Grund für die kurze Lebensdauer von RAMPs ist ein ständiger Wechsel zwischen elektronenabgebenden und elektronenaufnehmenden Bedingungen. Die in „Nature Geoscience“ veröffentlichte Studie kommt nun zu einem für die Ökologie und Umweltforschung entscheidenden Ergebnis: Die Dynamik der Redoxreaktivität von RAMPs wird durch hydrologische Schwankungen ausgelöst, die an Uferzonen, in Feuchtgebieten, in staunassen Böden, in Reisböden oder an den Oberflächen von Sedimenten in Seen und Flüssen auftreten. Diese biogeochemischen Reaktionen im kleinen Maßstab beeinflussen wiederum die Reaktionen des Ökosystems im großen Maßstab, beispielsweise die Menge an Treibhausgasen, die an die Atmosphäre abgegeben werden. Damit wird erstmals verständlich, wie hydrologische Fluktuationen auf die Elementkreisläufe in der Natur und somit auf die Funktionen von Ökosystemen einwirken.

„Unsere Studie zeigt, dass biogeochemische Reaktionen im Maßstab von nur wenigen Mikrometern ein wichtiges Scharnier zwischen zwei großräumigen Vorgängen bilden: zwischen hydrologischen Schwankungen einerseits und Ökosystem-Funktionen andererseits. Unsere neuen Erkenntnisse werden daher in Zukunft helfen, den Schadstoffabbau in aquatischen Ökosystemen besser vorherzusagen. Auch die Folgen des Klimawandels für den Kohlenstoff- und Stickstoffumsatz in diesen Ökosystemen werden sich künftig genauer abschätzen lassen“, sagt Peiffer.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Peiffer
Direktor des Bayreuther Zentrums für Ökologie und Umweltforschung (BayCEER)
Lehrstuhl für Hydrologie
Universität Bayreuth
Telefon: +49 (0)921 55-2251
E-Mail: s.peiffer@uni-bayreuth.de

Originalpublikation:
S. Peiffer et al.: A biogeochemical–hydrological framework for the role of redox-active compounds in aquatic systems. Nature Geoscience (2021), DOI: https://dx.doi.org/10.1038/s41561-021-00742-z

(nach oben)


Beruflicher Erfolg beeinflusst die Persönlichkeit

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Eine Studie des Instituts für Psychologie der Universität Bern in Kooperation mit der Universität Gent ergibt, dass beruflicher Erfolg grundlegende Persönlichkeitseigenschaften verändern kann: Stiegen im Verlauf von acht Jahren das berufliche Prestige und Einkommen an, ging dies mit zunehmender emotionaler Stabilität und Offenheit für Erfahrungen sowie abnehmender Extraversion einher.

Persönlichkeitseigenschaften wurden in der wissenschaftlichen Psychologie lange Zeit als stabil angenommen. Die jüngere psychologische Forschung zeigt aber, dass sich die Persönlichkeit über die Lebensspanne verändert. Insbesondere können einschneidende Lebensereignisse (wie Scheidung, anhaltende Arbeitslosigkeit) oder wichtige soziale Rollen (wie Elternschaft, Art der Arbeitstätigkeit) die Persönlichkeitseigenschaften beeinflussen. Die aktuelle Studie unter der Leitung von Andreas Hirschi, Ordentlicher Professor für Arbeits- und Organisationspsychologie an der Universität Bern, untersuchte in diesem Zusammenhang den Einfluss des beruflichen Erfolgs auf die Persönlichkeit.

Forschungslücke geschlossen
Die bisherige Forschung zur beruflichen Laufbahn zeigte, dass bestimmte Persönlichkeits-eigenschaften wie emotionale Stabilität oder Gewissenhaftigkeit eine erfolgreiche Karriere begünstigen. Jedoch gab es bisher kaum Forschung dazu, ob beruflicher Erfolg umgekehrt auch zu Veränderungen in der Persönlichkeit führen kann.

Um diese Frage zu beantworten, analysierte die aktuelle Studie repräsentative Daten aus Deutschland von über 4’700 berufstätigen Erwachsenen, welche über einen Zeitraum von acht Jahren dreimal zu Berufserfolg und Persönlichkeit befragt wurden. Berufserfolg wurde anhand des erreichten beruflichen Prestiges der aktuellen Tätigkeit und des erzielten Einkommens gemessen. Die Persönlichkeit wurde anhand der grundlegenden Persönlichkeitseigenschaften Emotionale Stabilität, Extraversion, Offenheit für Erfahrungen, Verträglichkeit und Gewissenhaftigkeit erfasst – den «Big Five» in der Persönlichkeitspsychologie. Die Studie wurde vom Schweizerischen Nationalfonds unterstützt und im Journal of Vocational Behavior publiziert, der weltweit führenden wissenschaftlichen Zeitschrift für Laufbahnforschung. Der Erstautor Prof. Andreas Hirschi ist ein ausgewiesener Experte für Laufbahnforschung; er wurde für seine Beitrage auf diesem Gebiet 2020 mit dem «Mid-Career Award» der Careers Division der Academy of Management ausgezeichnet, dem weltweit führenden Berufsverband für Management- und Organisationswissenschaftlerinnen und -wissenschaftler. Prof. Filip De Fruyt von der Universität Gent wurde als Experte für Persönlichkeitsforschung ins Forschungsteam geholt.

Kleine Änderungen mit vielleicht grosser Wirkung
«Die Analysen zeigten, dass beruflich erfolgreichere Personen über die Zeit emotional stabiler und offener für Erfahrungen, aber weniger extravertiert wurden. Der Berufserfolg ging also einher mit mehr emotionaler Entspanntheit, besserem Umgang mit Stress und weniger Sorgenmachen», sagt Andreas Hirschi, Erstautor der Studie. Zudem wurden beruflich erfolgreichere Personen mit der Zeit offener im Denken und aktiver in ihrer Vorstellungskraft. Zugleich wurden sie distanzierter sowie weniger gesprächig und gesellig.

Es wurden keine Unterschiede zwischen Männern und Frauen oder Altersgruppen gefunden. Einschränkend muss festgehalten werden, dass die gefundenen Effekte relativ klein waren, die Veränderungen über den untersuchten Zeitraum also nicht sehr gross ausfielen. Jedoch könnten auch relativ kleine Veränderungen in den grundlegenden Persönlichkeitseigenschaften einen bedeutsamen langfristigen Effekt auf das Leben eines Menschen haben. So zeigt die Forschung zum Beispiel, dass Personen mit grösser emotionaler Stabilität eine geringere Sterblichkeitswahrscheinlichkeit aufweisen. «Die Ergebnisse unserer Studie sind besonders aussagekräftig, weil sie auf einer grossen bevölkerungsrepräsentativen Stichprobe beruhen, die über einen relativ langen Zeitraum begleitet wurde», fügt Co-Autor Ulrich Orth hinzu. Orth ist Ausserordentlicher Professor für Entwicklungspsychologie an der Universität Bern und hat für seine Forschung im Bereich Selbstwert- und Persönlichkeitsentwicklung den Mid-Career Award 2020 der European Association of Personality Psychology erhalten.

Neue Perspektive auf die Rolle von Erfolg im Leben
«Die Studie illustriert, dass Persönlichkeitseigenschaften nicht nur den Berufserfolg bestimmen, sondern Erfolg auch die Persönlichkeit verändern kann. Das gibt eine neue Perspektive auf die Rolle von Erfolg im Leben», fasst Andreas Hirschi die Ergebnisse der Studie zusammen.

Die Studie leiste somit einen wichtigen Beitrag zur Laufbahnforschung und Erforschung von Laufbahnerfolg. Sie zeige zudem, dass die Persönlichkeit über die Lebensspanne veränderbar ist und durch wichtige Lebenserfahrungen wie beruflichen Erfolg geprägt und verändert werden kann.

Abteilung Arbeits- und Organisationspsychologie am Institut für Psychologie
Die Abteilung Arbeits- und Organisationspsychologie befasst sich mit Arbeit und Berufstätigkeit als zentrale Lebensbereiche. Im Zentrum von Forschung und Lehre steht, wie Arbeitserfahrungen positiv und sinnhaft über die Lebensspanne gestaltet werden können. Themen sind die erfolgreiche Laufbahnentwicklung über die Lebensspanne, Berufswahl und Laufbahnberatung, Arbeit und Gesundheit sowie Arbeit und Sicherheit. Die Abteilung gehört zu den international renommiertesten Institutionen in der Laufbahnforschung.

Wissenschaftliche Ansprechpartner:
PROF. DR. ANDREAS HIRSCHI
Institut für Psychologie, Abteilung Arbeits- und Organisationspsychologie, Universität Bern
Telefon: +41 31 631 40 45 (Sekretariat)
E-Mail-Adresse: andreas.hirschi@psy.unibe.ch

Originalpublikation:
Hirschi, A., Johnston, C. S., De Fruyt, F., Ghetta, A., & Orth, U. (2021). Does success change people? Examining objective career success as a precursor for personality development. Journal of Vocational Behavior, 103582. https://doi.org/10.1016/j.jvb.2021.103582

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2021/medi…

Anhang
Medienmitteilung als PDF

(nach oben)


Mehr Widerstandskraft für die Schweizer Energieversorgung

Dr. Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
Heute startet das neue Forschungsprojekt SURE (SUstainable and Resilient Energy for Switzerland). In den nächsten sechs Jahren untersuchen Forschende aus zehn Institutionen unter Federführung des Paul Scherrer Instituts PSI, wie die Energieversorgung in der Schweiz in den kommenden Jahrzehnten möglichst nachhaltig und störungsfrei erfolgen kann.

Am 8. Januar dieses Jahres kam es im Europäischen Stromnetz zu einem Zwischenfall, der zu einem Blackout in Europa hätte führen können. Nur durch gemeinsame Anstrengungen aller Stromnetzbetreiber und gezielte Abschaltung von Verbrauchern in Frankreich und Italien konnte ein flächendeckender Zusammenbruch der Stromversorgung verhindert werden. Ursache für das beinahe eingetretene Unglück: Im europäischen Übertragungsnetz kam es aufgrund von Ausfällen mehrerer Netzbetriebsmittel innerhalb kurzer Zeit zu einer Entkopplung von Teilnetzgebieten, die etwa eine Stunde dauerte.

Dies, wie auch andere frühere Vorfälle, zeigt: Selbst in hoch entwickelten Ländern kann es zu schweren Störungen der Energieversorgung kommen. Dabei ist die Energiewirtschaft im Umbruch. Die Schweiz hat mit der Energiestrategie 2050 einen schrittweisen Ausstieg aus der Kernenergie beschlossen bei gleichzeitiger Erhöhung der Energieeffizienz und Ausbau der erneuerbaren Energien. Zudem möchte das Land ab 2050 unter dem Strich keine Treibhausgase mehr ausstossen.

Was aber, wenn es wieder zu einem technischen Ausfall oder zu politischen oder ökonomischen Schocks kommt? Diese Frage stellen sich zehn Institutionen im Forschungsprojekt SURE (SUstainable and Resilient Energy for Switzerland), das mit sechs Millionen Schweizer Franken gefördert wird. Es ist eines von vier Projekten in der ersten Ausschreibung des neuen Förderprogramms SWEET (SWiss Energy research for the Energy Transition) des Bundesamtes für Energie.

Die Forschenden untersuchen in den kommenden sechs Jahren ausgewählte Ereignisse, die das Schweizer Energiesystem der Zukunft beeinflussen könnten, und wie man die Versorgung so gestaltet, dass sie möglichst widerstandsfähig und anpassungsfähig sowie nachhaltig ist. «Neben Nachhaltigkeit sind Versorgungssicherheit und Unabhängigkeit zentrale Themen für die Schweizer Energieversorgung», sagt Tom Kober, Leiter der Gruppe Energiewirtschaft im Labor für Energiesystemanalysen am Paul Scherrer Institut PSI und Koordinator von SURE.

Nicht nur Katastrophen sind entscheidend
Schocks – Tom Kober spricht lieber von „disruptiven Ereignissen“ – können ganz unterschiedliche Ursachen haben. So könnten wichtige Energieinfrastrukturen aufgrund technischer oder energiepolitischer Einschränkungen nicht voll verfügbar sein oder extreme Wettererscheinungen die Stromproduktion in der Schweiz zumindest zeitweise substanziell beeinträchtigen.

Doch nicht immer sind es Katastrophen, die die Energieversorgung einschränken. Infrastrukturprojekte im Energiebereich – Beispiele hierfür sind Wasserkraftwerke, tiefengeothermische Anlagen und grosse Photovoltaikanlagen – machen es immer wieder deutlich: Auch die Akzeptanz der Bevölkerung oder regulatorische Rahmenbedingungen und die Ausgestaltung von Förderinstrumenten sind entscheidend, wenn sich eine Technologie durchsetzen soll. Auch diese Aspekte spielen deshalb für die Resilienz des zukünftigen Energiesystems eine wichtige Rolle.

Deshalb ist in SURE von Beginn an ein enger Austausch mit 16 Partnern aus der Praxis vorgesehen, darunter Kommunen, Energieversorger und Politik. Drei Fallstudien – im Tessin, in Zürich und im Raum Basel – sollen unterschiedliche Aspekte vertiefen, in Basel etwa die Nachhaltigkeit und Resilienz der Energieversorgung für die dort angesiedelte Industrie. Gemeinsam veranstalten die Partner regelmässige Workshops, bei denen Forschungsziele und Bedürfnisse der Praktiker aufeinander abgestimmt und strategische Instrumente für die Unterstützung von Entscheidungsträgern entwickelt werden.

Geplant ist unter anderem eine Online-Plattform, die einem breiten Publikum helfen soll, die Abhängigkeiten der verschiedenen Dimensionen von Nachhaltigkeit und Resilienz zu verstehen und die Zielkonflikte zwischen konkurrierenden Massnahmen einer nachhaltigen und resilienten Transformation des Energiesektors aufzuzeigen. SURE strebt an, mit Empfehlungen und Richtlinien politische Entscheidungsträger, Technologieentwickler und Unternehmen bei der Gestaltung ihrer jeweiligen Strategien für eine nachhaltigere und widerstandsfähigere Energiezukunft zu unterstützen.

Neuland mit ganzheitlichen Modellansätzen
Mit SURE betreten die Forschungspartner wissenschaftliches Neuland. Zwar hat die Modellierung von Energieszenarien im Computer lange Tradition, unter anderem war dies Thema von Projekten im Förderprogramm SCCER (Swiss Competence Centers for Energy Research), das im vergangenen Jahr ausgelaufen ist. Aber diese Art von weit in die Zukunft reichenden Schockszenarien ­– bis 2035 oder sogar bis 2050 – kombiniert mit einem breit auf Indikatoren gestützten Analyseansatz gibt es für die Schweiz noch nicht. Und noch nie waren die Rechenmodelle für so unterschiedliche Aspekte wie Infrastruktur, erneuerbare Energien, Energieeffizienz, Nachhaltigkeit, Versorgungssicherheit und Wirtschaftlichkeit eng zu einem systemischen Ansatz miteinander gekoppelt. «Das ist ein Novum und dafür wollen wir unsere quantitativen Modelle und Indikatoren weiterentwickeln», sagt Tom Kober. SURE kooperiert dazu auch eng mit den drei anderen SWEET-Projekten, die sich mit Innovationen auf dem Gebiet der erneuerbaren Energien zur Umsetzung der Energiestrategie 2050 beschäftigen.

In SWEET haben sich neun renommierte Forschungsinstitutionen der Schweiz zusammengefunden, darunter die ETH Zürich und die EPFL in Lausanne sowie als einziger ausländischer Partner das Beratungsunternehmen E3-Modelling in Athen, das international bekannt ist für seine Modelle für techno-ökonomische Zusammenhänge auf europäischer und weltweiter Ebene.

Das Konsortium des SURE-Projektes umfasst folgende Forschungspartner, die durch das SWEET-Programm des Bundesamtes für Energie gefördert werden:

– Paul Scherrer Institut
– Eidgenössische Technische Hochschule Zürich
– École polytechnique fédérale de Lausanne
– Università della Svizzera italiana
– TEP Energy GmbH
– University of Applied Sciences and Arts of Southern Switzerland
– Universität Bern
– Université de Genève
– Zürcher Hochschule für Angewandte Wissenschaften
– E3-Modelling S.A

Text: Bernd Müller

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 400 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.

Wissenschaftliche Ansprechpartner:
Dr. Tom Kober
Leiter der Gruppe Energiewirtschaft
Labor für Energiesystemanalysen
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 26 31
E-Mail: tom.kober@psi.ch [Deutsch, Englisch]

Weitere Informationen:
http://psi.ch/node/45019 – Darstellung der Mitteilung auf der Webseite des PSI und Bildmaterial
https://www.bfe.admin.ch/bfe/de/home/forschung-und-cleantech/foerderprogramm-swe… – Förderprogramm SWEET

(nach oben)


Ausgezeichnete Klimaaktivitäten als Blaupause für Kommunen

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik
Online-Publikation und Videoclips über erfolgreiche Klimaschutz-Projekte in Kommunen laden zum Nachmachen ein.

Klimaschutz und Maßnahmen zur Anpassung an den Klimawandel sind vielfältig. Die neue Online-Publikation „Ausgezeichnete Praxisbeispiele“ zeigt eine breite Palette erfolgreicher Projekte des Wettbewerbs „Klimaaktive Kommune 2020“ – vom Strombilanzkreismodell bis zum Einsatz einer neuen, klimarobusten Energie-Pflanze. Die Beispiele aus zehn ausgezeichneten Kommunen zeigen, wie es gehen kann.

Die Städte Aalen, Bremerhaven, Dresden, Geisa, München und Osnabrück sowie der Main-Taunus-Kreis, der Rems-Murr-Kreis, der Kreis Steinfurt und der Landkreis St. Wendel haben mit ihren vorbildlichen Projekten beim Wettbewerb „Klimaaktive Kommune 2020“ gewonnen. In den Bereichen Ressourcen- und Energieeffizienz, Klimaanpassung, Klimaaktivitäten zum Mitmachen und gemeinsame Aktivitäten von Jugend und Kommune bieten sie damit vielen anderen Kommunen gute Ideen und damit Blaupausen. Nachfragen zur Umsetzung sind ausdrücklich erwünscht – zu jedem Projekt ist eine Kontaktperson genannt.

Die Publikation kann kostenfrei als PDF heruntergeladen werden: https://difu.de/16593

#Klimaschutzbraucht – Motivation und Vorbilder auch in kurzen Videoclips
Die Kurzfilm-Reihe #Klimaschutzbraucht… gibt Kommunen weitere Impulse, um eigene Klimaaktivitäten anzugehen, zu verstärken und voranzutreiben. Das kann zu weiteren Maßnahmen für den kommunalen Klimaschutz motivieren. Die inhaltliche Bandbreite der Filme reicht vom Thema Klimakommunikation „Stichwort Aufmerksamkeit“ über erneuerbare Energie- und Wärmegewinnung bis zu Ressourcenschutz und Klimaanpassung als wichtiges Pendant zum Klimaschutz.

Alle Filmclips sind unter https://klimaschutz.de/motivationsfilme zu finden.

Der Text ist selbstverständlich frei zur Weiternutzung. Über ein Belegexemplar/Beleglink an presse@difu.de würden wir uns sehr freuen.

Wissenschaftliche Ansprechpartner:
Anna Hogrewe-Fuchs
hogrewe-fuchs@difu.de
+49 221 340308-16

Ulrike Vorwerk
vorwerk@difu.de
+49 221 340308-17

Originalpublikation:
https://difu.de/16593

Weitere Informationen:
https://www.klimaschutz.de/motivationsfilme (Kurzfilme #Klimaschutzbraucht …)
http://difu.de/16596 (Pressemappe)

(nach oben)


Bioraffinerie am Bauernhof der Zukunft

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Eine Bioraffinerie-Farm errichten das Karlsruher Institut für Technologie (KIT) und die Universität Hohenheim. Mit ihrer gemeinsamen Initiative zielen sie auf wirtschaftliche und nachhaltige technische Lösungen zur Verwertung von biogenen Reststoffen: Kleine Bioraffinerien, angesiedelt an Bauernhöfen, liefern Materialien und Energieträger, schließen Kreisläufe vor Ort und tragen dazu bei, Natur und Klima zu schützen. An der Versuchsstation „Unterer Lindenhof“ der Universität Hohenheim bauen die Partner eine bestehende Bioraffinerie-Anlage aus und führen technologische Innovationen zusammen.

Eine Bioraffinerie-Farm errichten das Karlsruher Institut für Technologie (KIT) und die Universität Hohenheim. Mit ihrer gemeinsamen Initiative zielen sie auf wirtschaftliche und nachhaltige technische Lösungen zur Verwertung von biogenen Reststoffen: Kleine Bioraffinerien, angesiedelt an Bauernhöfen, liefern Materialien und Energieträger, schließen Kreisläufe vor Ort und tragen dazu bei, Natur und Klima zu schützen. An der Versuchsstation „Unterer Lindenhof“ der Universität Hohenheim bauen die Partner eine bestehende Bioraffinerie-Anlage aus und führen technologische Innovationen zusammen.

Auf dem Bauernhof der Zukunft entstehen neben herkömmlichen landwirtschaftlichen Produkten auch Basischemikalien aus pflanzlicher Biomasse. Die Basischemikalien dienen als Ausgangsstoffe für Kunststoffe und Kraftstoffe, die an anderer Stelle erzeugt werden. Reststoffe aus diesen Prozessen werden wiederum in einer Biogasanlage energetisch verwertet und landen als Dünger wieder auf dem Feld. Dies ist die Vision von Forschenden um Professorin Andrea Kruse vom Fachgebiet Konversionstechnologien nachwachsender Rohstoffe der Universität Hohenheim und Professor Nicolaus Dahmen vom Institut für Katalyseforschung und -technologie des KIT. Gemeinsam wollen sie eine Bioraffinerie-Farm errichten, die pflanzliche Reststoffe und Nebenprodukte der Landwirtschaft nutzt, um ohne Konkurrenz zur Nahrungsmittelproduktion eine breite Palette von Materialien und Energieträgern herzustellen.

„Werden verschiedene Prozesse effizient hintereinandergeschaltet, lässt sich Biomasse entlang der ganzen Wertschöpfungskette zu Lebensmitteln, Futtermitteln, Werkstoffen, Materialien, Chemikalien und Energie veredeln“, sagt Dahmen. Bioraffinerien überzeugen jedoch nicht nur durch die gleichzeitige Herstellung mehrerer Produkte, sondern tragen auch zum Schutz von Natur und Klima bei. „Wenn aus Biomasse Kunststoffe, neue Materialien oder Kraftstoffe hergestellt werden, wird Kohlenstoff gebunden“, erläutert Kruse. „Werden diese biogenen Produkte dann am Ende ihrer Nutzungsdauer zur Energieerzeugung verbrannt, wird nur dieselbe Menge an Kohlendioxid freigesetzt, die auch beim Verrotten des pflanzlichen Ausgangsmaterials entstehen würde. So können nicht nur fossile Brennstoffe, sondern auch CO2-Emissionen eingespart werden.“

Technikum verarbeitet Biomasse zu Plattformchemikalien
Ein wesentliches Ziel dieses Projekts im laufenden Wissenschaftsjahr 2020/21 – Bioökonomie des Bundesministeriums für Bildung und Forschung ist, Energie- und Stoffkreisläufe vor Ort zu schließen. „Im Wesentlichen geht es um eine vielseitige Kombination von chemisch-physikalischen Verfahrenstechniken mit biologischen und biotechnologischen Prozessen“, sagt Dahmen. Dazu bauen die Karlsruher und die Hohenheimer Forschenden eine bestehende Bioraffinerie-Anlage an der Versuchsstation „Unterer Lindenhof“ der Universität Hohenheim aus. Der Betrieb des Technikums wird die möglichst vollständige stoffliche Verarbeitung von Biomasse zu Plattformchemikalien demonstrieren.

Holz, Stroh und Gräser enthalten Lignocellulose als Stützsubstanz. In der Bioraffinerie wird diese aufgespalten; die einzelnen Komponenten Cellulose, Hemicellulose und Lignin werden separat verwertet. Ein Karlsruher Verfahren zur Ligninspaltung wird dabei mit einem Hohenheimer Verfahren zur Verwertung von Lignocellulose gekoppelt. Hier entstehen unter anderem Furfural und Phenole, mit denen sich beispielsweise biogene und damit formaldehydfreie Spanplatten und Sperrholz herstellen lassen.

Ein weiteres Beispiel für den Ansatz, Biomasse dezentral in Zwischenprodukte umzusetzen und diese zentral weiterzuverarbeiten, ist das bioliq®-Verfahren des KIT: Aus trockener Biomasse werden synthetische Kraftstoffe und chemische Grundprodukte hergestellt. Als Nebenprodukte entstehen Wärme und Strom, die den Energiebedarf des Prozesses decken. Um energie- und kostenaufwendige Transportwege einzusparen, kombiniert das bioliq®-Konzept die dezentrale Erzeugung eines energiereichen Zwischenprodukts, genannt Biosyncrude, mit dessen zentraler Umwandlung zu Synthesegas. Dieses wird anschließend zum gewünschten Endprodukt veredelt.

Mit der Koppelung von Lebensmittelproduktion und Kunststoffherstellung für Verpackungen beschäftigen sich die On-farm-Bioraffinerie-Konzepte von Professorin Andrea Kruse in Hohenheim. Aus Biomasse entsteht beispielsweise Hydroxymethylfurfural (HMF). Daraus lassen unter anderem Lebensmittelverpackungen, Getränkeflaschen, Fasern für Autositze, Sportbekleidung oder Autoteile herstellen.

Kleine Anlagen gewährleisten Nachhaltigkeit auf regionaler Ebene
Die Bioraffinerie auf einem Bauernhof soll allerdings nicht alle Verfahrensschritte in einer Anlage vereinen. Ziel sind möglichst kleine Anlagen, aus denen Nährstoffe direkt vom jeweiligen Hof wieder auf die Felder gelangen können. Damit auch kleine Anlagen wirtschaftlich arbeiten, werden die Zwischenprodukte in größeren Fabriken weiterverarbeitet. So soll Nachhaltigkeit auf regionaler Ebene gewährleistet werden. (or)

Details zum KIT-Zentrum Energie: https://www.energie.kit.edu

Kontakt für diese Presseinformation:
Margarete Lehné, stellv. Pressesprecherin, Tel.: +49 721 608-41157, E-Mail: margarete.lehne@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Weitere Informationen:
https://www.kit.edu/kit/pi_2021_038_bioraffinerie-am-bauernhof-der-zukunft.php

(nach oben)


Grippeschutzimpfung: Neue Richtlinie verbessert Versorgung älterer Menschen

Nina Meckel Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Die seit dem 1. April 2021 geltende Schutzimpfungs-Richtlinie des Bundesgesundheitsministeriums stellt klar: Gesetzlich Versicherte ab 60 Jahren sollen im Rahmen ihrer Grippeschutz-Impfung den Hochdosis-4-fach-Influenzaimpfstoff erhalten. Die Deutsche Gesellschaft für Geriatrie (DGG) begrüßt die neue Richtlinie sehr, sieht aber noch weiteres Verbesserungspotenzial.

In den letzten Monaten hat sich in Deutschland bereits einiges getan in puncto Versorgungssicherheit älterer Menschen: Zunächst wurde der Hochdosis-4-fach-Influenzaimpfstoff für Personen ab 65 Jahren zugelassen, Ende Februar wurde die Zulassung auf die 60- bis 64-Jährigen erweitert. „Aus geriatrischer Perspektive sind das sehr positive Entwicklungen, denn sie tragen den besonderen Bedürfnissen älterer Menschen besser Rechnung. Denn zum einen sind die Älteren besonders gefährdet, eine Influenza-Infektion zu entwickeln, zum anderen haben sie eine deutlich höhere Sterblichkeit, wenn sie infiziert sind. Bis zu 90 Prozent aller Grippe-Toten sind älter als 60 Jahre“, erklärt Dr. Anja Kwetkat, Direktorin der Klinik für Geriatrie am Universitätsklinikum Jena und Sprecherin der DGG-Arbeitsgruppe Impfen. Gleichzeitig sinke die Wirksamkeit der Grippeimpfung mit zunehmendem Lebensalter, so die Geriaterin. Der neue Hochdosis-Impfstoff, der im Vergleich zum normalen Influenza-Impfstoff die vierfache Antigenmenge enthält, wirkt dem durch seine stärkere Wirksamkeit entgegen.

Empfehlung weiterer stärker wirksamer Impfstoffe könnte Versorgungslage weiter verbessern
Dennoch sieht Dr. Kwetkat Verbesserungspotenzial bei der Grippeimpfung älterer Menschen hierzulande: „Neben dem Hochdosis-Impfstoff gibt es weitere Grippe-Impfstoffe mit einer verbesserten Wirksamkeit bei Älteren. Diese könnten z. B. eingesetzt werden, um eventuelle Versorgungsengpässe auszugleichen.“ Diese sind durchaus zu befürchten, da es für den Hochdosis-Impfstoff nur einen einzigen Hersteller gibt. Die Ständige Impfkommission STIKO bescheinigt in ihrer wissenschaftlichen Stellungnahme dem adjuvantierten 4-fach-Influenza-Impfstoff ebenfalls eine bessere Wirksamkeit, kritisiert aber die bisher weniger gute Datenlage als beim Hochdosis-Impfstoff. „In Großbritannien etwa belegen die sogenannten Real World Data, dass der adjuvantierte Impfstoff eine überlegene Wirksamkeit gegenüber dem Standard-Impfstoff hat, denn dort wurde er bereits für die Älteren empfohlen und entsprechend eingesetzt. Wenn man diesen Impfstoff hierzulande zumindest bei Engpässen als Ersatz nutzen würde, wäre das aus meiner Sicht die bessere Alternative, als sich in diesem Falle nur auf den Standard-Impfstoff zu stützen – mit den bekannten Nachteilen“, so die Geriaterin.

Pressekontakt der DGG
Nina Meckel
medXmedia Consulting KG
Nymphenburger Str. 19
80335 München
Tel: +49 (0)89 / 230 69 60 69
Fax: +49 (0)89 / 230 69 60 60
E-Mail: presse@dggeriatrie.de

Deutsche Gesellschaft für Geriatrie (DGG)
Die Deutsche Gesellschaft für Geriatrie (DGG) ist die wissenschaftliche Fachgesellschaft der Ärzte, die sich auf die Medizin der späten Lebensphase spezialisiert haben. Wichtige Schwerpunkte ihrer Arbeit sind unter anderem Bewegungseinschränkungen und Stürze, Demenz, Inkontinenz, Depressionen und Ernährungsfragen im Alter. Häufig befassen Geriater sich auch mit Fragen der Arzneimitteltherapie von alten Menschen und den Wechselwirkungen, die verschiedene Medikamente haben. Bei der Versorgung geht es darum, den alten Menschen ganzheitlich zu betreuen und ihm dabei zu helfen, so lange wie möglich selbstständig und selbstbestimmt zu leben. Die DGG wurde 1985 gegründet und hat heute rund 1.700 Mitglieder.

Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen/1778-pm-grippeschutzimpfung-ne…

Anhang
Grippeschutzimpfung: Neue Richtlinie verbessert Versorgung älterer Menschen

(nach oben)


Mehr Gemüse, weniger Milch

Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Weltweit werden die natürlichen Ressourcen für die Ernährung immer knapper. Unterschiedliche politische Initiativen zielen darauf ab, in den nächsten Jahren den ökologischen Fußabdruck des Lebensmittelkonsums zu verringern und Lebensmittelverschwendung zu verhindern. Hanna Helander von der Professur für Gesellschaftliche Transformation und Kreislaufwirtschaft hat zusammen mit Kolleginnen und Kollegen die Umweltauswirkungen verschiedener Ernährungsstile sowie die damit einhergehende Abfallvermeidung hierzulande untersucht.

Ihre Ergebnisse zeigen, dass eine Umstellung auf eine pflanzenbasierte Ernährung den ökologischen Fußabdruck in Deutschland deutlich verringern könnte. Die Studie ist in der Fachzeitschrift „Environmental Research Letters“ erschienen.

Die Bundesrepublik Deutschland hat sich zum Ziel gesetzt, bis 2030 die Lebensmittelverschwendung in Konsum und Vertrieb zu halbieren. In ihrer Analyse betrachten die Forschenden drei Szenarien einer ernährungsphysiologisch sinnvollen, pflanzenbasierten Ernährungsweise und vergleichen diese miteinander. Zum einen begutachten sie die Empfehlung der Deutschen Gesellschaft für Ernährung, die Fleischkonsum vorsieht. Zum anderen untersuchen sie den Vorschlag der EAT Lancet Kommission für eine Ernährung innerhalb der Belastungsgrenzen der Erde, die weniger Fleisch erlaubt. Die EAT Lancet Kommission ist ein Zusammenschluss von 37 Wissenschaftlerinnen und Wissenschaftlern aus der ganzen Welt, die erforschen, wie sich eine zukünftige Bevölkerung von zehn Milliarden Menschen innerhalb der ökologischen Ressourcen der Erde gesund ernähren kann. Als drittes betrachten Helander und ihre Kollegen eine vegetarische Variante der EAT Lancet Ernährungsweise.

Mithilfe eines Berechnungsmodells für Lebensmittel und Landwirtschaft hat das Team die Biomasse-, Ackerland- und Blauwasser-Fußabdrücke der globalen Lieferketten zu den Ernährungsszenarien erfasst. Als blaues Wasser wird die Wassermenge bezeichnet, die in der Industrie und im häuslichen Gebrauch zur künstlichen Bewässerung oder zur Herstellung von Produkten benötigt wird.

Die Ergebnisse zeigen, dass eine milcharme, vegetarische Ernährung besonders effektiv wäre, um den Biomasse-Fußabdruck bis zu 61 Prozent und den Ackerland-Fußabdruck bis zu 48 Prozent zu verringern. Die Halbierung der Lebensmittelabfälle hätte eine Einsparung der Biomasse- und Ackerland-Fußabdrücke von 11 Prozent respektive 15 Prozent zur Folge. „Zwar ließen sich mit einer vegetarischen Ernährung fast die Hälfte der Flächen für die Lebensmittelproduktion einsparen, der Einfluss auf das blaue Wasser wäre aber leider gering. Um diesen Verbrauch zu senken, wäre es hilfreicher, Lebensmittelabfälle zu reduzieren“, sagt Helander.

Eine vegetarische Ernährung allein reiche dafür nicht aus – im Gegenteil: Die Studie zeigt, dass auch eine pflanzenbasierte Ernährung trotz verringerter Fußabdrücke zu mehr Lebensmittelabfällen führen kann, da damit der Konsum von Produkten steigt, die einen höheren Anteil an Lebensmittelabfällen aufweisen – zum Beispiel Kartoffel, Rüben oder Getreide. „Politische Strategien, die sowohl den Fußabdruck des Lebensmittelkonsums als auch die Lebensmittelverschwendung minimieren wollen, können also widersprüchlich sein“, bilanziert Hanna Helander. „Eine höhere Ressourceneffizienz lässt sich am besten erreichen, wenn wir die Reduktionspotenziale aller verfügbaren Strategien ausschöpfen und gleichzeitig die Wechselwirkungen der unterschiedlichen Strategien berücksichtigen.“

Wissenschaftliche Ansprechpartner:
Hanna Helander
Professur für Gesellschaftliche Transformation und Kreislaufwirtschaft
Fakultät für Umwelt und Natürliche Ressourcen
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-67920
E-Mail: hanna.helander@transition.uni-freiburg.de

Originalpublikation:
Helander Hanna; Bruckner Martin; Leipold Sina; Petit-Boix, Anna and Stefan Bringezu (2021): Eating healthy or wasting less? Reducing resource footprints of food consumption. In: Environmental Research Letters. DOI: 10.1088/1748-9326/abe673

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/mehr-gemuese-weniger-milch

(nach oben)


Korallen, die Algen spucken

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Mikroalgen aus der Gruppe der Dinoflagellaten gehen seit Urzeiten intrazelluläre Symbiosen mit Korallen ein. Ein Forschungsteam vom Centre for Organismal Studies der Universität Heidelberg hat nun herausgefunden, dass solche Symbiosen von der Fähigkeit der Algen abhängen, das Immunsystem ihrer Wirtszelle zu unterdrücken und so die Beseitigung durch „Ausspucken“ zu vermeiden. Die Wissenschaftler fanden außerdem Hinweise darauf, dass es sich bei dieser Immunantwort um einen evolutionär alten Abwehrmechanismus handelt, der weiter verbreitet ist als bisher angenommen.

Eine alte Immunantwort reguliert die Entstehung von vorteilhaften Symbiosen
Mikroalgen aus der Gruppe der Dinoflagellaten sind bekannt für ihre Fähigkeit, in anderen tierischen Zellen zu überleben. Auch mit Korallen gehen diese winzigen Einzeller seit Urzeiten wechselseitig vorteilhafte Beziehungen ein. Indem sie lebenswichtige Nährstoffe an ihre Wirte weitergeben, ermöglichen es Dinoflagellaten den Korallen etwa, auch in kargen Regionen zu gedeihen. Ein Forschungsteam vom Centre for Organismal Studies (COS) der Universität Heidelberg hat nun herausgefunden, dass solche Symbiosen innerhalb der Zelle entscheidend von der Fähigkeit der Algen abhängen, das Immunsystem ihrer Wirtszelle zu unterdrücken und so die Beseitigung durch „Ausspucken“ zu vermeiden. Gleichzeitig fanden die Wissenschaftlerinnen und Wissenschaftler Hinweise darauf, dass es sich bei dieser Immunantwort um einen evolutionär alten Abwehrmechanismus handelt, der weiter verbreitet ist als bisher angenommen.

Bei diesem Mechanismus handelt es sich um die sogenannte Vomozytose. Entgegen bisheriger Annahmen werden von Korallen aufgenommene Mikroalgen nicht von der Zelle verdaut, wenn sie sich nicht als Symbionten – als Teil einer Symbiose – eignen, sondern im Rahmen der Vomozytose wieder „ausgespuckt“. Spezielle Dinoflagellaten sind in der Lage, diese Immunantwort ihrer Wirtszelle gezielt zu unterdrücken, um so in der Zelle zu verbleiben. Wie ihnen das gelingt, zeigt eine Studie, die unter der Leitung der Zellbiologin Prof. Dr. Annika Guse am COS durchgeführt wurde. „Die Herausforderung für die Korallen besteht darin, zwischen nützlichen und potenziell schädlichen Mikroorganismen zu unterscheiden. Die Algen wiederum müssen die Immunantwort der Wirtszelle umgehen, eine intrazelluläre Nische etablieren, in der sie überleben können, und die eigenen Zellfunktionen so auf die ihres Wirtes abstimmen, dass Nährstoffe effizient ausgetauscht werden können“, erklärt die Wissenschaftlerin.

Bislang konnte für keine der gängigen Theorien, die diese Vorgänge zu erklären versuchen, ein experimenteller Beweis erbracht werden. Das Team um Prof. Guse hat nun anhand des Modellsystems Exaiptasia diaphana (Aiptasia) aus der Gattung der Seeanemonen nachvollzogen, wie die Immununterdrückung durch den Symbionten dazu beiträgt, dass die Wirtszelle geeignete Mikroalgen erkennt und langfristig aufnimmt. Die Larven der Seeanemone Aiptasia nehmen die Symbionten aus der Umwelt in gleicher Weise auf wie Korallenlarven. Außerdem eignen sich die Larven der auch als Glasrosen bekannten Seeanemonen aufgrund ihrer Größe und Transparenz hervorragend für hochauflösende Bildgebung und zellbiologische Untersuchungen.

Aus der Umwelt nimmt Aiptasia kontinuierlich unterschiedliche Partikel auf, ohne dabei zwischen geeigneten und ungeeigneten Teilchen oder Lebewesen zu unterscheiden. Nicht kompatible Partikel werden anschließend innerhalb eines bestimmten Zeitraums wieder „ausgespuckt“. Symbionten vermeiden diesen Vorgang der sogenannten Vomozytose, vermutlich indem sie die Signalwege der Toll-like-Rezeptoren (TLR) der Wirtszelle unterbrechen. Diese Rezeptoren spielen eine entscheidende Rolle bei der Aktivierung des zelleigenen Abwehrsystems und sorgen dafür, dass unerwünschte Eindringlinge erkannt und entfernt werden. Bei den meisten Tieren werden die Toll-like-Rezeptoren von dem Gen MyD88 gesteuert. „Wir konnten nachweisen, dass Algen-Symbionten MyD88 unterdrücken, um die Symbiose zu initiieren. So schaffen sie es, der Vomozytose zu entgehen“, erläutert Prof. Guse.

Gleichzeitig deuten die Erkenntnisse der Heidelberger Wissenschaftler darauf hin, dass es sich bei der Vomozytose um einen Mechanismus handelt, der weiter verbreitet ist als vermutet. Bislang wurde angenommen, dass das „Ausspucken“ von schädlichen Eindringlingen selbst initiiert wird, um den teilweise sehr spezialisierten Immunantworten der potenziellen Wirtszelle zu entkommen. Die Studie mit dem Aiptasia-Modell legt jedoch nahe, dass dieser Vorgang auch von der Wirtszelle ausgelöst werden kann. Die Forscherinnen und Forscher nehmen daher an, dass es sich bei der Vomozytose um einen evolutionär alten Abwehrmechanismus handelt, den sich Korallen oder Nesseltiere wie Aiptasia zunutze machen, um geeignete Symbionten zu selektieren. Prof. Guse: „Die Vermutung liegt nahe, dass die Vomozytose ein wichtiger Prozess ist, der überhaupt erst zur Entstehung des intrazellulären Lebenswandels der Korallen-Symbionten geführt hat.“

Die Ergebnisse der Studie wurden in der Fachzeitschrift „Nature Microbiology“ veröffentlicht. Finanziert wurden die Forschungsarbeiten unter anderem aus Mitteln des Horizon 2020-Programms der Europäischen Union und der Deutschen Forschungsgemeinschaft.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Annika Guse
Centre for Organismal Studies
Telefon (06221) 54-6264
annika.guse@cos.uni-heidelberg.de

Originalpublikation:
M. R. Jacobovitz, S. Rupp, P. A. Voss, I. Maegele, S. G. Gornik, A. Guse: Dinoflagellate symbionts escape vomocytosis by host cell immune suppression. Nature Microbiology (29 April 2021), https://dx.doi.org/10.1038/s41564-021-00897-w

Weitere Informationen:
https://www.cos.uni-heidelberg.de/index.php/a.guse?l=

(nach oben)


Wem gehört der Fußball?

Stephan Laudien Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Wirtschaftswissenschaftler der Universität Jena erforschen in einem DFG-Teilprojekt die Eigentumsverhältnisse im europäischen Fußball

Jedes Jahr der immergleiche deutsche Meister, jedes Jahr die gleichen Vereine im Halbfinale der Champions League und nun die Pläne für eine „Super League“ der reichsten Clubs in Europa: „Wem gehört der Fußball?“, diese Frage beschäftigt die Wirtschaftswissenschaftler Prof. Dr. Mike Geppert und Kenny Böswetter von der Friedrich-Schiller-Universität Jena. Im Rahmen des Sonderforschungsbereichs-Transregio 294 „Strukturwandel des Eigentums“ untersuchen die beiden Wissenschaftler die Eigentumsverhältnisse in den „Big Five“ des europäischen Fußballs, also in den ersten Ligen in Spanien, England, Deutschland, Italien und Frankreich. Die Deutsche Forschungsgemeinschaft (DFG) fördert die Untersuchung für die Dauer von vier Jahren mit einer Summe von 235.000 Euro.

Der „Fall Hopp“ spielt eine Rolle
„Wir wollen untersuchen, inwieweit die Eigentumsverhältnisse im Fußball die Regeln in den Verbänden beeinflussen“, sagt Mike Geppert. Der Inhaber des Lehrstuhls Strategisches und Internationales Management konstatiert, dass sich die vorherrschenden marktwirtschaftlichen Regeln einzelner Länder im Fußball widerspiegeln. Während in Deutschland mit seiner Idee der sozialen Marktwirtschaft die 50+1 Regel gilt, die verhindern soll, dass Fußballvereine komplett übernommen werden können, gelten etwa in England andere Regeln. Dort würde ein freierer Markt erlauben, dass Sportvereine gekauft werden können. „Wir werden untersuchen, welchen Einfluss Clubeigner, wie etwa Roman Abramowitsch bei Chelsea London, haben“, sagt Mike Geppert.

Beim Blick auf die Bundesliga werde der „Fall Hopp“ eine Rolle spielen, die faktische Übernahme der TSG Hoffenheim durch den SAP-Gründer Dietmar Hopp. Mike Geppert sagt, Hopps Engagement in Hoffenheim werde oftmals als der Sündenfall im bezahlten Fußball in Deutschland dargestellt. Zudem werde dem Newcomer RB Leipzig vorgeworfen, das Modell Hopp kopiert zu haben. Dabei verstelle das den Blick auf die sogenannten Werksclubs in Leverkusen und Wolfsburg.

Bleibt der Fußball in Europa ein öffentliches Gut?
In der Studie „Who owns football?“ wird es auch um die Frage gehen, in welchem Maße der Fußball als öffentliches Gut anzusehen ist. Mike Geppert konstatiert, dass über diese Frage verstärkt seit etwa 20 Jahren debattiert werde. Ein Beleg für die Bedeutung des Fußballs als öffentliches Gut sei sicherlich die Tatsache, dass die europäischen Ligen trotz Corona mehrheitlich weiterlaufen. „Ein wenig hat das etwas von Brot und Spiele“, sagt Prof. Geppert.

Gemeinsam mit Kenny Böswetter, der im Rahmen der Studie seine Doktorarbeit schreibt, wird Mike Geppert in einem zweiten Teil der Arbeit eine Fallstudien-basierte Analyse von Premier League und Bundesliga vornehmen. Sein wissenschaftliches Interesse begründet Prof. Mike Geppert mit der offensichtlichen Tatsache, dass Fußballvereine Wirtschaftsunternehmen immer ähnlicher werden. Privat ist der Wirtschaftswissenschaftler selbst Fan: In der Bundesliga drückt er Union Berlin die Daumen, in der Premier League ist Manchester City sein Verein: „Ich habe mich schon für Manchester City begeistert, als der Verein noch in der zweiten englischen Liga spielte“. Heißt im Klartext, noch bevor der Verein von der Herrscherfamilie des Emirats in Abu Dhabi übernommen wurde.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mike Geppert
Wirtschaftswissenschaftliche Fakultät der Friedrich-Schiller-Universität Jena
Carl-Zeiß-Straße 3, 07743 Jena
Tel.: 03641 / 943160
E-Mail: mike.geppert@uni-jena.de

(nach oben)


Einkaufen ohne Verpackungsmüll

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
DBU-Projekt entwickelt Standards zur Abfallvermeidung

Eberswalde. Bei einem gewöhnlichen Einkauf kommt oft viel Müll in Form von Verpackungen zusammen. Eine Alternative sind Unverpackt-Läden. Den Betreiberinnen und Betreibern fehlen bislang aber standardisierte Lösungen zum Beispiel für Transport oder Marketing ihrer Produkte. Ein Projekt der Hochschule für nachhaltige Entwicklung Eberswalde (HNEE) will Abhilfe schaffen und den Verpackungsmüll durch branchenweite Standards systematisch reduzieren. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Vorhaben fachlich und finanziell mit rund 291.000 Euro.

Nudeln in Plastikverpackungen, eingeschweißtes Obst und Gemüse, aufwendige Umverpackungen für Süßwaren und Getränke in Einwegplastikflaschen: Deutschland hat ein stetig wachsendes Müllproblem. Lag die Menge an Verpackungsmüll vor 20 Jahren noch bei rund 15 Millionen Tonnen, waren es 2018 bereits 18,6 Millionen Tonnen. „Besonders die Kunststoffabfälle sind für eine Vielzahl von Umweltproblemen verantwortlich“, sagt Dr. Susanne Wiese-Willmaring, DBU-Referatsleiterin für Lebensmittel. Nach Informationen des Umweltbundesamtes landen jährlich weltweit bis zu zehn Millionen Tonnen Abfall im Meer. Viele Tiere hielten die Teilchen für Nahrung und würden sie fressen, ohne die Partikel verdauen zu können. Sie verhungerten mit vollem Magen. Für andere Tiere wiederum würden die Plastikteile zur tödlichen Falle, weil sie sich in ihnen verfangen und ertrinken können.

Weniger Müll beim Einkauf
Eine Möglichkeit, weniger Verpackungsmüll zu erzeugen, ist laut Wiese-Willmaring der Einkauf in Unverpackt-Läden: Kundinnen und Kunden füllen sich die benötigten Mengen von Nudeln, Kaffee, Reinigungsmitteln und Co. in Gefäße ab oder nehmen die Ware lose mit. Auch Mehrwegsysteme sind eine Option. „Unverpackt-Läden nutzen bereits heute Großverpackungen und sparen so Material ein“, sagt Projektleiter Prof. Dr. Jens Pape von der Hochschule für nachhaltige Entwicklung Eberswalde. Allerdings seien an Verpackungen verschiedene Funktionen geknüpft. Pape: „Sie sichern zum Beispiel die Hygiene, erfüllen Kennzeichnungsvorschriften zu Haltbarkeit, Lagerung, Inhaltsstoffen und Allergenen oder werden zu Marketingzwecken bedruckt und beklebt. Der Unverpackt-Handel muss hierfür also Alternativen entwickeln.“

Neue Standards für Unverpackt-Läden
Die Forscherinnen und Forscher der HNEE und ihre Praxispartner sehen vor allem zwei Herausforderungen: zum einen die verpackungsarme Beschaffung, zum anderen die rechtlichen Rahmenbedingungen. „Logistik und Zulieferer sind noch nicht an den verpackungsfreien Einkauf angepasst“, sagt Pape. „Wir brauchen effiziente und praxistaugliche Lösungen für Transportverpackungen, den Einsatz von nachhaltigen Verpackungsmaterialien und Mehrwegsysteme.“ Ein sensibler Aspekt ist Pape zufolge der vorgegebene Rechtsrahmen, insbesondere das Hygiene- und Schädlingsmanagement. Hierfür gibt es bislang kein einheitliches Vorgehen, jeder Laden entwickelt individuelle Lösungen. Ziel des Projektes ist die Entwicklung von branchenweiten Standards, um so das Unverpackt-Konzept künftig effizienter, nachhaltiger und professioneller zu gestalten. So kann „unverpackt“ auch für den klassischen Lebensmittelhandel interessanter werden.

Fotos nach IPTC-Standard zur kostenfreien Veröffentlichung unter http://www.dbu.de
Wann immer das generische Maskulinum verwendet wird, dient dies lediglich der besseren Lesbarkeit. Gemeint sein können aber alle Geschlechter.

(nach oben)


Studie: Wie verändern Berufseinstieg und Renteneintritt die Persönlichkeit?

Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Welche Persönlichkeitsmerkmale sich in den Jahren um den Berufsstart und der Verrentung wandeln, haben die Psychologinnen Eva Asselmann und Jule Specht von der Humboldt-Universität zu Berlin untersucht

Bei der Arbeit sind wir mit einer Vielzahl an Aufgaben und Erwartungen konfrontiert. Werden wir reifer, wenn wir ins Berufsleben eintreten und entspannter, wenn wir in Rente gehen? Dieser Frage gingen Eva Asselmann und Jule Specht von der Humboldt-Universität zu Berlin nach.
Die Forscherinnen konnten zeigen, dass junge Erwachsene, die erstmals ins Berufsleben einstiegen, in den Jahren danach merklich gewissenhafter, extravertierter und verträglicher wurden. Bei älteren Personen, die in Rente gingen, nahm die Gewissenhaftigkeit in den darauf folgenden Jahren deutlich ab.
Für ihre Studie werteten die Psychologinnen Daten von mehr als 3500 angehenden Berufseinsteiger:innen und mehr als 2500 angehenden Rentner:innen aus dem Sozioökonomischen Panel (SOEP) aus, einer bevölkerungsrepräsentativen Langzeitstudie aus Deutschland. Sie untersuchten die fünf Persönlichkeitsmerkmale Offenheit, Geselligkeit, Gewissenhaftigkeit, Verträglichkeit und emotionale Stabilität in den Jahren vor und nach dem Berufseinstieg bzw. Renteneintritt.
Zusammengefasst stützen die Studienergebnisse die Annahme, dass wir reifen, wenn wir ins Berufsleben eintreten, und entspannter werden, wenn wir aus dem Berufsleben aussteigen. Letzteres wird auch als „la-Dolce-Vita-Effekt“ bezeichnet.
Eine mögliche Erklärung: Bei der Arbeit sind wir mit klaren Erwartungen konfrontiert: Wir müssen zuverlässig und pünktlich sein, Termine und Verpflichtungen einhalten, überzeugend aufzutreten und uns anderen gegenüber freundlich und professionell verhalten. Das könnte erklären, warum es nach dem Berufseintritt zu einer Persönlichkeitsreifung kommt. Wenn wir in Rente gehen, fallen diese Anforderungen weg – es bleibt also mehr Raum, um zu entspannen und die Vorzüge des Lebens zu genießen.

Wissenschaftliche Ansprechpartner:
Dr. rer. nat. habil. Eva Asselmann
Institut für Psychologie, Humboldt-Universität zu Berlin
eva.asselmann@hu-berlin.de

Originalpublikation:
Asselmann, Eva und Specht, Jule (2021): “Personality maturation and personality relaxation: Differences of the Big Five personality traits in the years around the beginning and ending of working life”, Journal of Personality, DOI: 10.1111/jopy.12640.

(nach oben)


Starker Rückgang der Darmkrebs-Inzidenz und -Sterblichkeit seit Einführung der Vorsorge-Darmspiegelung

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Seit 2002 bieten die gesetzlichen Krankenkassen die Darmspiegelung als primäre Screening-Untersuchung an, mit der Darmkrebs und Vorstufen entdeckt werden können. Damit kann die Zahl der Neuerkrankungen gesenkt und die Heilungschance verbessert werden. Wissenschaftler im Deutschen Krebsforschungszentrum berechneten nun die Entwicklung der Darmkrebs-Inzidenz und Sterblichkeit innerhalb dieses Zeitraums: Von 2000 bis 2016 ging die altersstandardisierte Neuerkrankungsrate bei beiden Geschlechtern um knapp ein Viertel zurück. Noch deutlicher waren die Effekte auf die Sterblichkeitsrate: Zwischen 2000 und 2018 sank sie bei Männern um 35,8 Prozent, bei Frauen sogar um 40,5 Prozent.

„Die Rückgänge bei den Neuerkrankungen und bei der Sterblichkeit beobachten wir vor allem in der Altersgruppe ab 55 Jahren, für die die Darmspiegelung angeboten wird. Zusammen mit den Ergebnissen bereits vorliegender Studien lassen diese Zahlen keine Zweifel mehr offen, dass das Angebot der gesetzlichen Darmkrebsvorsorge und insbesondere die Darmspiegelung ein hochwirksames Instrument der Krebsprävention ist”, sagt Hermann Brenner vom Deutschen Krebsforschungszentrum.

Am stärksten ausgeprägt waren die Rückgänge bei Karzinomen des Enddarms und des unteren Darmabschnitts („distales Kolon”). Für Tumoren des oberen Darmabschnitts („proximales Kolon”) beobachteten die Forscher dagegen kaum einen Rückgang der Neuerkrankungsrate. „Die Tumorvorstufen im oberen Dickdarm sind häufig mit dem Endoskop schwerer zu erkennen und weisen auch andere biologische Eigenschaften auf”, nennt Brenner Gründe für die geringere Wirksamkeit der Endoskopie im oberen Darmabschnitt. Aber auch die Tumoren im oberen Dickdarmabschnitt wurden zunehmend früher und damit in einem besser heilbaren Krebsstadium erkannt. „Eine frühere Erkennung hat auch in diesem Darmabschnitt zu einem erheblichen Rückgang der Sterblichkeit an Krebserkrankungen beigetragen, obwohl die Inzidenz dieser Tumoren innerhalb des Untersuchungszeitraums kaum zurückgegangen ist”, erklärt Brenner.

Einen direkten Vergleich der Erkrankungsraten von Teilnehmern und Nicht-Teilnehmern an der Screening-Koloskopie konnten die Wissenschaftler in dieser Register-basierten Studie nicht durchführen: Krebsregisterdaten dürfen aus datenschutzrechtlichen Gründen in Deutschland nicht mit den Daten zur Teilnahme an der Vorsorgedarmspiegelung verknüpft werden. Den Zusammenhang mit der Darmspiegelung konnten die Wissenschaftler aber in anderen Studien vielfach belegen. Der deutliche Rückgang der Darmkrebs-Inzidenz und -Sterblichkeit trotz der demografischen Entwicklung ist daher aus Sicht der Epidemiologen in allererster Linie der Wirksamkeit der Darmkrebsvorsorge zu verdanken.

Knapp 20 Jahre nach Einführung der Vorsorge-Darmspiegelung hat zwar gut die Hälfte der über 50-Jährigen in Deutschland schon einmal eine Darmspiegelung und damit einen wirksamen Schutz vor Darmkrebs erhalten, da hierbei die meisten Vorstufen von Darmkrebs entdeckt und abgetragen werden können. Doch noch immer erkranken jedes Jahr fast 60.000 Menschen an Darmkrebs, und fast 25.000 Menschen sterben an der Erkrankung. Brenner ist überzeugt, dass sich diese Zahlen innerhalb der nächsten zehn Jahre halbieren ließen. Sein Appell an die Gesundheitspolitik: „Wir müssen dringend die Einladungsverfahren zur Darmkrebs-Vorsorge verbessern, um deutlich mehr Menschen zu motivieren, die Chance zur Krebsprävention zu ergreifen”.

Rafael Cardoso, Anna Zhu, Feng Guo, Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Inzidenz und Mortalität proximaler und distaler kolorektaler Karzinome in Deutschland: Trends in der Ära der Vorsorge-Koloskopie
Deutsches Ärzteblatt 2021, DOI: 10.3238/arztebl.m2021.0111

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
http://www.dkfz.de

Originalpublikation:
Rafael Cardoso, Anna Zhu, Feng Guo, Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Inzidenz und Mortalität proximaler und distaler kolorektaler Karzinome in Deutschland: Trends in der Ära der Vorsorge-Koloskopie
Deutsches Ärzteblatt 2021, DOI: 10.3238/arztebl.m2021.0111

(nach oben)


Neue Ursache zur Entstehung von Leukämie entdeckt

Bianca Hermle Kommunikation und Medien
Universitätsklinikum Tübingen
Forscherinnen und Forschern des Universitätsklinikums Tübingen ist es gelungen, eine molekulare Ursache der Leukämieentstehung zu identifizieren. Damit haben sie ein neuartiges experimentelles Modell etabliert, das es Patientinnen und Patienten mit Leukämie in Zukunft ermöglicht, spezifischer behandelt zu werden. Die Forschungsergebnisse sind aktuell in der Fachzeitschrift Cell Stem Cell publiziert.

Schwere kongenitale Neutropenie (CN) ist ein prä-leukämisches Knochenmarkversagenssyndrom, das sich zu einer akuten myeloischen Leukämie (AML) entwickeln kann. Bei dieser seltenen angeborenen Erkrankung der Blutbildung handelt es sich um einen Immundefekt, der mit einer verminderten Anzahl an Granulozyten und funktionellen Defekten ebendieser einhergeht. Bereits früh nach der Geburt bilden sich bei Betroffenen schwere bakterielle Infektionen. Die einzig mögliche Therapie ist eine lebenslange Behandlung mit rekombinanten Wachstumsfaktoren (Proteinen), die täglich injiziert werden müssen. 20 Prozent der Patientinnen und Patienten mit angeborener Neutropenie erkranken bereits in den ersten Lebensjahrzehnten an Leukämie.

Den Forscherinnen und Forschern um Professorin Dr. Julia Skokowa, Dr. Benjamin Dannenmann und Dr. Maksim Klimiankou von der Abteilung Hämatologie, Onkologie, klinische Immunologie und Rheumatologie der Medizinischen Klinik des Uniklinikums Tübingen ist es nun gelungen, den Mechanismus der Leukämieentstehung aufzuschlüsseln und eine neue Therapie zu ergründen. Als Leiterin des Referenzlabors für Diagnostik und Forschung des internationalen Registers für schwere chronische Neutropenien (SCNIR) konnte Prof. Skokowa große Datenmengen von Patientinnen und Patienten mit seltenen Erkrankungen für ihr Forschungsvorhaben analysieren.

Da es für Neutropenie keine Tiermodelle gibt und es schwierig ist, genügend Knochenmarkzellen von Erkrankten zu gewinnen, erarbeiteten die Forscherinnen und Forscher ein neuartiges Versuchsmodell zur Untersuchung der Leukämie: Dabei versetzten sie die Blutzellen von Neutropenie-Patienten mithilfe molekularer Methoden zurück in einen frühen embryonalen Zustand – in sogenannte induzierte pluripotente Stammzellen (iPS-Zellen). In Zellkulturen generierten sie aus diesen Stammzellen wiederum blutbildende Zellen. Unter Verwendung einer neuen Methode, der Genschere (CRISPR/Cas9), stellten sie die bösartige Leukämiezelle her und fügten die Genmutation in die iPS-Zellen hinzu. So gelang es den Expertinnen und Experten, Leukämiezellen in Zellkulturen zu generieren, die den primären Leukämiezellen der Neutropenie-Patienten sehr ähnlich sind.

Weiter untersuchten die Forschenden die Effekte jener Gene, von denen in Leukämiezellen viel größere Mengen vorhanden sind, als in gesunden Zellen. Um diese Auswirkung auf das Leukämiewachstum zu erforschen, wurden die Gene in den im Labor erzeugten Stammzellen mittels der Genschere ausgeschaltet. Dabei entdeckte man, dass das Ausschalten eines einzigen Proteins – BAALC – zum Tod der Leukämiezellen führt. Durch Analysen der Aktivierung aller BAALC-abhängigen Gene konnten Prof. Skokowa und ihr Team den molekularen Mechanismus der Leukämieentwicklung entschlüsseln und einen niedermolekularen Inhibitor (CMPD1) mit therapeutischer Wirkung identifizieren. Dieses neuartige Medikament tötet die Leukämiezellen ab, ohne dabei die gesunden blutbildenden Zellen anzugreifen und kann dadurch zur Therapie von Leukämien in klinischen Studien eingesetzt werden.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Tübingen
Medizinische Klinik
Innere Medizin II
Hämatologie, Onkologie, klinische Immunologie und Rheumatologie
Prof. Dr. Dr. Julia Skokowa
Otfried-Müller-Straße 10, 72076 Tübingen
Tel. 07071 29-82168, Fax 07071 29-25161
Julia.Skokowa@med.uni-tuebingen.de

Originalpublikation:
iPSC modeling of stage-specific leukemogenesis reveals BAALC as a key oncogene in severe congenital neutropenia; doi: https://doi.org/10.1016/j.stem.2021.03.023

(nach oben)


Langeweile und Selbstkontrolle in der Pandemie

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Forschende der Universitäten Bern und Konstanz sowie der FernUni Schweiz zeigen, dass grosse Langweile und geringe Selbstkontrolle mit mehr Schwierigkeiten von Schülerinnen und Schülern im Homeschooling während der COVID-19-Pandemie zusammenhängen. Diese Ergebnisse decken sich mit weiteren Befunden und theoretischen Arbeiten des Forschungsteams, die zeigen, dass grosse Langeweile und geringe Selbstkontrolle eine geringere Einhaltung der pandemiebedingten Verhaltensrichtlinien vorhersagen.

In aktuellen theoretischen Forschungsarbeiten wird argumentiert, dass Langeweile und Selbstkontrolle eine wichtige gemeinsame Rolle bei der Steuerung zielgerichteten Verhaltens zukommt und dass diese beiden psychologischen Konstrukte während der COVID-19-Pandemie von besonderer Relevanz sind. Konkret wird angenommen, dass die Tendenz sich häufig und schnell zu langweilen das Befolgen der pandemiebedingten Verhaltensrichtlinien erschwert. Zudem wird angenommen, dass die Tendenz Selbstkontrolle aufzubringen den Umgang mit diesen Schwierigkeiten erleichtert und somit eine Schutzfunktion hat.

Ein Team aus Forschenden der Universitäten Bern und Konstanz sowie der FernUni Schweiz hat diese theoretischen Vorhersagen in mehreren Studien untersucht. In einer ersten Studie, für die 895 erwachsene US-amerikanische Personen befragt wurden, fanden die Forschenden empirische Unterstützung für diese Vorhersagen und konnten die Befunde in einer weiteren Studie mit 574 US-amerikanischen Erwachsenen prospektiv über den Zeitraum von einer Woche replizieren. Überdies zeigen die Forschenden auch die besondere Wichtigkeit spezifischer Selbstkontroll-Strategien auf (sogenannte Wenn-Dann-Pläne). Mit einer Befragung von 138 Schweizer Schülerinnen und Schülern zwischen 6 und 21 Jahren konnten die Forschenden darüber hinaus zeigen, dass Schwierigkeiten im Homeschooling mit grosser Langeweile und geringer Selbstkontrolle zusammenhängen. Für das Einhalten der COVID-19-Verhaltensrichtlinien scheinen Langeweile und Selbstkontrolle somit tatsächlich robuste Einflussfaktoren zu sein.

Der Einfluss von Langeweile und Selbstkontrolle im Homeschooling
Das weitgehend selbstorganisierte Lernen und Arbeiten im Homeschooling stellt zusätzliche Anforderungen an die Selbstkontrolle und an den effektiven Umgang mit Langeweile. «Verglichen mit dem typischen Unterricht in der Klasse ist es plausibel, dass das Homeschooling den Schulstoff als langweiliger erscheinen lässt, weil mehr verlockende Ablenkungen verfügbar sind. Schülerinnen und Schüler im Homeschooling sind daher möglicherweise in besonderem Masse von der Pandemie und den einhergehenden Beschränkungen betroffen», sagt Wanja Wolff, Studien-Mitautor vom Institut für Erziehungswissenschaft der Universität Bern. Es bedürfe entsprechend mehr Selbstkontrolle, um den Schulstoff dennoch zu bearbeiten.

In ihrer Studie zu Homeschooling kommen die Forschenden zu dem Schluss, dass Langeweile und Selbstkontrolle mit den selbstberichteten Schwierigkeiten der Schülerinnen und Schüler während des Homeschoolings in der Tat zusammenhängen: Hohe Selbstkontrolle ging mit geringeren Schwierigkeiten und mit einer besseren Umsetzung der Aufgaben im Homeschooling einher. Bei Langeweile wurde der umgekehrte Zusammenhang gefunden: Grosse Langeweile ging mit vermehrten Schwierigkeiten und einer schlechteren Umsetzung der Aufgaben einher. Damit bestätigten die Ergebnisse der Studie abermals theoretische Annahmen zur Relevanz von Selbstkontrolle und Langeweile für das Verhalten.

Geringerer Einfluss von Langeweile und Selbstkontrolle im Klassenraum
Interessante Ergebnisse förderte eine Analyse der gleichen Fragestellung zu Schwierigkeiten beim Lernen im Klassenraum zutage: Hier war die Neigung zur Langeweile kein statistisch bedeutsamer Prädiktor mehr. Auch der Zusammenhang von Selbstkontrolle mit den Schwierigkeiten beim Lernen war geringer ausgeprägt. «Eine vorsichtige Interpretation dieses Befunds ist, dass das strukturiertere Umfeld des Klassenraums mit Lehrkräften, Mitschülerinnen und Mitschülern sowie mit etablierten Regeln die Anforderungen hinsichtlich Selbstkontrolle und dem Umgang mit Langeweile für die Schülerinnen und Schüler reduziert», sagt Wanja Wolff. Dies erleichtere den Schülerinnen und Schülern offenbar, sich den Schulstoff effizienter anzueignen.

Langeweile während der Pandemie ernst nehmen
Die Ergebnisse aller Studien deuten zusammenfassend darauf hin, dass Langweile und Selbstkontrolle wichtige Einflussfaktoren für den individuellen Umgang mit den Herausforderungen der Pandemie sind. Während die Wichtigkeit von Selbstkontrolle in der psychologischen Forschung schon fest etabliert ist, ist die Relevanz von Langeweile bislang erstaunlich wenig beforscht. «Die neu gewonnenen Erkenntnisse zeigen, dass Langeweile sowohl für Erwachsene als auch für Schülerinnen und Schüler den Umgang mit der Pandemie erschwert», sagt Wanja Wolff. Besonders hervorzuheben sei der umgekehrte Zusammenhang zwischen Langeweile und Selbstkontrolle: Personen mit hoher Neigung zur Langeweile berichten häufig eine geringere Selbstkontrolle. Übertragen auf die aktuelle Pandemie könnte das bedeuten, dass es Personen, denen es aus Langweile schwerer fällt, sich an die Verhaltenseinschränkungen zu halten, auch häufig an der nötigen Selbstkontrolle mangelt, um mit den durch Langeweile ausgelösten Impulsen wirksam umzugehen.

«Schlussfolgerungen für den Schulalltag könnten daher sein, die Homeschooling-Situation möglichst ablenkungsfrei zu gestalten und den Gebrauch einfacher Selbstregulationsstrategien einzuüben», sagt Psychologe Wanja Wolff und ergänzt: «Allgemein sollte insbesondere Personen mit stärkerer Tendenz zur Langeweile besonders unterstützend zur Seite gestanden werden».

Wissenschaftliche Ansprechpartner:
Dr. Wanja Wolff
Universität Bern, Institut für Erziehungswissenschaft, Abteilung für Pädagogische Psychologie
E-Mail: wanja.wolff@edu.unibe.ch, Twitter: @WolffWanja
Tel.: Telefonische Auskunft kann per E-Mail vereinbart werden

Originalpublikation:
Martarelli, Corinna S.; Pacozzi, Simona G.; Bieleke, Maik; Wolff, Wanja (2021): High Trait Self-Control and Low Boredom Proneness Help COVID-19 Homeschoolers. In: Frontiers in psychology 12, S. 594256. DOI: 10.3389/fpsyg.2021.594256.

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2021/medi…

(nach oben)


Einladung zum HNEE-Feldtag: Austausch über die Vielfalt im Wurzelraum

Jana Reimann-Grohs Hochschulkommunikation
Hochschule für nachhaltige Entwicklung Eberswalde
Die Hochschule für nachhaltige Entwicklung Eberswalde (HNEE) lädt am 15. Juni 2021 zum jährlichen Feldtag auf der Lehr- und Forschungsstation Wilmersdorf (Angermünde) ein. Wissenschaftler*innen der Hochschule wollen in die Tiefe gehen und Interessierten ihre Forschungsergebnisse präsentieren. Mit dem Bericht aus geförderten Projekten durch das MLUK, dem BMEL und BMBF sollen besonders Landwirt*innen und Berater*innen angesprochen werden. Auf den Versuchsparzellen werden Anbaustrategien vermittelt – beispielsweise wie sich eine Vielfalt im Wurzelraum herstellen lässt. Dabei wird auf Zuckerrübe, Zwischenfrüchte und Futterleguminosen gesetzt.

Der jährliche Feldtag der HNEE auf der Lehr- und Forschungsstation Wilmersdorf (Wilmersdorfer Str. 23, 16278 Angermünde) soll am 15. Juni von 10 bis 15 Uhr stattfinden und ist unter Vorbehalt als Präsenzveranstaltung geplant. Im vergangenen Jahr konnte der Feldtag nur als Online-Veranstaltung anhand von Fotos, Vorträgen und virtuellen Rundgängen durchgeführt werden. In diesem Jahr hoffen die HNEE-Projektverantwortlichen darauf, wieder vor Ort in die Tiefe gehen zu können: Im Fokus der Veranstaltung stehen aktuelle Forschungsprojekte und Ergebnisse aus den Versuchsparzellen mit besonderem Schwerpunkt auf den Anbau von Zuckerrüben, Zwischenfrüchten und Futterleguminosen.

Mit Fachvorträgen sowie einer Feldbesichtigung von Praxisflächen auf dem Gut Wilmersdorf zu ausgewählten Kulturen will man gezielt ins Gespräch über mögliche Anbaustrategien kommen. „Wir wollen die Chance nutzen, insbesondere mit Landwirt*innen und Berater*innen über Themenfelder zu diskutieren. Als Wissenschaftler*innen können wir dann Fragestellungen nachgehen, die aus der Praxis kommen und für die landwirtschaftlichen Betriebe von Bedeutung sind, um gemeinsam Lösungswege zu finden“, sagt Sabrina Scholz, wissenschaftliche Mitarbeiterin am Fachgebiet Politik und Märkte in der Agrar- und Ernährungswirtschaft und Projektverantwortliche Praxisnetzwerk Biodiversität im Ackerbau.

Innerhalb des neuen Projektes zUCKERrübe wird es mit einer Anbaufläche von ca. 1700 Quadratmetern (36 Parzellen) auf der Lehr- und Forschungsstation Gut Wilmersdorf erstmalig einen Feldversuch zum Anbau von Biozuckerrüben geben. „Das ist unser Highlight, weil wir damit der Fragestellung nachgehen, wie die mechanische Unkrautregulierung in den Zuckerrübenfeldern gelingt“, betont HNEE-Professor Ralf Bloch, im Fachbereich Landschaftsnutzung und Naturschutz auf das Fachgebiet Agrarökologie und nachhaltige Anbausysteme spezialisiert. Im Ökolandbau werde der Umwelt und nachhaltigen Ernährung zuliebe auf den Einsatz chemisch-synthetischer Pflanzenschutzmittel verzichtet, erläutert der Leiter der Lehr- und Forschungsstation Wilmersdorf. Typisch für den Ökolandbau sei aber auch ein erhöhter Arbeitsaufwand durch das notwendige mechanische Hacken zur Unkrautregulierung: „Zur einfacheren Handhabung wollen wir deshalb einen Roboter konzipieren, der das Hacken der Bio-Zuckerrüben von Hand ersetzen kann.“

Neben Fachvorträgen zum Ökolandbau und zur Optimierung der internen Kleegrasverwertung bei viehlosen Betrieben können sich die Besucher auf den Versuchsflächen an Ständen zu Anbaustrategien durch Zwischenfrüchte, Futter- und Körnerleguminosen oder alte Getreidesorten informieren. Betriebsleiter Jörg Juister bietet zu verschiedenen Uhrzeiten einen Rundgang über die Flächen des Gut Wilmersdorf an.

Projektpartner:

• Praxisnetzwerk Biodiversität im Ackerbau
Projektlaufzeit: 08/2020 bis 12/2022

• MSL-Projekt: Markt- und standortangepasste Landbewirtschaftung
unterstützt durch den Verein für Erhaltung und Rekultivierung von Nutz-pflanzen in Brandenburg (VERN)

Diese Vorhaben werden gefördert durch das Ministerium für Landwirtschaft, Umwelt und Klimaschutz des Landes Brandenburg (MLUK) im Rahmen des Entwicklungsprogramms für den ländlichen Raum in Brandenburg und Berlin. Die Zuwendung setzt sich aus ELER- und Landesmitteln zusammen.

• NutriNet: Kompetenz-und Praxis- Forschungsnetzwerk zur Weiterentwicklung des Nähstoffmanagements im Ökologischen Landbau
Dieses Vorhaben wird gefördert durch das Bundesministerium für Ernährung und Landwirtschaft aufgrund eines Beschlusses des Deutschen Bundestages im Rahmen des Bundesprogramms Ökologischer Landbau und anderer Formen nachhaltiger Landwirtschaft.
Projektlaufzeit: 03/2019 bis 02/2024
Mehr dazu unter http://www.nutrinet.agrarpraxisforschung.de

• ZUckerrübe: WIR!-Region 4.0-Verbundprojekt-zUCKERrübe
Die Anbauverfahrensentwicklung mittels innovativer Feldrobotik, UAS und Praxisforschung für Bio-Zuckerrübenanbau in der Uckermark wird gefördert vom Bundesministerium für Bildung und Forschung im Programm „WIR! Wandel durch Innovation in der Region“.
Projektlaufzeit: 02/2021 bis 07/2023

SAVE-THE-DATE
Aufgrund der aktuellen Lage wird die Veranstaltung am 15. Juni unter Vorbehalt sowie bestimmten Hygienebedingungen stattfinden. Die Teilnehmerplätze für den Feldtag, als auch für die einzelnen Vorträge und Feldbesichtigungen, sind begrenzt. Zur Anmeldung für die Veranstaltung (mit Nennung der gewünschten Teilnahme bzw. Zeit für den Rundgang) bitte den vollständigem Namen und eine E-Mailadresse an Sabrina.Scholz@hnee.de senden – eine Bestätigungsmail zur Teilnahmemöglichkeit erfolgt dann umgehend bis Anfang Juni.

Programm:

10 Uhr
Begrüßung und Vorstellung der aktuellen Forschung auf der Lehr- und Versuchsstation Wilmersdorf (Ralf Bloch, HNEE – Wiss. Leitung der Lehr- und Forschungsstation Wilmersdorf)

ab 10.20 Uhr
verschiedene Infostände auf den Versuchsflächen:

Zuckerrübe – wie gelingt die Beikrautregulierung?
Zwischenfrüchte – Welche Auswirkungen haben sie auf den Wasserhaushalt und die Nachfrucht?
Futterleguminosen – Sind Arten wie Stein-, Horn- und Bokharaklee eine Anbauoption?
Körnerleguminosen – Was bringt der Anbau von Soja und Kichererbsen?
alte Getreidesorten – Sorten und Anbaumöglichkeiten

10.40–11.20 Uhr
Vortrag: Wie gelingt der Zuckerrübenanbau im Ökolandbau? (N.N.)

11.30–12.30 Uhr und 13.30–14.30 Uhr
Rundgang über betriebseigene Flächen des Gut Wilmersdorf (Jörg Juister, Gut Wilmersdorf GbR)

12.40–13.20 Uhr
Vortrag: Optimierung der internen Kleegrasverwertung bei viehlosen Betrieben (N.N.)

Über die HNEE:
Die HNEE ist national wie international Impulsgeberin für nachhaltige Entwicklung. Rund 2.300 Studierende aus 57 Ländern studieren und mehr als 350 Beschäftigte forschen, lehren und arbeiten an der modernen Campus-hochschule inmitten einer ausgedehnten Naturlandschaft vor den Toren Berlins. An den vier Fachbereichen Wald und Umwelt, Landschaftsnutzung und Naturschutz, Holzingenieurwesen und Nachhaltige Wirtschaft kön-nen in aktuell 20 und zum Teil deutschlandweit einzigartigen Studiengängen Kompetenzen in den Bereichen Naturschutz, Forstwirtschaft, Ökolandbau, Anpassung an den Klimawandel, nachhaltige Wirtschaft, Holzbau und nachhaltiges Tourismusmanagement erworben werden. www.hnee.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ralf Bloch (wissenschaftlicher Leiter der Lehr- und Forschungsstation Wilmersdorf)
HNEE, Fachbereich Landschaftsnutzung und Naturschutz – Fachgebiet Agrarökologie und nachhaltige Anbausysteme
Telefon: +49 3334 657-362
ralf.bloch@hnee.de

Sabrina Scholz (Verantwortliche Projekt Praxisnetzwerk Biodiversität im Ackerbau)
HNEE, wissenschaftliche Mitarbeiterin am Fachgebiet Politik und Märkte in der Agrar- und Ernährungswirtschaft
Tel.: +49 3334 657-425
Sabrina.Scholz@hnee.de

Charlotte Kling (Verantwortliche Projekt NutriNet)
HNEE, wissenschaftliche Mitarbeiterin am Fachgebiet Politik und Märkte in der Agrar- und Ernährungswirtschaft
Tel.: +49 3334 657-239
Charlotte.Kling@hnee.de

Weitere Informationen:
http://www.region40.de/hf1-projekt-zuckerruebe Link zum Feldtag 2019
http://www.hnee.de/E10882 Link zur Projektseite Regionales Ackerbau-Praxisnetzwerk „Biodiversität im Ackerbau“ in Brandenburg
http://www.hnee.de/K6775 Link zur Projektseite NutriNet
http://www.region40.de/hf1-projekt-zuckerruebe Link zum Projekt zUCKERrübe

Anhang
Pressemitteilung zum Feldtag 2021 mit Logos

(nach oben)


Kraftstoffe & Energieträger der Zukunft

Dr. Regine Klose-Wolf Kommunikation und Veranstaltungen
Deutsches Maritimes Zentrum e. V.
Wie kann die Maritime Branche zur Begrenzung des Klimawandels beitragen? Deutsches Maritimes Zentrum stellt erste Zwischenergebnisse zu den Studien Kraftstoffportfolio und Wasserstoff vor.

Der Ersatz von fossilen Energieträgern durch regenerative Kraft- und Brennstoffe ist ein wichtiges Thema für die Maritime Branche. Sie steht vor einem globalen Umbruch. Um die Klimaziele zu erreichen und einen Beitrag zur Begrenzung des Klimawandels zu leisten, müssen Schiffbau, Schifffahrt und Häfen sowie die in der Logistikkette angrenzenden Bereiche rasche Erfolge erzielen.

Mehr als 200 Expert*innen haben heute darüber diskutiert, welche Brennstoffe aktuell für die globale Schifffahrt zur Verfügung stehen und welche Möglichkeiten der Nutzung und der Herstellung sowie des Transports von Wasserstoff entlang der maritimen Logistikkette es heute und perspektivisch gibt.

„Das Deutsche Maritime Zentrum hat Studien sowohl zur Kraftstoffanalyse in der Schifffahrt nach Schiffssegmenten als auch zur Wasserstoffnutzung in der Maritime Wirtschaft beauftragt, mit denen wir in die Zukunft denken wollen“, sagt Claus Brandt, Geschäftsführer des DMZ. Ziel der Studien sei es, Grundlagen für den Strukturwandel zu definieren. „Wir müssen wissen, welche alternativen Kraftstoffe global vorgehalten werden können und welche Rolle Wasserstoff in der maritimen Wirtschaft spielen kann“, fährt Brandt fort.

„Es geht darum, den Schiffsverkehr CO2-frei zu bekommen. Dafür müssen wir wissen, wo welche Brennstoffe über die Welt verteilt für welche Schiffstypen zur Verfügung stehen. Auch wollen wir zeigen, welche Kraftstoffe sich wo am besten substituieren und bunkern lassen“, erläutert Ralf Plump, Referent für Schiffs- und Meerestechnik im DMZ, der die Studie über alternative Kraftstoffe betreut.
„Wenn wir Wasserstoff effektiv einsetzen wollen, müssen wir uns jetzt Gedanken über Regularien und Logistikketten machen, dabei geht es um Fragen der Wasserstoffherstellung, seiner unterschiedlichen Nutzungsmöglichkeiten, der Speicherung, des Transports, der Distribution etc. Dabei spielen die Häfen eine zentrale Rolle,“ erklärt Katja Leuteritz, Referentin für Häfen und Infrastruktur im DMZ, die die Studie zu Wasserstoff begleitet.

Auf der Veranstaltung wurden erste Ergebnisse der Studien präsentiert. Den Auftakt bildeten zwei Impulse.
Detlef Wilde (Alfred-Wegener-Institut), stellte – in seiner Funktion als Projektdirektor für die Polarstern II – den Entscheidungsprozess für das neue Schiff dar, das so weit als möglich klimaneutral konzipiert und betrieben werden soll.

Dr. Tobias Haack (Vorstand der HADAG Seetouristik und Fährdienst AG) erklärte, wie Hamburgs ÖPNV auf dem Wasser klimaneutral wird.

Anschließend präsentierte Thomas Rust, Studienleiter zum Kraftstoff-Portfolio für den Auftragnehmer Ramboll, die Daten der Erhebung des Status quo der Kraftstoff-Arten und-Verbräuche im Schiffsverkehr weltweit. Hierbei sei auch erfasst worden, welche Alternativen es an welchem Ort gibt und zukünftig geben könnte.

Dr. Nils Meyer-Larsen (Institut für Seeverkehrswirtschaft und Logistik/ISL), der Leiter der Studie zu Wasserstoff, erläuterte erste Ergebnisse. Die Analyse der Norddeutschen, der Nationalen und der Europäischen Wasserstoffstrategie zeige eine Lücke zwischen Energiebedarf und Energieerzeugung in Deutschland auf. In einem nächsten Schritt werden in der Studie aktuelle Technologien in Bezug auf Wasserstoff in der maritimen Branche untersucht und die damit verbundenen Prozessketten von der Herstellung zum fertigen Produkt definiert.

„Wasserstoff ist das verbindende Element zwischen den beiden Projekten“, sagte Claus Brandt am Ende der Veranstaltung, „es ist die Grundlage aller alternativen Kraftstoffe und ist immer im Spiel, wenn es um CO2-freie Schiffe, Häfen und Logistik geht.“

Beide Studien sollen im Sommer 2021 abgeschlossen und veröffentlicht werden.

Sollten Sie weitere Informationen benötigen oder Rückfragen haben, wenden Sie sich gerne an uns.

Wissenschaftliche Ansprechpartner:
Katja Leuteritz, Referentin Häfen und Infrastruktur, Telefon: +49 40 9999 698 – 78
E-Mail: Leuteritz@dmz-maritim.de
Ralf Plump, Referent Schiffs- und Meerestechnik, Telefon: +49 40 9999 698 – 81
E-Mail: Plump@dmz-maritim.de

(nach oben)


Keine Ausreden mehr: EU-Kommissar Frans Timmermans unterstreicht ein effektives Recycling von Hightech-Kunststoffen

Susann Thoma Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration IZM
Nahezu 200 internationale Teilnehmende schalteten sich am 15.04.2021 zum virtuellen Workshop „Circular product development – the secrets to design for and from recycling“, welcher im Rahmen des EU-Projekts PolyCE stattfand. Die Expert*innen präsentierten ihre Erfahrungen und Erkenntnisse zur ganzheitlichen Kreislaufwirtschaft für Hightech-Kunststoffe sowie ganz nach dem Motto „Design for Recycling“ entwickelte Best-Practice-Strategien. Ein zusätzliches Highlight war der Auftritt des für den Green Deal zuständigen Kommissars für Klimaschutz und Vizepräsidenten der EU-Kommission Frans Timmermans. Ihm wurden Handlungsempfehlungen für ein effektives Kunststoff-Recycling übergeben.

2017 startete PolyCE (Post-Consumer High-tech Recycled Polymers for a Circular Economy) mit dem gemeinsamen Ziel der 20 Projektpartner*innen, einen Wandel hin zur Kreislaufwirtschaft für Kunststoffe zu aktivieren. Mit einem Blick für die gesamte Wertschöpfungskette gilt es, bereits genutzte Hightech-Kunststoffe, wie sie in Handys, Fernsehgeräten, Staubsaugern und Co. zu finden sind, als Rohstoffquelle zu nutzen und somit gänzlich wiederzuverwenden. Nicht nur aus Forschungszwecken sind diese Ziele höchst aktuell, denn auch die Europäische Kommission sieht die Notwendigkeit einer Bewegung hin zur Kreislaufwirtschaft und verabschiedete eine europaweite Strategie, mithilfe derer bis 2025 zehn Millionen Tonnen recycelte Kunststoffe in Form von neuen Produkten zurück auf den Markt finden sollen.

Im aktuellen Workshop lag der Fokus vor allem auf dem Design von WEEE-Kunststoffen, die durch mechanisches Recycling gewonnen wurden. In Keynote-Vorträgen erläuterten die Expert*innen die Herausforderungen der letzten vier Jahre, zeigten aber auch, dass das Recycling von Kunststoffen keine simple, aber lösbare Aufgabe ist – ein klares Signal an Hersteller, zukünftig intensiver recycelte Kunststoffe einzusetzen.

Eine besondere Ehre war es, dass Frans Timmermans, einer der drei geschäftsführenden Vizepräsidenten der EU-Kommission als Verantwortlicher für den Green Deal, am interaktiven Workshop teilnahm. Virtuell überreichte ihm die Koordinatorin des Projekts und Umwelt-Expertin am Fraunhofer IZM, Gergana Dimitrova, die im Projekt entstandene Publikation „Design for Recycling“, welche unter anderem praxisnahe Richtlinien für Designer*innen beinhaltet.

Frans Timmermans: „Wir müssen uns auf eine Kreislaufwirtschaft zubewegen. Der Wunsch, der erste klimaneutrale Kontinent zu sein, ist kein Ziel um seiner selbst willen. Er ist Teil unserer Einsicht, dass wir innerhalb der Grenzen unseres Planeten leben müssen.

Wir müssen auch sicherstellen, dass unsere Produkte die höchsten Nachhaltigkeitsstandards einhalten. Wir brauchen langlebige, wiederverwendbare und reparierbare Produkte. Solche, die aus recycelten Materialien hergestellt und wiederum für hochwertiges Recycling ausgelegt sind. Dies ist eine wesentliche Diskussion, zu der Ihr Projekt einen hochaktuellen Beitrag leistet. Das Buch, das Sie heute vorstellen, zeigt glasklar, wie wir diese Ziele erreichen können.

Es ist klar: Nur mit einer Kreislaufwirtschaft können wir Klimaneutralität erreichen.“

Bis in den Nachmittag konnten in einer abwechslungsreichen Melange aus Vorträgen, Fallbeispielen und offenen Fragerunden unterschiedliche Ansätze präsentiert werden, die aufzeigten, wie eine Hinwendung zur Wiederverwendung recycelter Kunststoffe schrittweise umgesetzt werden kann und welche Designempfehlungen zu berücksichtigen sind. Die Richtlinien schließen dabei fünf Kategorien ein:
1. die Vermeidung von Gefahrstoffen
2. einen einfachen Zugang zu umweltbelastenden Produktkomponenten
3. die Verwendung recycelter Materialien
4. die Verwendung recycelbarer Materialien
5. die Verwendung von Materialkombinationen und Verbindungen, die einen einfachen Zugriff auf diese Materialien ermöglichen.

Diese Richtlinien gelten als erster abgestimmter Wegweiser für die Elektronik-Industrie. Sie werden Entscheidungsträger*innen aus dem Produktdesign, der Fertigung, aber auch auf politischen Ebenen helfen, an der Entwicklung nachhaltiger Produkte mitwirken zu können.

Das PolyCE-Konsortium besteht aus: KU Leuven, Ona Product SI, Philips, ECODOM, dem European Environmental Bureau (EEB), Ghent University, Imagination Factory, KunststoffWeb, MGG Polymers, PEZY Group, Prolabin & Tefarm, SITRAPLAS GmbH, TECNALIA Research & Innovation, TU Berlin, UL Environment, University of Northampton: Institute of Logistics, Infrastructure, Supply and Transportation, Whirlpool, UNU-VIE SCYCLE und dem Fraunhofer IZM.

Die Richtlinien zum Download: https://www.polyce-project.eu/results/

Wissenschaftliche Ansprechpartner:
Gergana Dimitrova
Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration IZM
Gustav-Meyer-Allee 25
13355 Berlin

Telefon +49 30 46403-7963
gergana.dimitrova@izm.fraunhofer.de

Originalpublikation:
https://www.izm.fraunhofer.de/de/news_events/tech_news/circular-product-developm…

Weitere Informationen:
https://www.polyce-project.eu/

(nach oben)


Grüner Wasserstoff: Israelisch-deutsches Team löst das Rätsel um Rost

Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Metalloxide wie Rost eignen sich als Photoelektroden, um „grünen“ Wasserstoff mit Sonnenlicht zu erzeugen. Doch trotz jahrzehntelanger Forschung an diesem preisgünstigen Material sind die Fortschritte begrenzt. Ein Team am HZB hat nun mit Partnern von der Ben-Gurion-Universität und dem Technion, Israel, die optoelektronischen Eigenschaften von Rost (Hämatit) und anderen Metalloxiden in bisher nicht gekanntem Detail analysiert. Ihre Ergebnisse zeigen, dass der maximal erreichbare Wirkungsgrad von Hämatit-Elektroden deutlich geringer ist als bisher angenommen. Die Studie gibt darüber hinaus konkrete Hinweise, wie sich neue Materialien für Photoelektroden realistischer bewerten lassen.

Wasserstoff wird im Energiesystem der Zukunft in großen Mengen als Energieträger und Rohstoff benötigt. Dafür muss Wasserstoff jedoch klimaneutral erzeugt werden, zum Beispiel über eine so genannte Photo-Elektrolyse, in der Wasser in seine Elemente Wasserstoff und Sauerstoff gespalten wird. Die nötige Energie liefert dafür das Sonnenlicht. Als Photoelektroden kommen halbleitende Materialien in Frage, die Sonnenlicht in Strom umwandeln und im Wasser stabil bleiben. Zu den besten Kandidaten für preisgünstige und stabile Photoelektroden gehören Metalloxide. Einige dieser Metalloxide besitzen zudem katalytisch aktive Oberflächen, die die Bildung von Wasserstoff an der Kathode bzw. Sauerstoff an der Anode beschleunigen.

Warum bleibt Rost unter den berechneten Möglichkeiten?
Im Fokus der Forschung steht seit langem Hämatit (α-Fe2O3), das weithin unter dem Namen Rost bekannt ist. Hämatit ist stabil im Wasser, extrem preiswert und eignet sich gut als Photoanode mit nachgewiesener katalytischer Aktivität für die Sauerstoffentwicklung. Obwohl seit etwa 50 Jahren an Hämatit-Photoanoden geforscht wird, liegt die Photostrom-Umwandlungseffizienz bei weniger als 50 Prozent des theoretischen Maximalwertes. Zum Vergleich: Der Wirkungsgrad des Halbleitermaterials Silizium, das heute fast 90 Prozent des Photovoltaikmarktes dominiert, liegt bei etwa 90 Prozent des theoretischen Maximalwertes. Über die Gründe rätselt man seit langem. Was genau wurde übersehen? Woran liegt es, dass trotz langer Forschung nur bescheidene Steigerungen des Wirkungsgrads erreicht werden konnten?

Israelisch-Deutsche Kooperation löst das Rost-Rätsel
Nun aber hat ein Team um Dr. Daniel Grave (Ben-Gurion-Universität), Dr. Dennis Friedrich (HZB) und Prof. Dr. Avner Rothschild (Technion) eine Erklärung dafür geliefert und in Nature Materials publiziert. Die Gruppe am Technion untersuchte, wie die Wellenlänge des absorbierten Lichts die photoelektrochemischen Eigenschaften der Hämatit-Dünnschichten beeinflusst, während das HZB-Team mit zeitaufgelösten Mikrowellenmessungen die Beweglichkeit der Ladungsträger in dünnen Rostschichten bestimmte.

Wichtige physikalische Eigenschaft des Materials
Durch die Kombination ihrer Ergebnisse gelang es den Forschenden, eine grundlegende physikalische Eigenschaft des Materials zu extrahieren, die bei der Betrachtung anorganischer Solarabsorber bisher vernachlässigt wurde: Das Spektrum der Photogenerationsausbeute. „Grob gesagt bedeutet dies, dass nur ein Teil der absorbierten Licht-Energie im Hämatit auch mobile Ladungsträger erzeugt, der Rest erzeugt eher lokalisierte Ladungsträger und geht somit verloren“, erklärt Grave.

Obergrenze neu berechnet
„Dieser neue Ansatz gibt einen experimentellen Einblick in die Wechselwirkung zwischen Licht und Material in Hämatit und erlaubt es, das Spektrum in produktive und nicht-produktive Absorption zu unterscheiden“, erklärt Rothschild. „Damit konnten wir zeigen, dass die effektive Obergrenze für die Umwandlungseffizienz von Hämatit-Photoanoden deutlich niedriger ist als bisher berechnet“, sagt Grave. Nach der neuen Berechnung kommen die heutigen „Champions“ unter den Hämatit-Photoanoden schon recht nahe an das theoretisch mögliche Maximum heran. Viel besser geht es also nicht mehr.

Realistische Einschätzung von neuen Materialien
Der Ansatz wurde auch erfolgreich auf das Modellmaterial TiO2 und das derzeit beste Metalloxid-Photoanodenmaterial BiVO4 angewendet. „Mit diesem neuen Ansatz haben wir unserem Arsenal ein mächtiges Werkzeug hinzugefügt, das es uns ermöglicht, das tatsächliche Potenzial von Photoelektrodenmaterialien zu ermitteln. Wenn wir dies auf neuartige Materialien anwenden, wird dies hoffentlich die Entdeckung und Entwicklung der idealen Photoelektrode für die solare Wasserspaltung beschleunigen. Es würde uns auch erlauben, ’schnell zu scheitern‘, was bei der Entwicklung neuer Absorbermaterialien wohl ebenso wichtig ist“, so Friedrich.

Originalpublikation:
Nature Materials (2021): Extraction of mobile charge carrier photogeneration yield spectrum of ultrathin-film metal oxide photoanodes for solar water splitting

Daniel A. Grave, David S. Ellis, Yifat Piekner, Moritz Kölbach, Hen Dotan, Asaf Kay, Patrick Schnell, Roel van de Krol, Fatwa F. Abdi, Dennis Friedrich and Avner Rothschild

DOI: 10.1038/s41563-021-00955-y

(nach oben)


Papier-basierter Covid-19-Antikörper-Test – TU-Forschende veröffentlichen ihre Entwicklung in „Scientific Reports“

Bettina Bastian Stabsstelle Kommunikation und Medien
Technische Universität Darmstadt
Der Arbeitskreis für Angewandte Biochemie an der Technischen Universität Darmstadt unter Leitung von Professor Harald Kolmar forscht zur Generierung maßgeschneiderter Antikörper für diagnostische und therapeutische Anwendungen. In einem Projekt im Rahmen der strategischen Kooperation zwischen der TU Darmstadt und dem Unternehmen Merck entwickelte der Doktorand Adrian Elter innovative Papier-basierte Schnelltests zur Detektion von SARS-CoV-2 spezifischen Antikörpern. Die Ergebnisse wurden jetzt publiziert.

In sogenannten „lateral flow tests“ (LFTs), bekannt als Corona-Schnelltests oder Schwangerschaftstests, wird chemisch modifizierte Zellulose in Form von Nitrozellulose-Membranen für den Kapillartransport der Probe verwendet. Nitrocellulose ist schwer biologisch abbaubar und in der Herstellung deutlich aufwändiger und teurer als herkömmliches Zellulose-basiertes Papier. „Deshalb lag unser Fokus darauf, Nitrozellulose durch biologisch abbaubares Papier zu ersetzen“, so Professor Harald Kolmar. „Papier als Trägermaterial für solche Tests eignete sich bisher nicht, da bei solchen Teststreifen auf der Kontroll- und Testlinie spezielle Nachweis-Antikörper in großer Anzahl aufgebracht werden müssen. Antikörper haften allerdings schlecht an Papier, aber sehr gut an Nitrozellulose. Für dieses Problem haben wir eine technische Lösung gefunden. Unsere neuartige Technologie basiert auf der Kopplung eines stark Zellulose-bindenden Proteins aus Bakterien an Antikörper, wodurch diese auf Papiersubstraten ausgezeichnet anhaften“, so fasst Kolmar die Ergebnisse der Arbeit im Rahmen der bisherigen „Merck Lab@TU Darmstadt“-Aktivitäten zusammen.

Die Modellexperimente mit einem Papier-basierten Schwangerschaftstest und einem Covid19-Antikörper-Schnelltest wurden im Fachjournal Scientific Reports der Nature Publishing Group veröffentlicht.

Schnelltests sind seit Jahrzehnten nicht mehr aus der klinischen Diagnostik, Umweltanalytik und Heimanwendung wegzudenken. Milliarden Schnelltests werden sowohl für den Nachweis einer Infektion mit dem Coronavirus eingesetzt, als auch zur Überprüfung, ob Patienten nach einer Infektion oder Impfung Antikörper gegen den Erreger gebildet haben. „Wir dürfen gerade in dieser Zeit nicht vergessen, dass eine Minimierung der Kosten für solche Schnelltests insbesondere auch für die Anwendung in Gesundheitssystemen einkommensschwacher Länder einen wichtigen Beitrag zur Gesundheitsförderung und nachhaltigen Ressourcennutzung leisten kann“, betont Kolmar. Der Merck-Mitarbeiter und Projektleiter des Merck Labs, Gerhard Schwall, ergänzt: „Das Projekt macht deutlich, wie eine intensive Zusammenarbeit zwischen Universität und Unternehmen zu nachhaltigen Lösungen führt. Die enge Partnerschaft zwischen Merck und TU Darmstadt werden wir in Zukunft in Form eines ,Sustainability Hubs‘ in den Fokus der Nachhaltigkeit stellen.“

Publikation
Carbohydrate binding module-fused antibodies improve the performance of cellulose-based lateral flow immunoassays. Scientific Reports volume 11, Article number: 7880 (2021): https://go.nature.com/3djVxFf
Wissenschaftlicher Ansprechpartner
Professor Dr. Harald Kolmar
harald.kolmar@tu-darmstadt.de
+49 6151 16-21291

Über die TU Darmstadt
Die TU Darmstadt zählt zu den führenden Technischen Universitäten in Deutschland. Sie verbindet vielfältige Wissenschaftskulturen zu einem charakteristischen Profil. Ingenieur- und Naturwissenschaften bilden den Schwerpunkt und kooperieren eng mit prägnanten Geistes- und Sozialwissenschaften. Drei Forschungsfelder prägen das Profil der TU Darmstadt: I+I (Information and Intelligence), E+E (Energy and Environment) sowie M+M (Matter and Materials). Wir entwickeln unser Portfolio in Forschung und Lehre, Innovation und Transfer dynamisch, um der Gesellschaft kontinuierlich wichtige Zukunftschancen zu eröffnen. Daran arbeiten unsere 312 Professorinnen und Professoren, rund 4.500 wissenschaftlichen und administrativ-technischen Mitarbeiterinnen und Mitarbeiter sowie rund 25.400 Studierenden. Im Netzwerk Unite!, das Universitäten aus sieben europäischen Ländern vereint, treibt die TU Darmstadt die Idee der europäischen Universität voran. Mit der Goethe-Universität Frankfurt und der Johannes Gutenberg-Universität Mainz bildet die TU Darmstadt die strategische Allianz der Rhein-Main-Universitäten.

http://www.tu-darmstadt.de
MI-Nr. 30/2021, AK Kolmar/Merck Lab

Wissenschaftliche Ansprechpartner:
Professor Dr. Harald Kolmar
harald.kolmar@tu-darmstadt.de
+49 6151 16-21291

Originalpublikation:
Carbohydrate binding module-fused antibodies improve the performance of cellulose-based lateral flow immunoassays. Scientific Reports volume 11, Article number: 7880 (2021): https://go.nature.com/3djVxFf

(nach oben)


Wohlhabendere Länder im Vorteil

Pia Barth Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
195 Vertragspartner haben auf dem Pariser Klimagipfel 2015 Maßnahmen gegen den Klimawandel beschlossen. Wer in der Folge wieviel Treibhausgase reduziert hat, wird derzeit weltweit in zahlreichen Studien untersucht. Doch an welchen ethischen Kriterien wird der Erfolg der Maßnahmen gemessen? Eine Analyse der Prüfkriterien legt nun ein Zusammenschluss internationaler Philosophen sowie Sozial- und Politikwissenschaftler vor, denen auch Prof. Dr. Darrel Moellendorf, Politikwissenschaftler an der Goethe-Universität, angehört. Die Wissenschaftler fordern ethische Richtlinien für Kontrollstudien zu weltweiten Maßnahmen gegen den Klimawandel.

Zehn von sechzehn untersuchten Studien zur Bewertung der weitweiten Anstrengungen gegen den Klimawandel urteilen nach Kriterien, die „voreingenommen und stark vereinfachend sind“. Damit bevorteilten sie vor allem die wohlhabenden Länder der Erde. Zu diesem Schluss kommen 18 internationale Wissenschaftlerinnen und Wissenschaftler in ihrer Studie „Ethical choices behind quantifications of fair contributions under the Paris Agreement“, an der auch der Politikwissenschaftler Prof. Dr. Darrel Moellendorf beteiligt ist. Im Vorfeld des für November in Glasgow geplanten Weltklimagipfels fordern sie deshalb, diese Kriterien transparent zu machen und politisch zur Diskussion zu stellen.

„Viele dieser Bewertungen von Klimagerechtigkeit gelten als neutral und unabhängig, was sie aber nicht sind und vielleicht auch gar nicht sein können“, sagt Darrel Moellendorf, Politikwissenschaftler mit dem Schwerpunkt Umweltethik an der Goethe-Universität. „Wir müssen über diese Kriterien nachdenken, bevor auf Grundlage dieser Studien neue Beschlüsse gefasst werden. Andernfalls wird es weiterhin keine Klimagerechtigkeit geben. Und Klimagerechtigkeit bedeutet: Länder, die eine größere Kapazität haben, gegen den Klimawandel vorzugehen, müssen auch größere Anstrengungen unternehmen.“

Selbst der anerkannten und als unabhängig geltenden wissenschaftlichen Analyse „Climate Action Tracker“ (CAT), die von Medien, Regierungen und der Zivilgesellschaft zur Einschätzung klimagerechter Schritte herangezogen wird, attestieren die Wissenschaftlerinnen und Wissenschaftler Kriterien, die wohlhabendere Länder bevorzugen. So liege etwa auch in CAT-Analysen das in der Europäischen Union praktizierte Grandfathering-Prinzip zugrunde – wenn auch „tief im Innern ihres Maschinenraums versteckt“, so die Wissenschaftler: Nach dem Grandfathering-Prinzip erhalten Anlagen kostenlose Zertifikate gemäß ihren bisherigen Emissionen. Dieses Prinzip benachteilige Anlagen, die früher weniger durch Emissionen zum Klimawandel beigetragen hätten. Zu einer Schieflage in der Bewertung von Klimagerechtigkeit führe zudem auch, dass die „Not“ mancher Länder, also deren schwächere ökonomische Lage, bei der Beurteilung ihrer Klimagerechtigkeit nicht berücksichtigt werde.

„Die Studien sollten diese unterschiedlichen Ausgangslagen der Länder offenlegen“, sagt Moellendorf. „Auch sollte die größere Verantwortung der Industrienationen in die Bewertung von klimagerechtem Handeln einfließen. Und wir sollten uns darüber klar sein, dass es eine völlig neutrale Bewertung von Klimagerechtigkeit nicht gibt. Nach welchen Kriterien wir sie beurteilen, sollte aber transparent gemacht werden und auch politisch diskutiert werden.“

Neben dem Politikwissenschaftler Prof. Dr. Darrel Moellendorf der Goethe-Universität sind folgende Wissenschaftlerinnen und Wissenschaftler an der Studie beteiligt:
Kate Dooley, University of Melbourne; Christian Holz, Carleton University,Ottawa; Sivan Kartha, Stockholm Environment Institute, Boston; Sonja Klinsky, Arizona State University; Timmons Roberts,, Brown University, Rhode Island; Henry Shue, University of Oxford; Harald Winkler, University of Cape Town; Tom Athanasiou, Climate Equity Reference Project, Berkeley; Simon Caney, University of Warwick; Elizabeth Cripps, University of Edinburgh; Navroz K. Dubash, Centre for Policy Research, New-Delhi; Galen Hall, Brown University; Paul G. Harris, Education University of Hong Kong; Bård Lahn, CICERO Center for International Climate Research, Oslo; Benito Müller, University of Oxford; Ambuj Sagar, Indian Institute of Technology, Delhi; Peter Singer, Princeton University.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Darrel Moellendorf
Institut für Politikwissenschaft/ Forschungsverbund „Normative Ordnungen“
Goethe-Universität Frankfurt
E-Mail: darrel.moellendorf@normativeorders.net

Originalpublikation:
Publikation in „Nature Climate Change“:
https://dx.doi.org/10.1038/s41558-021-01015-8

(nach oben)


Kampf gegen Mikroplastik: Neues Verfahren zur Herstellung von Dämmstoff aus Kunststoffabfällen

Magister Susanne Pitro Presse und Veranstaltungsmanagement
Freie Universität Bozen
Ein Schaumstoff zur akustischen und thermischen Dämmung von Gebäuden, der aus Mikroplastik im Meer gewonnen werden kann: Mit dieser Innovation will der Forscher Marco Caniato von der Fakultät für Naturwissenschaften und Technik einen konkreten Beitrag zur Reduzierung des Plastikmülls in unseren Ozeanen leisten. Das Verfahren beruht auf einem Biopolymer, das aus der Verarbeitung von Rotalgen gewonnen wird.

Sekundäres Mikroplastik, also Plastikpartikel, die kleiner als 5 Millimeter sind, und aus weggeworfenen Plastikflaschen und diversen Kunststoffverpackungen entstehen, macht etwa 68 bis 81% des Mikroplastiks in unseren Ozeanen aus (Quelle: Europäisches Parlament). Laut den Vereinten Nationen befanden sich im Jahr 2017 bis zu 51 Billionen solcher Plastikpartikel in den Weltmeeren, das seien 500 Mal mehr Partikel als Sterne in unserer Galaxie. Angesichts dieser weltweiten Problematik sind die Aufbereitung und der Lebenszyklus von Kunststoffen zu einer riesigen Herausforderung geworden, von der die biologische Vielfalt der Meere und das Überleben vieler Fischarten abhängt. Darüber hinaus weiß man noch nicht genau, wie sehr diese Mikropartikel über die Nahrungskette auch dem Menschen schaden.

Eine vielversprechende Innovation in diesem Bereich kommt nun von Marco Caniato, einem Forscher und Dozenten der Fakultät für Naturwissenschaften und Technik aus der Forschungsgruppe rund um Prof. Andrea Gasparella: Seine patentierte Erfindung beruht auf der Nutzung eines Biopolymers, das sich als extrem effizientes thermisches und akustisches Isoliermaterial erwiesen hat. In Zusammenarbeit mit der Universität Triest entwickelte Caniato dieses Polymer aus einem Extrakt der Meeresalge Agar Agar, ein Polysaccharid, das häufig als rein pflanzliches Geliermittel mit der Konsistenz eines Gels verwendet wird, und in diesem Fall nach Zugabe von Kalziumkarbonat mit pulverisiertem Kunststoff vermischt wird.

Um dem in den Ozeanen am weitesten verbreiteten Mikroplastik möglichst nahe zu kommen, verwendeten die Forscher Kunststoffabfälle aus dem Industrie- und Haushaltsbereich (Polyethylen, PET-Flaschen, expandiertes und geschäumtes Polystyrol). Nach dem Gelieren werden die Proben 12 Stunden lang bei -20 °C eingefroren und anschließend gefriergetrocknet, um das Wasser zu entfernen. Das Endprodukt ist ein poröses Material, das zum Beispiel als Alternative zu Steinwolle verwendet werden kann. Doch nicht nur das Produkt selbst, auch sein Herstellungsprozess, ist umweltfreundlich. So wird selbst das Wasser wiederverwendet, das am Ende der Gefriertrocknung nach dem Auftauen abgegeben wird.

Die Entwicklung solch innovativer Technologien zur Abfallverwertung sind in der Wissenschaft keine Neuigkeit. So wurde beispielsweise ermöglicht, Glaspulver als Füllstoff für Beton oder Kunststoffabfälle als Füllstoff für Asphaltmischungen zu verwenden. Neu ist dagegen die Idee, die Plastikpartikel aus unseren Meeren zu verwerten. Dies scheiterte bisher auch an der Vermischung dieser Partikel mit anderen Abfällen sowie Meersalz, die eine Wiederverwertung schwierig machen. „Unsere Charakterisierungstests haben bestätigt, dass unser Produkt hervorragende Dämmeigenschaften hat und problemlos mit herkömmlichen Dämmstoffen wie Steinwolle oder Polyurethanschaumstoffen mithalten kann”, unterstreich Caniato. „Wir haben bewiesen, dass es mit einem nachhaltigen, sauberen und ökologischem Ansatz möglich ist, Meeresabfälle zu recyceln und daraus ein sowohl ökologisch wie auch wirtschaftlich überzeugendes Produkt herzustellen.“

Wissenschaftliche Ansprechpartner:
Marco Caniato
Free University of Bolzano
marco.caniato@unibz.it
+39 0471 017145

Originalpublikation:
https://www.sciencedirect.com/science/article/pii/S2214993721000294?via%3Dihub

Anhang
So sieht das recycelte Material aus

(nach oben)


Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik

Beate Rogler MATH+, Presse- und Öffentlichkeitsarbeit, Sekretariat MA 2-2
MATH+ Das Forschungszentrum der Berliner Mathematik
Wie Modellierungen und Simulationen von zwei Berliner Forschungsgruppen helfen, Zukunftsprognosen vorauszusagen und Entscheidungsträger zu unterstützen. Der Ansatz ist der gleiche, der Unterschied liegt in den Dimensionen. Die Arbeitsgruppe um Edda Klipp von der Humboldt-Universität konzentriert sich mit komplexen Modellen auf eine Kleinstadt; die Teams um Kai Nagel von der TU Berlin sowie Christof Schütte und Tim Conrad vom Zuse-Institut und der FU Berlin beziehen sich auf die Großstadt Berlin und Mobilfunkauswertungen. Der Standort Berlin ist weltweit bekannt für Angewandte Mathematik. Dafür steht u.a. auch der Exzellenzcluster MATH+, an dem die gesamte Berliner Mathematik beteiligt ist.

Was passiert, wenn wir alle zu Hause bleiben, wenn wir nur zur Arbeit gehen, die Schulen und Kindergärten wieder öffnen? Alles Fragen, die uns seit einem Jahr umtreiben und deren Auswirkungen wir auch täglich in den Medien verfolgen können. Diese Fragen fließen in die mathematischen Berechnungen von zwei großen Berliner Forschungsgruppen ein. Die dabei verwendeten Berechnungsmodelle beruhen auf der gleichen Methode: der agentenbasierten Modellierung. Unter Agenten versteht man hierbei virtuelle Avatare die sich in einer Computersimulation auf Basis von gegebenen Regeln bewegen und Aktivitäten ausüben. So betont Björn Goldenbogen von der Klipp-Gruppe: „Realistische Aussagen kann nur ein agentenbasiertes Modell treffen, da es die Infektionsdynamik über die Mensch-zu-Mensch-Interaktion darstellen kann.“

Die Arbeitsgruppe um Edda Klipp von der Humboldt-Universität konzentriert sich auf die Kleinstadt Gangelt, die mit 11.000 Einwohnern in der Nähe von Heinsberg liegt. Grundlagen ihres Modells sind die Agenten in ihrer typischen Wohnsituation und mit ihren typischen Tagesabläufen, wie sie in Deutschland üblich sind. Daraus entstand ein sehr komplexes Modell mit detaillierten Interaktionsmustern. Die dafür verwendeten Daten sind im Internet frei zugänglich, wie über Open Street Map oder von Daten des Robert Koch-Instituts (RKI). Wer sich hinter den Agenten verbirgt, bleibt allerdings anonym und eigene Daten wurden nicht erhoben.

Agentenbasierte Modelle können dabei über verschiedene Szenarien die Auswirkungen der Kontrollmaßnahmen und der Impfstrategie abbilden. Wichtige Ausgangsfragen sind: Was verhindert eine Infektionswelle am besten? Welche Faktoren tragen in welchem Maße zur Infektionsdynamik bei, wie etwa das Öffnen der Gastronomie? Wie wirken sich nicht-pharmazeutische Gegenmaßnahmen, wie zum Beispiel Schließungen von Schulen und Maskentragen, auf die Infektionsdynamik aus? Die unterschiedlichen Szenarien für den Lockdown werden unter diesen Fragestellungen simuliert und aus den so im Modell entstandenen Bewegungsmustern und Interaktionen können Rückschlüsse auf die Realität gezogen werden. Interessant war für die Klipp-Gruppe beispielsweise zu sehen, wie die Infektionswelle in die Altersgruppen wandert. Am Anfang stecken sich laut ihrem Modell die Kinder und jungen Menschen an. Die Älteren werden zuletzt infiziert und tragen kaum zum Treiben der Pandemie bei, da ihre Bewegungsmuster nicht sehr aktiv sind und sie weniger mit jungen Menschen zusammenkommen. Was die Frage nach einem Lockdown angeht, war laut Edda Klipp das wichtigste Ergebnis die sogenannte Bi-Modalität: „Beschließt man einen Lockdown, sollte man ihn erstens möglich früh beginnen und lange genug durchhalten.“

Als die Thematik Impfstoff aufkam, versuchte die Klipp-Gruppe, auch die Impfstrategien und ihre Auswirkungen am Beispiel von Gangelt vorherzusagen. Was passiert, wenn man nach der natürlichen Infektionswelle impft, also zuerst die am schnellsten und stärksten infizierte Gruppe? Macht es einen Unterschied, ob die Schulen geöffnet oder geschlossen sind, wenn man nach Alter impft? Ein interessantes Ergebnis dabei war, dass die Todeszahlen auch sinken, wenn die Schulen offenbleiben. Ein anderes besagt, dass eine Impfstrategie, die am Anfang die Menschen mit den höchsten Interaktionen impft, die sogenannte Herdenimmunität am frühesten erreichen lässt.

Das Modell der Klipp-Arbeitsgruppe ist öffentlich und frei zugänglich und für jeden kleineren Ort in Deutschland als generelles Konzept anwendbar, auch für zukünftige Pandemien. Die Grundidee am Anfang war, lokale Hilfestellungen zu geben, ohne dass damit kommerzielle Zwecke verfolgt werden. So können Bürgermeister kleinerer Gemeinden das Modell herunterladen und ihre lokalen Daten eingeben, um die Prognosen zu sehen und die beste Strategie für ihren Ort zu erhalten.

Die Forschungsgruppen um Kai Nagel (TU Berlin), Christof Schütte und Tim Conrad (ZIB/FU Berlin) arbeiten in ihren agentenbasierten Berechnungsmodellen mit einer sehr großen Anzahl an Agenten. Hier werden die Bewegungsmuster von ca. ein Million Agenten, hier die Menschen in Berlin, durchgerechnet. Das sind 25% der Berliner Bevölkerung, wofür ein Hochleistungsrechner im Zuse-Institut nur etwas weniger als eine Stunde braucht. Agentenbasierte Modelle erlauben es auch, viele Regeln einsetzen und individuelle Entscheidungen mit einzubeziehen, womit ein umfangreicheres Spektrum von Effekten dargestellt werden kann.

Die Grundlage für das Modell liefert eine Software, die in Kai Nagels Gruppe entwickelt wurde, und die für die Verkehrsplanung und Mobilitätsforschung gedacht war und ist. Das Alleinstellungsmerkmal des Projektes im Gegensatz zu anderen Modellen ist die Verwendung realer tagesaktueller Daten über das Aktivitätsniveau der Bevölkerung. Dies wird aus Mobilfunkdaten abgeleitet. Auf Basis dieser realen Daten kann das agentenbasierte Modell immer wieder an die jeweils wirkliche Situation angepasst werden. Damit können mit diesem Modell Vorhersagen getroffen werden, wie sich die Infektionszahlen entwickeln, wenn entsprechende Restriktionen gelten und die Bürger*innen diese befolgen. Diese Agenten sind dann tatsächlich das Abbild bzw. das Modell, der digitale Zwilling, dieser Stadt.

Eine Erweiterung des Modells macht es möglich, dass alles, was eine Übertragung bzw. Weitergabe beinhaltet, z.B. Viren, Informationen, Fake News oder Gegenstände, damit berechnet werden kann. Das Modell kann ebenfalls frei verfügbar heruntergeladen werden und steht gemäß dem Open Source Prinzip auch anderen Wissenschaftler*innen zur Verfügung.

Natürlich gibt es laut Tim Conrad auch „die Grenzen der Modellierung, was die Zukunftsprognosen angeht, denn Modelle sagen in den meisten Fällen das vorher, was im Rahmen der vorgegebenen Regeln möglich ist. Wenn die Regeln vorschreiben, dass nach einer Infektion drei Tage zu Hause geblieben wird, dann macht der Agent in der Simulation das auch. Wenn das aber in der Realität nicht passiert, dann sind die vorhergesagten Zahlen offensichtlich anders.“ Das bedeutet, dass man die Prognosen von einem Modell natürlich nicht generell als „wahr“ annehmen darf, sondern immer prüfen und bewerten muss.

Das ganze Projekt ist dabei, laut Conrad, ein umfassender Teamerfolg, denn: „Dahinter steht ein großes Team, das viel Zeit investiert hat.“ Zeit, die nicht unbedingt in die wissenschaftliche Karriere einfließt, sondern dem Bedürfnis geschuldet ist, das mathematische Wissen für die Gesellschaft einzusetzen. In dem vom Bundesministerium für Bildung und Forschung (BMBF) finanzierten Projekt arbeiten bis zu 15 Berliner Wissenschaftler*innen.

Der grundlegende Ansatz ist bei beiden Forschungsgruppen somit gleich und basiert auf der gleichen Methodik, der agentenbasierten Modellierung. Der Unterschied liegt in der jeweiligen Größe des Untersuchungsortes und der Ausprägung bzw. in den zugrundeliegenden Daten. Für alle Wissenschaftler*innen gelten aber die gleichen Ziele: Mit Hilfe der Mathematik die Pandemie besser zu verstehen und somit Vorhersagen treffen zu können, um Handlungsanweisungen und Lösungsvorschläge anzubieten.

Wissenschaftliche Ansprechpartner:
nagel@vsp.tu-berlin.de
schuette@mi.fu-berlin.de
conrad@zib.de

Weitere Informationen:
https://mathplus.de/ – Webseite des Exzellenzclusters und Forschungszentrums der Berliner Mathematik MATH+
https://mathplus.de/news/covid-19-related-research/ – Covid-19 bezogene Forschungsprojekte bei MATH+
https://senozon.com/modus-covid/ – Forschungsgruppe MODUS-COVID: Modellgestützte Untersuchung von Massnahmen zur Eindämmung von COVID-19 (Nagel/Schütte)
https://www.zib.de/members/schuette – C. Schütte (Zuse-Institut)
https://www.zib.de/members/conrad – T. Conrad (Zuse-Institu)

Anhang
Medieninformation: Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik

(nach oben)


Zuverlässig messen, ob Flüssen und Seen die Luft ausgeht

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Abwässer tragen große Mengen organischer Substanzen in Flüsse und Seen, die zu starkem Bakterienwachstum und Sauerstoffmangel führen. Bisherige Messverfahren können diese organische Belastung nicht genau bestimmen. Ein neues Verfahren, das von Experten des Helmholtz-Zentrums Hereon mitentwickelt wurde, soll künftig ein eindeutiges Bild vom Zustand der Gewässer liefern. Die Arbeit wurde jetzt im Fachmagazin Science Advances veröffentlicht.

Wenn Abwässer aus Dörfern und Städten in Flüsse und Seen fließen, dann gelangen mit den Fäkalien große Mengen an Fetten, Eiweißen, Zuckern und anderen kohlenstoffhaltigen – organischen – Substanzen in die Natur. Diese organischen Substanzen werden von Bakterien abgebaut, die Sauerstoff verbrauchen. Je größer die Abwassermenge ist, desto besser gedeihen die Bakterien. Doch damit nimmt der Sauerstoffgehalt des Wassers immer weiter ab, bis schließlich den Fischen, Muscheln oder Würmern buchstäblich die Luft ausgeht. Weltweit sind dadurch in vielen Flüssen und Seen sauerstoffarme Todeszonen entstanden.

Bislang kein Goldstandard für Messungen
Um zu messen, wie stark die Gewässer mit organischen Stoffen aus Fäkalien belastet sind, nehmen Behörden und Umweltforscher regelmäßig Wasserproben. Weit verbreitet ist eine Messmethode, die mithilfe einer chemischen Reaktion den Gehalt an organischen Substanzen bestimmt. Wie ein internationales Team von Wissenschaftlerinnen und Wissenschaftlern jetzt zeigt, liefert diese etablierte Methode jedoch Werte, aus denen sich der tatsächliche Verschmutzungsgrad des Wassers kaum ableiten lässt. An der Studie, die jetzt im Fachjournal Science Advances erschienen ist, ist auch Prof. Helmuth Thomas, Leiter des Hereon-Instituts für Kohlenstoffkreisläufe, beteiligt. „Wir stellen in dem Artikel deshalb auch eine neue Methode vor, die Messungen künftig sehr viel zuverlässiger macht“, sagt er.

Bei der herkömmlichen Messmethode werden Wasserproben mit den Chemikalien Permanganat oder Dichromat versetzt. Diese sind besonders reaktionsfreudig und bauen in kurzer Zeit alle organischen Substanzen ab. An der Menge des verbrauchten Permanganats oder Dichromats lässt sich dann bestimmen, wie viel organische Substanz in der Wasserprobe enthalten war. Experten sprechen bei dieser Messung vom „Chemischen Sauerstoffbedarf“ (Chemical Oxygen Demand, COD). Das Problem der COD-Messung: Sie unterscheidet nicht zwischen den organischen Stoffen, die mit den Abwässern ins Wasser gelangen, und jenen, die auf natürlichem Wege entstanden sind – etwa Lignin und Huminsäuren, die beim Zerfall von Holz frei werden. Damit lässt sich die Verschmutzung des Wassers kaum vom natürlichen Gehalt an organischen Stoffen unterscheiden. „Für den Han-Fluss in Südkorea etwa haben wir mit unserer neuen Methode herausgefunden, dass die Belastung mit organischen Stoffen aus Abwässern in den vergangenen 25 Jahren abgenommen hat. Die COD-Messungen aber zeigen nach wie vor hohe Werte an“, sagt Helmuth Thomas, „weil hier die natürlichen Substanzen einen Großteil der Organik im Wasser ausmachen.“

Komplizierte biologische Analyse
Wie aber lässt sich die tatsächliche Verschmutzung besser messen? Etabliert ist hier seit Jahrzehnten eine biologische Messmethode, die jedoch sehr viel aufwendiger als die COD-Messung ist und deshalb von Behörden und Forschungseinrichtungen seltener genutzt wird. In diesem Fall wird eine Wasserprobe aus dem Fluss oder See entnommen und der Sauerstoffgehalt des Wassers als Anfangswert gemessen. Eine weitere sogenannte Parallelprobe wird sofort luftdicht verschlossen. Anschließend ruht diese Wasserprobe fünf Tage lang. In dieser Zeit bauen die Bakterien die organische Substanz ab, wobei sie den Sauerstoff im Wasser nach und nach verbrauchen. Nach fünf Tagen wird das Gefäß geöffnet und der Sauerstoff gemessen. Enthält das Wasser viel Organik, waren die Bakterien besonders aktiv. Entsprechend groß war dann der Sauerstoffverbrauch. Experten sprechen bei dieser Messung vom „Biologischen Sauerstoffbedarf“ (Biological Oxygen Demand, BOD). „Die Messung des BOD ist sehr viel genauer als die des COD, weil die Bakterien vorzugsweise die kleinen organischen Moleküle aus dem Abwasser abbauen, aber die natürlichen wie etwa Lignin unangetastet lassen“, sagt Helmuth Thomas. Allerdings habe auch die Messung des BOD ihre Nachteile. Zum einen dauere die BOD-Messung fünf Tage, während der COD-Wert nach wenigen Minuten vorliege. Zum anderen müsse man beim Abfüllen, Lagern und Vermessen der Wasserproben peinlich genau darauf achten, dass kein Sauerstoff aus der Umgebungsluft in die Probe gelange und den Messwert verfälsche. „Das ganze Handling der BOD-Messung beherrschen nur einige wenige Leute mit großer Laborerfahrung“, sagt Helmuth Thomas. „Daher bevorzugen Behörden und Forscher auch heute noch den COD – trotz großer Unsicherheiten.“

Schneller und sicherer messen
Das Team um Helmuth Thomas stellt deshalb eine alternative Methode vor, die die klassische BOD-Messung verbessert. Vorteil der Methode ist, dass nur eine Wasserprobe genommen werden muss, diese sofort verschlossen wird und der Sauerstoffverbrauch ohne Eingriff in die Probe gemessen wird. Es ist dabei nicht notwendig, die Probe nach fünf Tagen erneut zu öffnen, um den Sauerstoffgehalt zu messen. So wird vermieden, dass die Probe erneut mit Luftsauerstoff in Berührung kommt. Beim neuen Ansatz wird gleich beim Abfüllen der Wasserprobe eine optische Faser in das Probengefäß eingeführt. Über diese Faser kann der Sauerstoffgehalt anhand optischer Effekte kontinuierlich direkt in der Probe gemessen werden. Thomas: „Wir können den Sauerstoffgehalt damit nonstop messen und erhalten ein sehr viel genaueres Bild vom Sauerstoffverbrauch durch die Bakterien.“ Erste Versuche haben gezeigt, dass ein aussagekräftiges Ergebnis bereits nach rund 48 Stunden vorliegt, was die BOD-Messung erheblich beschleunigt. Alles in allem macht das optische Verfahren die BOD-Messung also nicht nur zuverlässiger, sondern auch schneller. Helmuth Thomas geht deshalb davon aus, dass sich das neue Verfahren in den kommenden Jahren als neuer Standard etabliert, der sowohl die COD- als auch die klassische BOD-Messung ablösen wird. So kann künftig beispielsweise zuverlässiger als bisher ermittelt werden, ob Maßnahmen zur Gewässerreinhaltung tatsächlich erfolgreich sind.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Helmuth Thomas
Institut für Kohlenstoff-Kreisläufe
Institutsleitung
Tel: +49 (0)4152 87-2805
Mail: helmuth.thomas@hereon.de

Originalpublikation:
doi.org/10.1126/sciadv.abc7318

(nach oben)


Entwicklung von Wasserstofftanks für Kraftfahrzeuge

Christina Kaufmann Hochschulkommunikation
Hochschule München
Kann der Wasserstoffantrieb einen wichtigen Beitrag zur klimaneutralen Mobilität leisten? Prof. Dr. Horoschenkoff von der Fakultät für Maschinenbau, Fahrzeugtechnik, Flugzeugtechnik der Hochschule München und sein Team sind davon überzeugt. Sie forschen mit Hochdruck an neuartigen Tankkonzepten um Fahrzeuge mit Brennstoffzelle wirtschaftlicher zu machen.

In Zukunft werden zwei elektrische Antriebskonzepte den Fahrzeugbau dominieren: das E-Fahrzeug mit Batterie und das E-Fahrzeug mit Brennstoffzelle betrieben mit Wasserstoff. Wasserstoff gilt als aussichtsreicher Energieträger für eine klimaneutrale Mobilität in der Zukunft. Als Treibstoff für Brennstoffzellenfahrzeuge liefert er die elektrische Energie für den Antrieb und wird CO2-neutral zu Wasser umgewandelt. Damit die Brennstoffzellenfahrzeuge gegenüber den heutigen batteriebetriebenen Elektrofahrzeugen wettbewerbsfähig werden, müssen unter anderem die Herstellkosten sinken. Die Forscher der Hochschule München wollen den Wasserstofftank gemeinsam mit BMW im Sinne von Baureihensynergien dort unterbringen, wo im E-Mobil die Batterie vorgesehen ist: Im Unterboden des Fahrzeugs. Hierfür gut geeignet ist eine Quaderform. Die Konstruktion muss dabei einem Betriebsdruck von 700 bar standhalten.

Herausforderung Wasserstofftank
Die Speicherung des Wasserstoffs für die Brennstoffzelle in Drucktanks ist technisch sehr anspruchsvoll. Derzeit verursacht die Integration von Drucktanks aufgrund ihrer zylindrischen, sperrigen Form hohe Einbußen des Kundennutzens und der Fahrdynamik. Hier setzt das Forschungsprojekt BRYSON an, das vom Bundeswirtschaftsministerium gefördert wird, und als Zielsetzung die Entwicklung von neuartigen Drucktanks für Wasserstoff im Automobilbau verfolgt. Die Hochschule München ist über ihr Competence Centre Smart Composites der Fakultät Maschinenbau, Fahrzeugtechnik und Flugzeugbau eingebunden. Die Bauweise sieht eine näherungsweise quaderförmige Tankgeometrie vor, bei der eine unerwünschte Aufweitung des Tanks durch eingearbeitete Zugstreben, die das Tankinnere durchziehen, verhindert wird. Wesentliche Herausforderungen des neuen Konzepts sind die Auslegung des Tanks, die Sicherstellung der Dichtigkeit und die Entwicklung eines geeigneten Fertigungsprozesses. Das Themengebiet Wasserstoffspeicherung in kohlenstofffaserverstärkten Tanks ist für das Team um Prof. Dr. Alexander Horoschenkoff nicht neu. Bereits in der Vergangenheit wurden Forschungsarbeiten zur Erhöhung der Betriebssicherheit von Drucktanks mit speziellen Kohlenstofffaser-Sensoren erfolgreich durchgeführt.

Unterstützung durch Nachwuchswissenschaftler
Unter Leitung von Prof. Dr. Alexander Horoschenkoff arbeiten derzeit 4 Studierende des Studiengangs Master of Applied Research in Engineering Sciences (Forschungsmaster) mit an dem Projekt. Der vor einigen Jahren eingeführte Forschungsmaster ermöglicht es Hochschulen auch an größeren Forschungsprojekten mit längeren Laufzeiten teilzunehmen. Mit Baumustern konnten bereits erste Druckversuche durchgeführt werden.

Das Projekt Bryson läuft seit Dezember 2019 und ist für eine Dauer von 3,5 Jahren ausgelegt. Das Bundeswirtschaftsministerium fördert das Projekt. Die Leitung des Projekts mit insgesamt 5 Partnern und einer Gesamtfördersumme von über 1,7 Mio. Euro liegt bei der BMW AG.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Horoschenkoff
alexander.horoschenkoff@hm.edu

Weitere Informationen:
https://www.hm.edu/allgemein/forschung_entwicklung/forschungsprojekte/projektdet…

(nach oben)


Mehr als die Summe der Mutationen – 165 neue Krebsgene mit Hilfe maschinellen Lernens identifiziert

Dr. Martin Ballaschk Pressestelle
Max-Planck-Institut für molekulare Genetik
Ein neuer Algorithmus sagt Gene vorher, die an der Entstehung von Krebs beteiligt sein können, deren DNA-Sequenz jedoch nicht zwangsläufig verändert ist. Ein Berliner Forschungsteam kombinierte unterschiedlichste Daten, analysierte sie mit „künstlicher Intelligenz“ und identifizierte so zahlreiche Krebsgene. Für die gezielte Krebstherapie in der personalisierten Medizin sowie für die Entwicklung von Biomarkern ergeben sich so neue Perspektiven.

Bei Krebs geraten Zellen außer Kontrolle. Sie vermehren sich uneingeschränkt, verdrängen dadurch andere Gewebe, zerstören Organe und beeinträchtigen so wichtige Lebensfunktionen. Die Ursache für dieses Wachstum sind in aller Regel angehäufte DNA-Veränderungen in Krebsgenen – also Mutationen in jenen Genen, die die Entwicklung der Zelle steuern. Doch einige Krebsarten entstehen bereits bei nur sehr wenigen mutierten Genen. In diesen Fällen führen andere, wenig verstandene Ursachen zu der Erkrankung.

Ein Forschungsteam vom Max-Planck-Institut für molekulare Genetik (MPIMG) in Berlin und dem Institut für Computational Biology des Helmholtz Zentrums München hat nun einen neuen Algorithmus entwickelt, der mit Hilfe von maschinellem Lernen 165 zuvor unbekannte Krebsgene identifizierte. Von diesen Genen sind längst nicht alle mutiert – offenbar kann bereits ihre Fehlregulation zu Krebs führen. Die neu entdeckten Gene stehen jedoch alle in engem Austausch mit bereits bekannten Krebsgenen. Überdies sind sie überlebenswichtig für Tumorzellen, wie sich im Zellkulturexperiment herausstellte.

Das auf den Namen „EMOGI“ (für Explainable Multi-Omics Graph Integration) getaufte Programm kann auch erklären, welche zellulären Zusammenhänge jedes der identifizierten Gene zu einem Krebsgen machen. Wie die Forschenden um Annalisa Marsico im Fachblatt Nature Machine Intelligence schildern, kombiniert das Programm dafür zehntausende Datensätze aus Patientenproben. Diese enthalten neben Sequenzdaten mit Mutationen auch Informationen über DNA-Methylierungen, die Aktivität einzelner Gene und Interaktionen von Proteinen, die an zellulären Signalwegen beteiligt sind. Ein Deep-Learning-Algorithmus erkennt in diesen Daten die Muster und molekularen Gesetzmäßigkeiten, die zu Krebs führen.

„Idealerweise haben wir irgendwann eine komplette Übersicht über alle Krebsgene, die bei verschiedenen Betroffenen einen unterschiedlichen Einfluss auf das Fortschreiten der Krebserkrankung haben können“, sagt Marsico, bis vor kurzem Leiterin einer Forschungsgruppe am MPIMG und nun am Helmholtz Zentrum München. „Das ist die Grundlage für die personalisierte Krebstherapie.“

Bei diesen neuartigen Heilverfahren werden anders als bei konventionellen Krebsbehandlungen wie der Chemotherapie die Medikamente genau auf die Krebsart zugeschnitten. „In der Klinik kann für die Erkrankten dann die jeweils beste Therapie gefunden werden – also die wirksamste Behandlung mit den wenigsten Nebenwirkungen“, erklärt die Forscherin. „Wir könnten zudem anhand der molekularen Eigenschaften den Krebs schon frühzeitig erkennen.“

„Nur wenn wir die Ursachen kennen, können wir sie auch effektiv bekämpfen oder korrigieren. Daher ist es so wichtig, möglichst viele Mechanismen zu identifizieren, die Krebs auslösen können“, sagt Marsico.

„Bisher fokussierte sich die Forschung vor allem auf krankmachende Veränderungen in der Erbgutsequenz, also im Bauplan der Zelle“, sagt Roman Schulte-Sasse, Doktorand im Team von Marsico und Erstautor der Publikation. „Dabei hat sich in den letzten Jahren gezeigt, dass auch epigenetische Störungen oder fehlgesteuerte Genaktivität zu Krebs führen können.“

Aus diesem Grund führte das Forschungsteam Daten zusammen, die auch das Geschehen in der Zelle abbilden und nicht nur auf Fehler im Bauplan abzielen. Zunächst bestätigten die Wissenschaftlerinnen und Wissenschaftler: Veränderungen der DNA-Sequenz, also Mutationen bis hin zu Vervielfachung von Erbgutabschnitten, sind tatsächlich die Haupttreiber von Krebserkrankungen sind. In einem zweiten Schritt machten sie dann die Gen-Kandidaten ausfindig, die in einem größeren Kontext zum eigentlich krebsauslösenden Gen stehen.

„Wir haben zum Beispiel Gene gefunden, deren Sequenz bei Krebs meist unverändert bleibt, die jedoch trotzdem für den Tumor unverzichtbar sind, weil sie beispielsweise die Energiezufuhr regulieren“, sagt Schulte-Sasse. Diese Gene sind auf andere Weise außer Kontrolle geraten, etwa aufgrund von chemischen Erbgut-Modifikationen wie Methylierungen. Diese verändern die DNA-Informationen selbst nicht, bestimmen jedoch über deren Genaktivität. „Solche Gene sind vielversprechende Angriffspunkte für Medikamente – weil sie aber quasi im Schatten agieren, können wir sie nur mit komplexen Algorithmen finden“, sagt Schulte-Sasse.

Das neue Programm erweitert die Kandidatenliste der Krebsgene, die in den letzten Jahren auf 700 bis 1000 Einträge angewachsen ist, um ein beachtliches Stück. Den versteckten Genen sind die Forschenden erst durch die Kombination von bioinformatischen Analysemethoden und neuesten Algorithmen der künstlichen Intelligenz auf die Spur gekommen.

„Die Wechselwirkungen von Proteinen und Genen lassen sich als mathematisch als Netzwerk, als sogenannter Graph abbilden“, sagt Schulte-Sasse. „Es ist, als wollte man das Schienennetz der Eisenbahn erraten. Jeder Bahnhof entspricht einem Protein oder Gen und jede Wechselwirkung stellt eine Zugverbindung dar.“

Mit der Hilfe von Deep Learning – also jenen Algorithmen, die der künstlichen Intelligenz in den letzten Jahren zum Durchbruch verholfen haben – entdeckten die Forschenden auch jene Zugverbindungen, die bisher unentdeckt blieben. Schulte-Sasse ließ den Computer zehntausende verschiedener Netzkarten aus 16 unterschiedlichen Krebsarten analysieren, jede enthielt zwischen 12.000 und 19.000 Datenpunkte.

In den Daten sind zahlreiche weitere interessante Details versteckt. „Wir sehen Muster, die abhängig vom jeweiligen Krebs und Gewebe sind,“ sagt Marsico. „Wir sehen das als Hinweis, dass Tumoren je nach Organ durch unterschiedliche molekulare Mechanismen ausgelöst werden.“

Das EMOGI-Programm ist nicht auf Krebserkrankungen festgelegt, betonen die Forschenden. Theoretisch kann es vielfältige biologische Daten miteinander integrieren und dort Muster finden, erklärt die Forscherin. „Nützlich könnte das vor allem für komplexe Krankheiten sein, für die vielseitige Daten erhoben werden und bei denen die Gene eine wichtige Rolle spielen. Neben Krebs sind dies auch komplexe Stoffwechselerkrankungen wie zum Beispiel Diabetes.“

Wissenschaftliche Ansprechpartner:
Prof. Annalisa Marsico
Gruppenleiterin
Helmholtz Zentrum München
+49(0)89 3187-43073
annalisa.marsico@helmholtz-muenchen.de

Roman Schulte-Sasse
Wissenschaftler
Max-Planck-Institut für molekulare Genetik
+49 (30) 8413-1172
sasse@molgen.mpg.de

Originalpublikation:
Roman Schulte-Sasse, Stefan Budach, Denes Hnisz, and Annalisa Marsico (2021): „Integration of Multi-Omics Data with Graph Convolutional Networks to Identify New Cancer Genes and their Associated Molecular Mechanisms.“ Nature Machine Intelligence. DOI: 10.1038/s42256-021-00325-y

Weitere Informationen:
https://dx.doi.org/10.1038/s42256-021-00325-y – Link zur Publikation
https://www.molgen.mpg.de/4385741/ – Link zur Pressemitteilung

(nach oben)


Mehr Brot und Süßigkeiten im Lockdown

Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Während des Lockdowns im Frühjahr 2020 nahm die Bewegung unter jüngeren Menschen in Deutschland ab, zeigt eine Umfrage unter Studierenden, die während der Jahrestagung der Deutschen Gesellschaft für Kardiologie (DGK) präsentiert wurde. Gegessen wurde hingegen mehr, vor allem Brot und Süßigkeiten.

Düsseldorf, 8. April 2021 – Um die Effekte des Lockdowns auf die Sport- und Ernährungsgewohnheiten wichtigen Teil der kardiovaskulären Primärprävention zu untersuchen, hat eine Münchner Arbeitsgruppe um Dr. Julius Steffen und Prof. Dr. Stefan Brunner eine Online-Umfrage unter Studenten mehrerer großer bayerischer Universitäten durchgeführt. Abgefragt wurden unter anderem Angaben zu Art und Dauer von sportlicher Betätigung vor, während und nach dem Lockdown sowie Veränderungen bei der Ernährung. Außerdem wurden die per Smartwatch und Smartphone gesammelten Schrittzählerdaten der 1.940 Teilnehmenden ausgewertet.

In der subjektiven Wahrnehmung hatte die körperliche Aktivität bei 44,5 Prozent der Teilnehmenden seit Lockdown-Einführung abgenommen, 32,8 Prozent gaben an, ihre Aktivitäten gesteigert zu haben. Der Sport beschränkte sich zumeist auf Laufen, Radfahren und Muskeltraining sowie Yoga. Es ließ sich beobachten, dass sportlich aktivere Teilnehmer oftmals ihr Level hielten.
Die Schrittzählerdaten ließen dann einen objektiven Blickt auf die veränderten Bewegungsgewohnheiten zu. Vor dem Lockdown gingen die Teilnehmenden pro Tag durchschnittlich 6.777 Schritte durchschnittlich, während dem Lockdown hingegen im Schnitt nur noch 4.829.

Auch die Ernährungsgewohnheiten änderten sich: 31,2 Prozent der Studienteilnehmerinnen und -teilnehmer gaben an, mehr zu essen und 16,8 Prozent, weniger als vor dem Lockdown. Die größere Nahrungsmenge war vornehmlich durch den Konsum von Brot und Süßigkeiten getrieben.

Die Lockdown-Maßnahmen scheinen also – zumindest bei Studierenden – starken Einfluss auf die Sport- und Essgewohnheiten zu haben. „Direkte Effekte auf die kardiovaskuläre Gesundheit lassen sich nicht ableiten. Sie sollten aber in Zukunft bei der Verhängung von Restriktionen zur Pandemiebekämpfung bedacht werden“, so die Studienautoren.

Zum Weiterlesen:
Alteration of Physical Activity and Nutrition Behaviour during COVID-19 Pandemic Lockdown in Young Adults (COLA-Trial)

Quelle:
Clin Res Cardol., DOI https://doi.org/10.1007/s00392-021-01843-w

Medienkontakt:
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Pressesprecher: Prof. Dr. Michael Böhm
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13
presse@dgk.org

Die Deutsche Gesellschaft für Kardiologie –Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit fast 11.000 Mit-gliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter http://www.dgk.org

Weitere Informationen:
http://www.dgk.org/presse
https://dgk.org/pressemitteilungen/2021-jahrestagung-pressemitteilungen/2021-jt-…

Anhang
Mehr Brot und Süßigkeiten im Lockdown

(nach oben)


Trotz verbessertem Umweltmonitoring: Der ökologische Zustand von europäischen Gewässern verschlechtert sich

Kerstin Theilmann Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau
Auch nach mehr als 20 Jahren europäischer Wasserrahmenrichtlinie: Viele Oberflächengewässer in Europa werden nach wie vor regelmäßig durch organische Schadstoffe wie Pflanzenschutzmittel oder Industriechemikalien in Konzentrationen belastet, die für die Ökosysteme in Flüssen, Bächen und Seen schädlich sind. Das zeigt eine aktuelle Studie des Instituts für Umweltwissenschaften iES der Universität Koblenz-Landau, für die mehrere Millionen Datensätze ausgewertet und analysiert wurden. Verbesserte Schutzmaßnahmen für Oberflächengewässer sind dringend notwendig, wie die Landauer Umweltwissenschaftlerinnen und -wissenschaftler in dem Fachjournal „Environmental International“ aufzeigen.

„Wir haben mehrere Millionen Messungen der vergangenen 15 Jahre zum Vorkommen von organischen Schadstoffen in europäischen Gewässern ausgewertet und die damit verbundenen Umweltrisiken für diese Süßwassersysteme beurteilt“, erklärt Jakob Wolfram, Erstautor der Studie. „In unserer Auswertung konnten wir zeigen, dass immer mehr und bessere Umweltproben genommen werden, gleichzeitig mussten wir aber feststellen, dass Oberflächengewässer häufig durch organische Schadstoffe beeinträchtigt werden und sich für manche Organismengruppen diese Zustände sogar zunehmend verschlechtern.“

Die Wasserrahmenrichtlinie trat im Jahr 2000 in Kraft mit dem Ziel aquatische Ökosysteme in Europa zu schützen oder in einen „guten ökologischen Zustand“ zurückzuführen. Im Zuge dieser groß angelegten Wasserstrategie wurden über Jahre europaweit umfangreiche Wasserproben genommen, welche das Vorkommen von organischen Schadstoffen in mehreren tausend Oberflächengewässern dokumentieren. Zum ersten Mal wurde nun dieser umfangreiche, zentral von der europäischen Umweltbehörde (EEA) verwaltete Datensatz mit mehr als 8 Millionen Messungen zu 352 organischen Schadstoffen in 31 Ländern für die vergangenen 15 Jahre umfassend ausgewertet und analysiert. Die Forscher beurteilten sowohl den Status als auch die Entwicklung der Wasserqualität in Europa.

Das Ergebnis der umfassenden Analyse: Viele Typen von organischen Schadstoffen, beispielsweise Industriechemikalien wie Löse- oder Reinigungsmittel, Pestizide und Pharmazeutika, werden vermehrt in den Oberflächengewässern gefunden. In lediglich einem Drittel der Gewässer konnten keine Schadstoffe pro Jahr gefunden werden. Weitere Analysen zeigten, dass in diesen Fällen die Qualität der Probennahme signifikant schlechter war. „Dies kann dazu führen, dass Belastungen nicht gefunden werden, daher haben wir auch die Qualität der Probennahme umfassend beurteilt“, so Wolfram. Dabei haben die Forscher einen klaren Zusammenhang zwischen der Qualität der Probennahme und dem Auffinden von Schadstoffen herausgestellt. „In vielen Ländern Europas wird das wahre Risiko in Oberflächengewässer weiterhin unterschätzt“, fasst Wolfram das Ergebnis zusammen.

Hauptursächlich für die Beeinträchtigung der europäischen Gewässer sind laut der Landauer Forscher Pestizide. Sie waren für rund 85 Prozent der Grenzwertüberschreitungen verantwortlich. Gewässer in landwirtschaftlich geprägten Gebieten sind daher dem höchsten Risiko ausgesetzt. Die Funktionalität und Zusammensetzung ihrer Ökosysteme sind in besonderem Maße gefährdet. An 35 Prozent der Probestellen wurde ein ökologischer Grenzwert überschritten, rund 38 Prozent der Gewässer in Europa sind beeinträchtigt. Auch Pharmazeutika treten häufig in Oberflächengewässern auf. Für diese Substanzen haben die Forscher kein akutes Risiko festgestellt, allerdings sind durch sie ausgelöste Langzeiteffekte auf aquatische Ökosysteme noch unbekannt. Der Grund: Toxizitätsdaten zu Langzeitauswirkungen von Pharmazeutika existieren nur selten. „Pharmazeutika durchlaufen einen Zulassungsprozess mit geringeren Anforderungen an die Umweltrisikobewertung als Pestizide oder Industriechemikalien“, erklärt Wolfram. Die Ungewissheit, wie diese Substanzen auf die Umwelt oder Organismen wirken könnten, sei daher insbesondere bei den Langzeiteffekten größer als beispielsweise bei Pflanzenschutzmitteln.

Die Autorinnen und Autoren der Studie sehen Süßwasserökosysteme in Europa weiterhin einem ernsthaften Risiko ausgesetzt, welches sich besonders für Fische, aquatische Insekten und Krebstiere zeigt. „Unsere Ergebnisse zeigen, dass über die Wasserrahmenrichtlinie hinaus europaweit verstärkt Bemühungen notwendig sind, um die Belastung von Gewässern durch organische Schadstoffe weiter zu reduzieren.“ Aufgrund der Vielzahl an Substanzen und der zahlreichen Eintragspfade in die Umwelt sei die Frage nach den Ursachen der Schadstoffbelastung und den notwendigen Maßnahmen nicht einfach zu beantworten, so Wolfram. Dazu müssten zunächst die noch vorherrschenden Datenlücken geschlossen werden. Ein möglicher Schritt wären sicherlich Einschränkungen in der Anwendung, strengere Umweltauflagen besonders gefährlicher Umweltschadstoffe oder deren Verbot. „Bevor wir verlässliche und passgenaue Empfehlungen aussprechen können, muss die Datenlage verbessert werden“, unterstreicht Wolfram. Zusätzlich müsste auch die Datenqualität zwischen den europäischen Ländern verbessert werden, um wirkungsvolle und zielführende Managementstrategien zu entwickeln.

Wissenschaftliche Ansprechpartner:
Universität Koblenz-Landau
Institut für Umweltwissenschaften iES
Prof. Dr. Ralf Schulz
Fortstraße 7
D-76829 Landau
Tel.: +49 6341 280-31327
E-Mail: schulz@uni-landau.de

Originalpublikation:
“Water Quality and Ecological Risks in European Surface Waters – Monitoring Improves While Water Quality Decreases” by Jakob Wolfram, Sebastian Stehle, Sascha Bub, Lara L. Petschick, Ralf Schulz. Die Studie wurde online am 5. März 2021 in der Fachzeitschrift Environment International veröffentlicht und kann via folgenden Link abgerufen werden: https://doi.org/10.1016/j.envint.2021.106479

(nach oben)


Wirkung des Lockdowns auf Luftqualität an den Straßen und damit im Alltag zu spüren

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.
Leipzig. Im Zusammenhang mit den Auswirkungen der Coronavirus-Pandemie wurde viel darüber diskutiert, wie stark sich der Lockdown auf Luftqualität und Klima auswirkt. Eine Auswertung des Leibniz-Instituts für Troposphärenforschung (TROPOS) zeigt jetzt: Der erste Lockdown im Frühjahr 2020 hat deutlich zur Verbesserung der Luft beigetragen. So war an den Verkehrsstationen im Westen und Osten von Leipzig ein Rückgang von Stickoxid (NOx) sowie Ruß (BC) zu verzeichnen. An den großen Straßen und damit für viele Menschen wurde die Luft entsprechend der Verkehrsreduktion besser.

Die Auswertung beruht auf Messdaten verschiedener Stationen in Leipzig von TROPOS und Sächsischem Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG), bei denen der Einfluss des Wetters anschließend aufwendig korrigiert wurde. Die Analyse ist vorläufig, noch nicht wissenschaftlich begutachtet und soll 2021 bei einem Fachjournal eingereicht werden.

Zur Bekämpfung der Pandemie im Frühjahr 2020 hatten sich in Deutschland am 22. März Bund und Länder auf strenge Ausgangs- und Kontaktbeschränkungen geeinigt, die bis 5. Juni auch in Sachsen für eine reduzierte Mobilität sorgten. Diese Beschränkungen gingen als Lockdown in die Umgangssprache ein und wird seitdem kontrovers diskutiert. Aus wissenschaftlicher Sicht sind diese Maßnahmen ein Feldexperiment in bisher beispiellosen Dimensionen: Die Atmosphärenforschung interessiert zum Beispiel, welche Wirkung eine Reduktion des Verkehrs auf Luftverschmutzung und Klimaerwärmung haben kann. Weltweit haben daher Forschende Daten analysiert. Darunter auch eine europaweite Studie der EU-Forschungsinfrastruktur für kurzlebige atmosphärische Bestandteile wie Aerosol, Wolken und Spurengase (ACTRIS), deren deutscher Beitrag vom TROPOS koordiniert wird.

Um die Wirkung des Lockdowns auf die lokale Luftqualität zu untersuchen, hat TROPOS am Beispiel von Leipzig diverse Messungen ausgewertet. Dazu wurden zwei stationäre Messstationen vom TROPOS verwendet: Die Station in der Permoser Straße im Nordosten Leipzigs ist etwa 150 Meter von der B6 entfernt. Die Station in der Eisenbahnstraße nahe dem Stadtzentrum befindet sich in einer stark befahrenen Straßenschlucht. Außerdem wurde der Datensatz mit Messungen der LfULG-Station in der Lützner Straße im Westen Leipzigs sowie mit Verkehrszählungen der Stadt Leipzig ergänzt.

Schnell zeigte sich, dass die Wetterlage im Frühjahr großen Einfluss auf die Luftqualität hatte: Während kurz vor dem Lockdown eine Westwind-Wetterlage mit sauberer Luft vom Atlantik vorherrschte, änderte sich in der ersten Lockdown-Woche die Großwetterlage: Ostwind brachte kontinental geprägte und stärker verschmutzte Luft aus Osteuropa nach Mitteldeutschland. Die Phase des Lockdowns im April/Mai war zudem durch geringe Niederschläge und wenig Wind geprägt, was das Anreichern von Schadstoffen in der Luft begünstigt – wie Forschende des TROPOS bereits 2020 in einer Studie zum Luftschadstoff Stickstoffdioxid in Sachsen nachweisen konnten.

Im Frühjahr 2020 überlagerten sich also zwei Effekte: Auf der einen Seite sorgte weniger Straßenverkehr für weniger Schadstoffe. Auf der anderen Seite blieben die Schadstoffe aber durch das austauscharme Wetter länger vor Ort und konnten sich so stärker anreichern. Außerdem kamen zusätzlich Schadstoffe durch Ferntransport aus Osteuropa dazu, wo das trockene Frühjahr bereits für erste Waldbrände sorgte. Für eine fundierte Analyse war es deshalb nötig, beide Effekte auseinanderhalten zu können. Dr. Dominik van Pinxteren nutzte für die statistische Analyse eine Methode aus dem Bereich des maschinellen Lernens, deren Anwendung im Bereich Luftqualität erstmals 2009 von britischen Forschern veröffentlicht wurde und die sich bereits beim „Herausrechnen“ des Wettereinflusses auf Stickstoffdioxid-Werte in Sachsen bewährt hat.

Anhand von Datenreihen aus den Jahren 2016 bis 2019 und wichtigen Faktoren wie Tageszeit, Jahreszeit, Wetter, Höhe der Grenzschicht und Herkunft der Luftmassen wurde es so möglich, per Computermodell vorherzusagen, welche Schadstoffkonzentrationen 2020 theoretisch zu erwarten gewesen wären. Die Vorhersage verglich das Team dann mit den tatsächlichen gemessenen Schadstoffkonzentrationen. Die Differenz zwischen beiden Werten entspricht insbesondere an den Messstationen in Straßennähe der Luftqualitätsverbesserung, die auf den reduzierten Verkehr zurückzuführen ist.
Für Stickoxide (NOx) zeigte sich dabei an der LfULG-Station Lützner Straße im Westen von Leipzig im Durchschnitt ein Rückgang um 25 Mikrogramm pro Kubikmeter, was knapp einem Drittel der ohne Lockdown erwarteten Konzentrationen bei vergleichbarer Wetterlage entspricht. Diese Schadstoffreduktion ist in einer Größenordnung, die dem Rückgang des Verkehrs in diesem Zeitraum entspricht: In der Lützner Straße wurden zu Beginn des ersten Lockdowns etwa 35 Prozent weniger PKW, 15 Prozent weniger Kleintransporter und 10 Prozent weniger LKW gezählt.
Für Ruß (BC), den TROPOS an der Eisenbahnstraße östlich des Leipziger Zentrums misst, ergab die Analyse einen Rückgang von bis zu 0,6 Mikrogramm pro Kubikmeter, was etwa 40 Prozent der erwarteten Konzentrationen entspricht. Im Durchschnitt ging Ruß während der reichlich zwei Monate Lockdown im Frühjahr 2020 in der Leipziger Eisenbahnstraße um 0,4 Mikrogramm pro Kubikmeter zurück, was einen Rückgang um etwa 20 Prozent entspricht.
Zum Vergleich: Die Umweltzone Leipzig hatte den Ruß zwischen 2011 und 2017 um etwa 60 Prozent reduziert. Dieser Rückgang erfolgte aber über sechs Jahre, ausgehend von einem damals noch höheren Niveau, und war nachhaltiger angelegt, weil die Umweltzone die Modernisierung der Fahrzeugflotte beschleunigte. Nachgewiesen wurde dieser Rückgang 2017 an der LfULG-Station Leipzig-Mitte, die 2020 durch Baustellen im Umfeld für die aktuelle Lockdown-Analyse jedoch nicht genutzt werden konnte. Der Trend zu mehr Kaminen und Holzheizungen macht die Fortschritte für die Luftqualität, die in den letzten Jahren im Verkehrssektor erreicht wurden, zum Teil wieder zu Nichte, in dem er für ein Ansteigen von Feinstaub und Ruß während der Heizsaison auch in den Städten sorgt. „Im städtischen Hintergrund an unserer Station am Institut, die abseits des Verkehrs liegt, waren die Effekte dagegen kaum zu spüren. Grundsätzlich sind im städtischen Hintergrund die Verkehrseinflüsse nicht mehr so dominant und sowohl für Stickoxid als auch für Ruß spielen andere Quellen eine stärkere Rolle. Darin sehen wir einen Grund für diese Unterschiede“, erklärt Dominik van Pinxteren vom TROPOS.

Fazit: Der Lockdown im Frühjahr 2020 hat auch in Leipzig zur Verbesserung der Luftqualität beigetragen, insbesondere in Straßennähe. Für die Luftschadstoffe Stickoxid und Ruß konnte unter Berücksichtigung der Witterungseinflüsse ein deutlicher Rückgang statistisch nachgewiesen werden, der ungefähr dem Rückgang des Verkehrsaufkommens entspricht. Allerdings wurden die Auswirkungen von weniger Kfz durch die Auswirkungen des trockenen Frühjahrswetters überlagert und sind daher in den reinen Messdaten nicht direkt zu erkennen. Tilo Arnhold

Links:
Verkehrsdichte, Wind und Luftschichtung beeinflussen die Belastung mit dem Luftschadstoff Stickstoffdioxid (Pressemitteilung, 26.06.2020):
https://www.tropos.de/aktuelles/pressemitteilungen/details/verkehrsdichte-wind-u…
LfULG-Projekt „Meteorologische Einflüsse auf Stickstoffdioxid“:
https://www.luft.sachsen.de/Inhalt_FuE_Projekt_Witterung_NOx_Ozon.html
Umweltzone senkt Gesundheitsbelastung deutlich (Pressemitteilung, 14.12.2017):
https://www.tropos.de/aktuelles/pressemitteilungen/details/umweltzone-senkt-gesu…
Chemische Aerosolcharakterisierung und Prozessaufklärung am TROPOS:
https://www.tropos.de/institut/abteilungen/chemie-der-atmosphaere/feldexperiment…
COVID-19 campaigns by ACTRIS:
http://www.actris.eu/Outreach/News/ACTRISUpdates.aspx

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 96 selbständige Forschungseinrichtungen verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen.
Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit.
Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,9 Milliarden Euro.
http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Dominik van Pinxteren
Wissenschaftlicher Mitarbeiter, Abteilung Chemie der Atmosphäre
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717- 7029
https://www.tropos.de/institut/ueber-uns/mitarbeitende/dominik-van-pinxteren
und
Dr. Bernd Heinold
Abteilung Modellierung Atmosphärischer Prozesse
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717- 7052
https://www.tropos.de/institut/ueber-uns/mitarbeitende/bernd-heinold
oder
Tilo Arnhold
TROPOS-Öffentlichkeitsarbeit
Tel. +49-341-2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/

Weitere Informationen:
https://www.tropos.de/aktuelles/pressemitteilungen/details/wirkung-des-lockdowns…

(nach oben)


Die Pandemie für den Umweltschutz nutzen

Helga Epp M. A. Presse & Kommunikation
Pädagogische Hochschule Freiburg
Die Aktion #freiburgprotectstheplanet bietet die Möglichkeit, im Rahmen von Kleinprojekten gemeinsam, gleichberechtigt und aktiv die eigene Müllproduktion zu reduzieren und damit gleichzeitig andere zu ähnlichen Aktionen zu inspirieren: Die Aktion läuft innerhalb des EU-Projektes MOST, welches vom Internationalen Zentrum für MINT-Bildung der Pädagogischen Hochschule Freiburg (ICSE) koordiniert wird.

Medizinische Masken am Straßenrand, Mittagessen zum Mitnehmen aus der Plastikbox, Quarantäne und social distancing – alles ganz normal geworden. Doch wie kann man in Pandemiezeiten mit anderen in Kontakt kommen, sich vernetzen und gleichzeitig etwas gegen akute Umweltprobleme unternehmen? Die Aktion #freiburgprotectstheplanet bietet die Möglichkeit, im Rahmen von Kleinprojekten gemeinsam, gleichberechtigt und aktiv die eigene Müllproduktion zu reduzieren und damit gleichzeitig andere zu ähnlichen Aktionen zu inspirieren – und das geht auch per Videokonferenz!

Die Aktion läuft innerhalb des EU-Projektes MOST, welches vom Internationalen Zentrum für MINT-Bildung der PH Freiburg (ICSE) koordiniert wird und mit der Stadt Freiburg und der Walter-Rathenau Gewerbeschule vor Ort zwei weitere Projektpartner/-innen hat.

Dabei sollen Kleinprojekte von Schüler/-innen, Expert/-innen und Bürger/-innen gemeinsam initiiert, durchgeführt, dokumentiert und anschließend beispielsweise über Social Media, Plakate oder Flyer verbreitet werden.

Unterschiedlichste Methoden wie Untersuchungen zur eigenen Abfallvermeidung, Recherchearbeiten, Umfragen, Expert/-innenbefragungen usw. sind dabei möglich und die Veröffentlichung und Verbreitung der Ergebnisse mit dem Ziel, immer mehr Umweltschützer*innen zu gewinnen, sind essenziell. In Freiburg sind so bereits Projekte zur Reduzierung von Plastikmüll im Bad entstanden, aber auch ein Projekt zur Vermeidung von Abfällen im Zusammenhang mit dem Außer-Haus-Verzehr von Restaurants.

„Das Projekt schafft es, Schulen für die Zusammenarbeit mit externen Expertinnen und Experten zu öffnen. Diese Kooperation ermöglicht kreative und innovative Lösungen für Umweltprobleme zu schaffen, die uns alle betreffen. Eine Vernetzung mit unseren internationalen Projektpartnerinnen und -partnern ist ebenfalls möglich“, sagt Bildungsbürgermeisterin der Stadt Freiburg Gerda Stuchlik.

„Mich begeistert an #freiburgprotectstheplanet besonders die Kumulation verschiedenster Themenbereiche: Regionales Arbeiten innerhalb sinnvoller und kreativer Projekte, dynamisches und gemeinsames Lernen, das Anregen von Kooperationen und das Anstoßen nachhaltiger Veränderungen im Bereich Umweltschutz. Zusätzlich entstehen ganz nebenbei alltags- und berufsbezogene Einblicke in die Möglichkeiten und Grenzen von Naturwissenschaften und Mathematik – für mich eine zentrale Mission des MINT-Unterrichts!“ – Prof. Dr. Katja Maaß, Koordinatorin von MOST

Das EU-Projekt MOST (Meaningful Open Schooling connects schools To communities) wird vom Internationalen Zentrum für MINT-Bildung (ICSE) der PH Freiburg koordiniert. Projektbeginn war im September 2020 bei dreijähriger Projektlaufzeit; 20 weitere Projektpartner/-innen in neun europäischen Städten nehmen teil. Dabei stehen im Jahr 2021 der Bereich Abfall und im Jahr 2022 der Bereich Energie im Fokus.

Wissenschaftliche Ansprechpartner:
Direktorin ICSE
Prof. Dr. Katja Maaß
Tel. 0761/682-346
maass@ph-freiburg.de

(nach oben)


Aktuelle Auswertung von Lohnspiegel.de – Diese fünf Faktoren bestimmen Ihr Gehalt

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Eine solide berufliche Qualifikation macht sich für die Beschäftigten bezahlt: Wer nach einer zwei- bis dreijährigen Berufsausbildung noch eine Meister- oder Technikerausbildung absolviert, kann mit einem Gehaltsplus von etwa 14 Prozent rechnen. Wer in seinem Berufsfeld zu den Topverdienern gehören will, sollte jedoch zusätzlich ein Studium anschließen und etwa einen Ingenieursabschluss erwerben.

Dies ist die Voraussetzung für hoch komplexe Tätigkeiten und bringt innerhalb des gleichen Berufsfeldes einen Gehaltszuwachs von rund 41 Prozent. Solch ein Aufstieg ist in Deutschland in vielen Berufsfeldern – wie dem Maschinenbau oder der sozialen Arbeit – unter bestimmten Voraussetzungen auch ohne Abitur möglich und lohnt sich auch finanziell. Ohne Ausbildungsabschluss schlägt hingegen ein Malus von -7 Prozent zu Buche. Zu diesem Ergebnis kommt eine Auswertung von über 62.000 Datensätzen des Portals Lohnspiegel.de, das vom Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) der Hans-Böckler-Stiftung betreut wird.

Das Anforderungsniveau einer Tätigkeit ist einer von fünf wesentlichen Faktoren, die in Deutschland innerhalb der gleichen Berufsgruppe die Höhe der Gehälter bestimmen. Entscheidend sind außerdem das Geschlecht der oder des Beschäftigten, das Bundesland der Anstellung, die Betriebsgröße und ob der Arbeitgeber nach Tarifvertrag zahlt. „Auch hier können die Lohnunterschiede erheblich sein und sich im Jahr auf mehrere tausend Euro belaufen“, sagt Dr. Malte Lübker, Lohnexperte am WSI. So verdienen Frauen bei gleicher Berufserfahrung im gleichen oder einem engverwandten Beruf mit dem gleichen Anforderungsniveau unter auch sonst vergleichbaren Bedingungen etwa 8 Prozent weniger als Männer. In kleinen Betrieben mit weniger als 100 Beschäftigten liegen die Gehälter in etwa 6 Prozent unter denen in mittelständischen Betrieben mit 100 bis 500 Beschäftigten. Ein Job in einem Großunternehmen macht sich hingegen mit einem Plus von 9 Prozent bezahlt. Unabhängig von der Größe zahlen tarifgebundene Betriebe deutlich mehr: Hier liegt das Lohnplus im Durchschnitt bei 11 Prozent (siehe auch die Abbildung in der pdf-Version dieser PM; Link unten). „Es lohnt sich also für die Beschäftigten in tariflosen Betrieben, für einen Tarifvertrag zu kämpfen – auch wenn der Weg dahin nicht immer einfach ist“, so WSI-Lohnexperte Lübker.

Die Datenanalyse zeigt auch, wie groß die Entgeltunterschiede innerhalb Deutschlands noch immer sind. Am besten gezahlt wird in Baden-Württemberg und Hamburg, wo die Gehälter für vergleichbare Tätigkeiten um 7 bzw. 6 Prozent über dem Niveau Nordrhein-Westfalens liegen, das für die Berechnungen als Vergleichsmaßstab verwendet wurde. Am Tabellenende stehen die ostdeutschen Flächenländer Thüringen ( 15 Prozent), Sachsen und Sachsen-Anhalt (jeweils -14 Prozent). Durch die Nähe zu den Ballungsräumen Hamburg und Berlin haben Beschäftigte in Mecklenburg-Vorpommern ( 12 Prozent) und Brandenburg ( 11 Prozent) hingegen bessere Ausweichmöglichkeiten. Dies macht sich in beiden Ländern in einem verschärften Fachkräftemangel bemerkbar, der bisher aber nur zu moderaten Lohnanpassungen geführt hat. „Eine Niedriglohnpolitik kann keine sinnvolle Antwort auf fehlende Fachkräfte sein, wenn 60 Autominuten entfernt im gleichen Beruf deutlich mehr gezahlt wird“, gibt Lohnexperte Lübker zu bedenken.

Neben den fünf wesentlichen Bestimmungsfaktoren gibt es eine Reihe von weiteren Einflüssen auf die Höhe des Gehalts. Dazu zählen das Berufsfeld selbst, die Berufserfahrung und ob jemand im Job Leitungsverantwortung übernommen hat. Das Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) hat deswegen einen Lohn- und Gehaltscheck entwickelt, mit dem Beschäftigte auf Lohnspiegel.de für über 500 Berufe eine genaue Vergleichsberechnung durchführen können. Das Angebot ist kostenlos und ohne Eingabe einer E-Mail-Adresse nutzbar.

– Informationen zur Methode –
Die ausgewiesenen Entgeltunterschiede beruhen auf einer Lohn-regression, mit deren Hilfe der Einfluss einzelner Faktoren auf das Entgeltniveau statistisch errechnet werden kann. Der Vergleich bezieht sich auf Beschäftigte mit der gleichen Berufserfahrung in der gleichen Berufsuntergruppe (4-Steller der Klassifikation der Berufe von 2010).

Als Datengrundlage dient eine kontinuierlichen Online-Umfrage des WSI-Portals Lohnspiegel.de unter Erwerbstätigen in Deutschland. Für die Analyse wurden 62.758 Datensätze berücksichtigt, die zwischen Anfang 2020 und Ende Januar 2021 erhoben wurden. Die Umfrage ist nicht-repräsentativ, erlaubt aber aufgrund der hohen Fallzahlen detaillierte Einblicke in die tatsächlich gezahlten Entgelte. Lohnspiegel.de ist ein nicht-kommerzielles Angebot der Hans-Böckler-Stiftung.

Wissenschaftliche Ansprechpartner:
Dr. Malte Lübker
WSI, Experte für Tarif- und Einkommensanalysen
Tel.: 0211 / 77 78-574
E-Mail: Malte-Luebker@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Die PM mit Abbildung (pdf): https://www.boeckler.de/pdf/pm_ta_2021_03_30.pdf

Online Ressourcen:
Der Lohn- und Gehaltscheck des WSI-Portals Lohnspiegel.de bietet individualisierte Vergleichsberechnungen für über 500 Berufe: https://www.lohnspiegel.de/lohn-und-gehaltscheck-13814.htm

Einen Überblick der Tarifvergütungen in zahlreichen Berufen und Branchen findet sich auf den Seiten des WSI-Tarifarchivs: https://www.wsi.de/de/tarifverguetungen-15296.htm

Weitere Informationen:
Ausführliche berufskundliche Informationen finden Interessenten im BERUFENET der Bundesagentur für Arbeit unter: https://berufenet.arbeitsagentur.de/berufenet/faces/index?path=null

(nach oben)


Welche Rolle spielt das Grundwasser für die Küstenmeere?

Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Eine neue Studie in Nature Reviews Earth & Environment beleuchtet die große Bedeutung von Nährstoffeinträgen durch Grundwasser in die Küstenozeane. Solche Nährstoffe können weltweit eine entscheidende Rolle für die Funktion und die Anfälligkeit von Küstenökosystemen spielen.

Die Nährstoffbudgets im Ozean sind einer Vielzahl von Einflüssen ausgesetzt. Flüsse bringen industrielle Rückstände und Dünger aus der Landwirtschaft ins Küstenmeer ein, Abwässer aus Siedlungen oder Aquakulturanlagen werden in vielen Ländern direkt eingeleitet, und sogar der Wind bläst vor allem in Wüstenregionen beträchtliche Mengen an Nährstoffen ins Meer.

Aber auch durch das Grundwasser gelangen Nährstoffe in die Ozeane. Die Meeresforschung widmet sich erst seit einigen Jahren intensiver diesem Aspekt, und im Küstenmanagement ist er bisher kaum berücksichtigt worden. Denn die Quellen sind nahezu unsichtbar, sie liegen meist unterhalb der Wasseroberfläche und sind in ihrer Anzahl und Aktivität sehr variabel.

Ein neuer Artikel in Nature Reviews Earth & Environment wertet jetzt die Ergebnisse zahlreicher Studien aus. Sie wurden weltweit an mehr als 200 Orten in Küstenbereichen vorgenommen, die von den Polar- bis in die Tropenmeere reichen. Die Untersuchungen quantifizieren die Nährstoffflüsse aus Grundwassereinträgen und erklären deren Auswirkungen für die Meeresökosysteme. Dem internationalen Autorenkollektiv gehört auch der Hydrogeologe Prof. Dr. Nils Moosdorf vom Leibniz-Zentrum für Marine Tropenforschung (ZMT) an.

60% der Studien zeigen, dass an den untersuchten Orten Nährstoffe wie Stickstoff, Phosphor und Silizium über das Grundwasser in größeren Mengen ins Meer gelangen als etwa über Flüsse, den größten Nährstoffquellen der Ozeane. Damit ist Grundwasser an vielen Stellen im Meer der wichtigste Nährstofflieferant für Küstenökosysteme. Hochrechnungen ergaben, dass das Grundwasser weltweit um die 140 Millionen Tonnen Silizium, 40 Millionen Tonnen Stickstoff und 9 Millionen Tonnen Phosphor pro Jahr ins Meer entlässt.

Süßes Grundwasser bahnt sich durch Gesteins- oder Sandschichten einen Weg ins Meer und sickert dort im Küstenbereich heraus. Die Studien berücksichtigten aber auch Nährstoffeinträge aus dem Meeressediment. Dort lagert sich organischer Abfall ab und wird zersetzt. Er kann über Hunderte von Jahren begraben liegen, bis die Nährstoffe wieder aus dem Sand herausgespült werden.

Je nach Ort bedeuten solche Stoffeinträge Segen oder Fluch für die Küstenökosysteme. Beispielsweise fördert das Grundwasser manchmal das Wachstum von Korallenriffen.

Auch die lokale Fischerei kann einen Vorteil haben. Plankton gedeiht durch die Nährstoffe besonders gut, so dass reichlich Futter für Fische vorhanden ist. Die nährstoffreichen Grundwasserquellen der australischen „Wonky Holes“ etwa sind Hotspots für Fische wie Riesenbarsche und daher von Bedeutung für Fischerei und Tourismus.

Es gibt jedoch auch negative, teils sehr massive Auswirkungen der Grundwasserströme auf die Küstenökosysteme. Vielerorts führt ein Überschuss an Nährstoffen zu Überdüngung der Gewässer und zu Algenblüten. Über das Grundwasser können giftige Schadstoffe ins Meer gelangen. Auch hat das süße Grundwasser meist einen niedrigen pH-Wert und kann an manchen Orten zur Versauerung des Küstenwassers beitragen.

Solche negativen Effekte von Nährstoffen sieht man beispielweise vor der Küste von Hawaii, wo auch kürzlich der Oberste Gerichtshof der USA entschieden hat, dass das Grundwasser besser geschützt werden muss, um den Küstenozean vor Schaden zu bewahren,

„Die Studien machen deutlich, dass Grundwasser eine sehr wichtige Nährstoffquelle für die Meere ist und eine wesentliche Komponente für die Funktion und die Anfälligkeit von Küstenökosystemen darstellt, sowohl auf lokaler als auch auf globaler Ebene“, so Moosdorf.

In Forschung und Küstenmanagement sollten laut Moosdorf daher Grundwassereinträge stärker berücksichtigt werden. Es ist zu erwarten, dass die Klimaerwärmung und eine immer intensivere Landnutzung die chemische Zusammensetzung und das Volumen der Einträge verändern werden. Ein angemessenes Verständnis ihrer Rolle im ökologischen und wirtschaftlichen Kontext ist erforderlich, um effektive Strategien im Küstenmanagement zu entwickeln.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nils Moosdorf
Leiter AG Submariner Grundwasserabfluss am Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Tel: 0421 / 23800-33
Mail: nils.moosdorf@leibniz-zmt.de

Originalpublikation:
Isaac R. Santos, Xiaogang Chen, Alanna L. Lecher, Audrey H. Sawyer, Nils Moosdorf, Valentí Rodellas, Joseph Tamborski, Hyung- Mi Cho, Natasha Dimova, Ryo Sugimoto, Stefano Bonaglia, Hailong Li, Mithra- Christin Hajati and Ling Li: Submarine groundwater discharge impacts on coastal nutrient biogeochemistry. Nature Reviews Earth & Environment. Link: https://www.nature.com/articles/s43017-021-00152-0

(nach oben)


Grüner Wasserstoff: Transport im Erdgasnetz

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Forschende der Fraunhofer-Gesellschaft haben eine Technologie entwickelt, mit der sich Wasserstoff und Erdgas kostengünstig und effizient voneinander trennen lassen. Die Membran-Technologie macht es damit möglich, die beiden Stoffe gemeinsam durch das bundesweite Erdgasnetz zu leiten und am Zielort voneinander zu trennen. Für den Transport und die Verteilung des Energieträgers Wasserstoff ist dies ein großer Fortschritt.

Das Fraunhofer-Institut für Keramische Technologien und Systeme IKTS erforscht neben Werkstoffen aus Keramik auch das Potenzial anderer Materialien, wie beispielsweise Kohlenstoff. Dieser könnte nun im Zusammenhang mit dem Trend zum Energieträger Wasserstoff eine wichtige Rolle spielen. Wasserstoff gilt als Hoffnungsträger beim Aufbau einer CO2-freien Energieversorgung. Wird er aus erneuerbaren Energien wie Wind und Sonne gewonnen, entstehen keine klimaschädlichen Emissionen. Doch wie bringt man diesen »grünen« Wasserstoff vom Erzeuger zum Verbraucher? Ein flächendeckendes Verteilernetz für Wasserstoff gibt es derzeit in Deutschland noch nicht.

An Lösungen für diese Problematik arbeitet die Projektinitiative HYPOS (Hydrogen Power Storage & Solutions East Germany). Ziel ist, eine intelligente Infrastruktur aus Verteilernetzen und Speicherstationen zu schaffen, die den sauberen Energieträger in allen Regionen zur Verfügung stellt.

Wasserstoff über das Erdgasnetz verteilen
Die Projektpartner in HYPOS verfolgen unter anderem den Ansatz, den Wasserstoff (H2) gemeinsam mit dem Erdgas (Hauptbestandteil Methan, CH4) zu transportieren. Schließlich verfügt Deutschland über ein 511 000 Kilometer langes Gasnetz und 33 Orte mit Gasspeichern. »Dieser Infrastrukturvorteil erlaubt es, ins Erdgasnetz zusätzlich Wasserstoff einzuspeisen. Beide Stoffe können gemeinsam in einer Leitung transportiert werden. Am Zielort lassen sie sich bedarfsgerecht wieder voneinander trennen«, erklärt Dr. Adrian Simon, Gruppenleiter am Fraunhofer IKTS.

Hier kommt der Kohlenstoff ins Spiel. Dieser befindet sich als hauchdünne Schicht auf einem porösen, keramischen Trägermaterial und dient als Membran, die Erdgas und Wasserstoff voneinander trennt. Die Membranherstellung umfasst mehrere Schritte, beginnend mit der maßgeschneiderten Polymersynthese. Polymere sind Stoffe, die aus verzweigten Ketten von Makromolekülen bestehen. Diese werden anschließend auf das poröse Trägermaterial aufgebracht. Durch Erhitzen unter gleichzeitigem Ausschluss von Sauerstoff bildet das Polymer an seiner Oberfläche eine Kohlenstoff-Schicht aus. Im Kohlenstoff haben die Poren einen Durchmesser von unter einem Nanometer, wodurch sie sich gut für die Gastrennung eignen. Das Trennverhalten der Membran lässt sich durch physikalische und chemische Prozesse noch weiter einstellen. Bei der Entwicklung der röhrenförmigen Kohlenstoff-Membranen hat das Fraunhofer IKTS mit dem Leipziger Unternehmen DBI Gas- und Umwelttechnik GmbH zusammengearbeitet.

Im Trennungsprozess werden Wasserstoff und Erdgas durch die röhrenförmigen Module getrieben. Dabei werden die kleineren Wasserstoffmoleküle durch die Poren der Membran gedrückt und gelangen als Gas nach außen, die größeren Methanmoleküle hingegen bleiben zurück. »Auf diese Weise erhalten wir Wasserstoff mit einer Reinheit von 80 Prozent. Die verbliebenen Erdgasreste filtern wir in einer zweiten Trennstufe aus. So erzielen wir eine Reinheit von über 90 Prozent«, erklärt Simon.

Emissionsfreie Strom- und Wärmeversorgung in Gebäuden
Wasserstoff mit diesem Reinheitsgrad lässt sich für verschiedene Anwendungen nutzen, beispielsweise in der Stahlproduktion. Hier ersetzt er im Hochtemperaturofen den Kohlenstoff bei der Reduktion von Eisenerz zu Eisen und liefert damit einen wichtigen Beitrag zur CO2-Reduktion. Auch bei der klimafreundlichen Energieversorgung von Gebäuden ist Wasserstoff eine attraktive Option. Bei der Verbrennung entstehen Strom und Wärme, als Nebenprodukt fällt lediglich Wasser an. So könnten beispielsweise Blockheizkraftwerke (BHKW) einzelne Gebäudekomplexe oder Stadtviertel mit sauberem Strom und Wärmeenergie beliefern. Auch der Einsatz in Gasthermen ist denkbar.

Derzeit arbeiten die Forschenden des Fraunhofer IKTS daran, die Technik so zu skalieren, dass auch größere Volumina Erdgas und Wasserstoff getrennt werden können. Hierfür ist der Bau von Prototypen bereits in Planung.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/april-2021/gruener-…

(nach oben)


Ein neuer Zustand des Lichts

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Ein einziges „Super-Photon“ aus vielen Tausend einzelnen Lichtteilchen – rund zehn Jahre ist es her, dass Forscher der Universität Bonn einen solchen extremen Aggregatzustand zum ersten Mal herstellten. Prof. Dr. Martin Weitz und Prof. Dr. Johann Kroha berichten von einem neuen, bisher unbekannten Phasenübergang in einem solchen optischen Bose-Einstein-Kondensat. Es handelt sich dabei um eine sogenannte überdämpfte Phase. Die Ergebnisse könnten langfristig für die verschlüsselte Quantenkommunikation relevant sein. Die Studie ist in der Fachzeitschrift Science erschienen. ACHTUNG SPERRFRIST: Nicht vor Donnerstag, 1. April, 20:00 Uhr veröffentlichen!

Das Bose-Einstein-Kondensat ist ein extremer Aggregatzustand, der üblicherweise nur bei sehr niedrigen Temperaturen stattfindet. Das Besondere: Die Teilchen in diesem System lassen sich nicht mehr unterscheiden und befinden sich überwiegend im selben quantenmechanischen Zustand, verhalten sich also wie ein einziges riesiges „Superteilchen“. Der Zustand kann daher durch eine einzige Wellenfunktion beschrieben werden.

2010 gelang es den Forschern um Martin Weitz zum ersten Mal, ein Bose-Einstein-Kondensat aus Lichtteilchen (Photonen) zu erzeugen. Bis heute hat sich ihr spezielles System bewährt: Die Physiker fangen Lichtteilchen in einem Resonator aus zwei gekrümmten Spiegeln ein, die in einem Abstand von nur etwas mehr als einem Mikrometer angeordnet sind und einen sich schnell hin- und herbewegenden Lichtstrahl reflektieren. Der Zwischenraum ist gefüllt mit einer flüssigen Farbstofflösung, die dazu dient, die Photonen abzukühlen. Dazu „verschlucken“ die Farbstoffmoleküle die Photonen und spucken sie anschließend wieder aus, wodurch die Lichtteilchen auf die Temperatur der Farbstofflösung – entspricht Raumtemperatur – gebracht werden. Hintergrund: Das System macht es überhaupt erst möglich, Lichtteilchen abzukühlen, denn ihre natürliche Eigenschaft ist es, sich bei Abkühlung aufzulösen.

Klare Trennung zweier Phasen
Phasenübergang – so nennen Physiker den Übergang zwischen Wasser und Eis beim Gefrieren. Aber wie kommt es zu dem besonderen Phasenübergang innerhalb des Systems der eingefangenen Lichtteilchen? Die Wissenschaftler erklären es so: Durch die etwas lichtdurchlässigen Spiegel gehen Photonen verloren und werden wieder ersetzt – ein Nichtgleichgewicht, das dazu führt, dass das System keine eindeutige Temperatur einnimmt und in eine Schwingung versetzt wird. Das lässt einen Übergang zwischen dieser oszillierenden Phase und einer gedämpften Phase entstehen. Gedämpft bedeutet, dass die Amplitude der Schwingung abnimmt.

„Die von uns beobachtete überdämpfte Phase entspricht sozusagen einem neuen Zustand des Lichtfelds“, sagt Erstautor Fahri Emre Öztürk, Doktorand am Institut für Angewandte Physik der Universität Bonn. Die Besonderheit ist, dass der Effekt des Lasers üblicherweise nicht von dem der Bose-Einstein-Kondensation durch einen Phasenübergang getrennt ist und es keine scharf definierte Grenze zwischen beiden Zuständen gibt. Das bedeutet, dass die Physiker kontinuierlich zwischen den Effekten hin- und herfahren können.

„In unserem Experiment ist hingegen der überdämpfte Zustand des optischen Bose-Einstein-Kondensats durch einen Phasenübergang von sowohl dem oszillierenden Zustand als auch einem üblichen Laser getrennt“, sagt Studienleiter Prof. Dr. Martin Weitz. „Das zeigt, dass es ein Bose-Einstein-Kondensat gibt, das wirklich ein anderer Zustand als der übliche Laser ist. Anders ausgedrückt, haben wir es mit zwei getrennten Phasen des optischen Bose-Einstein-Kondensats zu tun“, betont er.

Aufbauend auf den Ergebnissen wollen die Wissenschaftler in weiteren Studien nach neuen Zuständen des Lichtfelds in mehreren gekoppelten Lichtkondensaten suchen, die in dem System ebenfalls auftreten können. „Wenn in gekoppelten Lichtkondensaten geeignete quantenmechanisch verschränkte Zustände auftreten, kann das interessant sein, um quantenverschlüsselte Nachrichten zwischen mehreren Teilnehmern zu übertragen“, sagt Fahri Emre Öztürk.

Förderung:
Die Studie erhielt finanzielle Unterstützung durch den von der Deutschen Forschungsgemeinschaft geförderten Sonderforschungsbereich TR 185 „OSCAR – Kontrolle atomarer und photonischer Quantenmaterie durch maßgeschneiderte Kopplung an Reservoire“ der Universitäten Kaiserslautern und Bonn sowie den Exzellenzcluster ML4Q der Universitäten Köln, Aachen, Bonn sowie des Forschungszentrums Jülich. Der Exzellenzcluster ist eingebettet in den Transdisziplinären Forschungsbereich (TRA) „Bausteine der Materie und grundlegende Wechselwirkungen“ der Universität Bonn. Darüber hinaus wurde die Studie gefördert durch die Europäische Union im Rahmen des Projekts „PhoQuS – Photons for Quantum Simulation“ und das Deutsche Zentrum für Luft- und Raumfahrt mit Mitteln des Bundesministeriums für Wirtschaft und Energie.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martin Weitz
Institut für Angewandte Physik
Universität Bonn
Tel.: +49-(0)228-73-4837
E-Mail: weitz@uni-bonn.de

Dr. Julian Schmitt
Institut für Angewandte Physik
Universität Bonn
Tel.: +49-(0)228-73-60122
E-Mail: schmitt@iap.uni-bonn.de

Prof. Dr. Johann Kroha
Physikalisches Insitut
Universität Bonn
Tel.: +49-(0)228-73-2798
E-Mail: kroha@physik.uni-bonn.de

Originalpublikation:
Fahri Emre Öztürk, Tim Lappe, Göran Hellmann, Julian Schmitt, Jan Klaers, Frank Vewinger, Johann Kroha & Martin Weitz: Observation of a Non-Hermitian Phase Transition in an Optical Quantum Gas. Science, DOI: 10.1126/science.abe9869

Weitere Informationen:
http://Video: be/PHSNJIu2IVo

(nach oben)


Apokalyptische und Postapokalyptische Studien

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Mit dem kulturübergreifenden Phänomen von der Weissagung des Weltendes, insbesondere angesichts aktueller globaler Bedrohungen, beschäftigt sich eine neue transdisziplinäre Forschungseinrichtung an der Universität Heidelberg: Das Käte Hamburger Kolleg für Apokalyptische und Postapokalyptische Studien – das Centre for Apocalyptic and Post-Apocalytic Studies (CAPAS) – hat mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) seine Arbeit aufgenommen. Zur Bearbeitung seiner Themen lädt das CAPAS Wissenschaftlerinnen und Wissenschaftler aus aller Welt zu Forschungsaufenthalten nach Heidelberg ein. Neues Käte Hamburger Kolleg nimmt Arbeit an der Universität Heidelberg auf.

Mit dem kulturübergreifenden Phänomen von der Weissagung des Weltendes, insbesondere angesichts aktueller globaler Bedrohungen, beschäftigt sich eine neue transdisziplinäre Forschungseinrichtung an der Universität Heidelberg: Das Käte Hamburger Kolleg für Apokalyptische und Postapokalyptische Studien – das Centre for Apocalyptic and Post-Apocalytic Studies (CAPAS) – hat mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) seine Arbeit aufgenommen. Zur Bearbeitung seiner Themen lädt das CAPAS Wissenschaftlerinnen und Wissenschaftler aus aller Welt zu Forschungsaufenthalten nach Heidelberg ein. Das BMBF fördert das Kolleg über einen Zeitraum von zunächst vier Jahren mit rund neun Millionen Euro. CAPAS-Direktoren sind der Romanist Prof. Dr. Robert Folger sowie der Archäologe Prof. Dr. Thomas Meier.

Apokalypsen zeichnen sich durch radikale Veränderungen der Lebensbedingungen aus, die als zwingend für fundamentale Reformen des Lebenswandels begriffen werden. „Vor dem Hintergrund weltweiter Herausforderungen wie der Corona-Pandemie oder dem Klimawandel haben apokalyptische Erwartungen derzeit Hochkonjunktur. Dabei ist die Prophezeiung vom Ende der Welt ein wiederkehrendes Phänomen, das sich in ganz unterschiedlichen Kulturen und Zeiten zeigt“, so Prof. Folger. „Die Apokalypse ist aber nicht nur eine Denkfigur, sondern auch eine grundlegende Erfahrung der Menschheitsgeschichte. Als solche ist sie beobacht- und beschreibbar, während ihre kulturelle Formung kulturvergleichend und interpretierend erschlossen werden muss.“

Im Zentrum des Käte Hamburger Kollegs an der Universität Heidelberg steht die Frage, wie sich Katastrophen und Endzeit-Szenarien auf Gesellschaften ebenso wie auf Individuen und ihre unmittelbare Umwelt auswirken. „Ziel ist es, vergangene und gegenwärtige Systemumbrüche oder Systemzusammenbrüche auf der Grundlage eines transdisziplinären Forschungsansatzes zu beschreiben und voneinander abzugrenzen“, erläutert Prof. Meier. „Auch die Reaktionen auf apokalyptische Szenarien sowie Zukunftsentwürfe für die Zeit nach einer Katastrophe sollen vor dem Hintergrund ihrer jeweiligen historischen und kulturellen Rahmenbedingungen analysiert und hinterfragt werden.“

Mit Mitteln des BMBF wurden von 2008 an zehn Käte Hamburger Kollegs als Teil der Initiative „Freiraum für die Geisteswissenschaften“ an Universitäten eingerichtet. In einer neuen, im Jahr 2019 bekannt gegebenen Förderrunde werden nun auch transdisziplinäre Forschungsvorhaben finanziert, die eine international vergleichende geisteswissenschaftliche Fragestellung in Zusammenarbeit mit den Lebens-, den Natur-, den Technik- oder den Ingenieurwissenschaften verfolgen. CAPAS und ein weiteres Kolleg in Aachen sind die ersten vom Bundesministerium für Bildung und Forschung geförderten Käte Hamburger Kollegs mit einer solchen Ausrichtung. Nach einer vierjährigen Förderung kann das Kolleg in zwei weiteren Förderrunden nach jeweils erfolgreicher Evaluation um jeweils vier Jahre verlängert werden.

Das Centre for Apocalyptic and Post-Apocalytic Studies lädt international ausgewiesene Wissenschaftlerinnen und Wissenschaftler – sogenannte Fellows – an die Universität Heidelberg ein, die hier für eine Zeitdauer von bis zu einem Jahr zum Thema des Kollegs forschen. An der Ruperto Carola sind im Sommersemester 2021 vier Fellows zu Gast, vom Wintersemester 2021/2022 an kommen sechs weitere hinzu. Aus aktuellem Anlass untersucht die erste Fellow-Klasse apokalyptische Szenarien, die sich im Kontext der COVID-19-Pandemie in Asien, Europa und Lateinamerika entwickelt haben. Darüber hinaus analysieren die Fellows die jeweiligen Visionen der Postapokalypse.

Die Wissenschaftlerinnen und Wissenschaftler werden in den kommenden Wochen gemeinsam mit dem Team des CAPAS den Kollegbetrieb in wöchentlichen Arbeitstreffen, Diskussionskreisen und Vorträgen aufnehmen. Darüber hinaus sind Veranstaltungen mit deutschen und internationalen Kooperationspartnern sowie anderen disziplinenübergreifenden Zentren der Universität wie dem Heidelberg Center for the Environment und dem Heidelberg Centre for Transcultural Studies oder dem Marsilius-Kolleg als Brücke zwischen den Wissenschaftskulturen geplant.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
http://www.capas.uni-heidelberg.de

(nach oben)


Röntgenlichtquelle PETRA III identifiziert vielversprechende Kandidaten für Coronamedikamente

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
An DESYs hochbrillanter Röntgenlichtquelle PETRA III hat ein Forschungsteam mehrere Kandidaten für Wirkstoffe gegen das Coronavirus SARS-CoV-2 identifiziert. Sie binden an ein wichtiges Protein des Virus und könnten damit die Basis für ein Medikament gegen Covid-19 sein. In einem sogenannten Röntgenscreening testeten die Forscherinnen und Forscher unter Federführung von DESY in kurzer Zeit fast 6000 bereits für die Behandlung anderer Krankheiten existierende Wirkstoffe. Nach der Messung von rund 7000 Proben konnte das Team insgesamt 37 Stoffe identifizieren, die an die Hauptprotease (Mpro) des SARS-CoV-2-Virus binden, wie die Gruppe im renommierten Fachmagazin „Science“ online berichtet.

Sieben dieser Stoffe hemmen die Tätigkeit des Proteins und bremsen so die Vermehrung des Virus. Zwei von ihnen tun das so vielversprechend, dass sie zurzeit in präklinischen Studien weiter untersucht werden. Das vermutlich größte Wirkstoffscreening dieser Art brachte zudem eine neue Bindungsstelle an der Hauptprotease des Virus zu Tage, an der Medikamente ankoppeln können.

Im Gegensatz zu Impfstoffen, die gesunden Menschen helfen, sich gegen das Virus wehren zu können, werden in der Wirkstoffforschung Medikamente gesucht, die bei erkrankten Personen die Vermehrung des Virus im Körper bremsen oder zum Erliegen bringen. Viren können sich allein nicht vermehren. Sie schleusen stattdessen ihr eigenes Erbgut in die Zellen ihres Wirts ein und bringen diese dazu, neue Viren herzustellen. Dabei spielen Proteine wie die Hauptprotease des Virus eine wichtige Rolle. Sie zerschneidet Proteinketten, die nach dem Bauplan des Viruserbguts von der Wirtszelle hergestellt wurden, in kleinere Teile, die für die Vermehrung des Virus notwendig sind. Gelingt es, die Hauptprotease zu blockieren, lässt sich der Zyklus unter Umständen unterbrechen; das Virus kann sich nicht mehr vermehren, und die Infektion ist besiegt.

Die Strahlführung P11 von DESYs Forschungslichtquelle PETRA III ist auf strukturbiologische Untersuchungen spezialisiert. Hier lässt sich die dreidimensionale räumliche Struktur von Proteinen atomgenau darstellen. Das nutzte das Forschungsteam um DESY-Physiker Alke Meents, um mehrere tausend bekannte Wirkstoffe aus einer Bibliothek des Fraunhofer-Instituts für Translationale Medizin und Pharmakologie und einer weiteren der italienischen Firma Dompé Farmaceutici SpA darauf zu untersuchen, ob und wie sie an die Hauptprotease „andocken“ – der erste wichtige Schritt, um sie zu blockieren. Wie der Schlüssel in ein Schloss passt dabei das Wirkstoffmolekül in ein Bindungszentrum der Protease. Der Vorteil der Wirkstoffbibliothek: Es handelt sich um bereits für die Behandlung von Menschen zugelassene Wirkstoffe oder solche, die sich zurzeit in verschiedenen Erprobungsphasen befinden. Geeignete Kandidaten zur Bekämpfung von SARS-CoV-2 könnten daher erheblich schneller in klinischen Studien eingesetzt werden und so Monate oder Jahre der Wirkstoffentwicklung sparen.

Die technische Spezialausrüstung an der PETRA III-Station P11 beinhaltet einen vollautomatischen Probenwechsel mit einem Roboterarm, so dass jede der über 7000 Messungen nur etwa drei Minuten dauerte. Mit Hilfe einer automatisierten Datenanalyse konnte das Team schnell die Spreu vom Weizen trennen. „Mit Hilfe eines Hochdurchsatzverfahrens haben wir insgesamt 37 Wirkstoffe finden können, die eine Bindung mit der Hauptprotease eingehen“, sagt Meents, der die Experimente initiierte.

In einem nächsten Schritt untersuchten die Forscherinnen und Forscher am Bernhard-Nocht-Institut für Tropenmedizin, ob diese Wirkstoffe in Zellkulturen die Virusvermehrung hemmen oder gar verhindern, und wie verträglich sie für die Wirtszellen sind. Hierbei reduzierte sich die Zahl der geeigneten Wirkstoffe auf sieben, von denen zwei besonders hervorstachen. „Die Wirkstoffe Calpeptin und Pelitinib zeigten die deutlich höchste Antiviralität bei guter Zellverträglichkeit. Unsere Kooperationspartner haben daher bereits präklinische Untersuchungen mit diesen beiden Wirkstoffen begonnen“, erklärt DESY-Forscher Sebastian Günther, Erstautor der Science-Veröffentlichung.

In ihrem Wirkstoffscreening mit Hilfe der Proteinkristallographie untersuchten die Forschenden nicht wie üblich Fragmente potenzieller Wirkstoffe, sondern vollständige Wirkstoffmoleküle. Dabei entdeckte das Team aus mehr als 100 Wissenschaftlerinnnen und Wissenschaftlern aber auch etwas komplett Unerwartetes: Es fand eine Bindungsstelle an der Hauptprotease, die bis dahin noch völlig unbekannt war. „Es war nicht nur eine positive Überraschung, dass wir eine neue Bindestelle für Medikamente an der Hauptprotease entdecken konnten – ein Ergebnis, das man wirklich nur an einer Synchrotronlichtquelle wie PETRA III erzielen kann –, sondern dass sogar einer der beiden heißen Wirkstoffkandidaten genau an diese Stelle bindet“, sagt Christian Betzel vom Exzellenzcluster CUI der Universität Hamburg, Mitinitiator der Studie.

„Eine besondere Stärke unserer Methode des Röntgenscreenings im Vergleich zu anderen Screeningmethoden ist, dass wir als Ergebnis die dreidimensionale Struktur der Protein-Wirkstoff-Komplexe erhalten und damit die Bindung der Wirkstoffe an das Protein auf atomarer Ebene bestimmen können. Selbst wenn die beiden aussichtsreichsten Kandidaten es nicht in klinische Studien schaffen sollten, so bilden die 37 Stoffe, die an die Hauptprotease binden, eine wertvolle Datenbasis für darauf aufbauende Medikametenentwicklungen,“ erläutert Patrick Reinke, DESY-Forscher und Koautor der Veröffentlichung.

„Die Untersuchungen an PETRA III zeigen eindrucksvoll, wie relevant hochbrillante Synchrotronlichtquellen für die Entwicklung zukünftiger Medikamente und die Gesundheitsforschung insgesamt sind“, unterstreicht Helmut Dosch, Vorsitzender des DESY-Direktoriums. „Wir müssen und wollen unsere Infrastrukturen künftig noch stärker zur Bewältigung von derartigen Gesundheitskrisen ausbauen.“

An den Arbeiten sind neben DESY-Wissenschaftlerinnen und -Wissenschaftlern auch Forscherinnen und Forscher der Universitäten Hamburg und Lübeck, des Bernhard-Nocht-Instituts für Tropenmedizin, des Fraunhofer-Instituts für Translationale Medizin und Pharmakologie, des Heinrich-Pette-Instituts, des European XFEL, des Europäischen Laboratoriums für Molekularbiologie EMBL, der Max-Planck-Gesellschaft, des Helmholtz-Zentrums Berlin und weiteren Institutionen beteiligt. Zusätzlich zu den Experimenten an der Messstation P11 wurden auch Messungen an den EMBL-Messstationen P13 und P14 an PETRA III durchgeführt.

DESY zählt zu den weltweit führenden Teilchenbeschleuniger-Zentren und erforscht die Struktur und Funktion von Materie – vom Wechselspiel kleinster Elementarteilchen, dem Verhalten neuartiger Nanowerkstoffe und lebenswichtiger Biomoleküle bis hin zu den großen Rätseln des Universums. Die Teilchenbeschleuniger und die Nachweisinstrumente, die DESY an seinen Standorten in Hamburg und Zeuthen entwickelt und baut, sind einzigartige Werkzeuge für die Forschung: Sie erzeugen das stärkste Röntgenlicht der Welt, bringen Teilchen auf Rekordenergien und öffnen neue Fenster ins Universum. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Günther, DESY, sebastian.guenther@desy.de, +49 40 8998 6115
Dr. Alke Meents, alke.meents@desy.de, +49 171 5676551

Originalpublikation:
X-ray screening identifies active site and allosteric inhibitors of SARS-CoV-2 main protease; Sebastian Günther, Patrick Y. A. Reinke, et al.; „Science“, 2021; DOI: https://science.sciencemag.org/lookup/doi/10.1126/science.abf7945

Weitere Informationen:
https://desycloud.desy.de/index.php/s/eqFG93bGDcPjE6F
Fotos, Bilder und Animationen zum Wirkstoffscreening für die redaktionelle Verwendung

(nach oben)


Covid-19 und der öffentliche Raum in der Krise

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Die Corona-Krise hat große Teile des privaten und öffentlichen Lebens in den Städten auf den Kopf gestellt. Wie hat sich die Nutzung der Straßen, Parks und Bahnhöfe in den Städten verändert? Welche langfristigen Effekte gibt es? Wie lassen sich öffentliche Räume planen und gestalten, damit sie trotz der Krise funktionsfähig und attraktiv bleiben? Im Auftrag des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) und des Bundesministeriums des Innern, für Bau und Heimat erforscht ein Team der Universität Bonn unter Leitung von Professor Theo Kötter gemeinsam mit der empirica ag die Auswirkungen der Pandemie. Das Projekt wird mit rund einer Viertelmillion Euro gefördert.

“Ziel des Projektes ist es, Erkenntnisse zur Stärkung der Resilienz von Städten und Gemeinden gegenüber Pandemien zu gewinnen”, sagt Prof. Dr. Theo Kötter vom Institut für Geodäsie und Geoinformation der Universität Bonn. “Dazu gehört auch, die Bedeutung und die erforderlichen Anpassungsmaßnahmen für die öffentlichen Räume aufzuzeigen, damit diese auch weiterhin einen wichtigen Beitrag zur Lebens-, Aufenthalts- und Standortqualität in unseren Städten leisten können.” Es sind ausgewählte Fallstudien geplant, in denen es auch um halböffentliche Räume wie etwa Innenhöfe, Schulhöfe und Kirchen geht. In den nächsten Wochen starten Befragungen. Neben den Planungsverwaltungen der Städte werden auch Vereine, örtliche Initiativen, Sozialverbände und Unternehmen einbezogen.

Parks erfreuen sich wachsender Beliebtheit
Berücksichtigt werden auch weitergehende Anforderungen wie die Klimaanpassung, die ökologische Aufwertung und die multifunktionale ökonomische Nutzung der öffentlichen Räume. “Die Auswirkungen der Pandemie auf die verschiedenen Typen öffentlicher Räume unterscheiden sich ganz erheblich”, sagt Kötter. Während sich Einkaufsstraßen und Bahnhöfe leeren, erfreuen sich Parks und andere Grünflächen wachsender Beliebtheit.

Aus diesem Grund soll mit einem lokalen Schwerpunkt auf hochverdichtete Stadtviertel die Hypothese überprüft werden, ob beispielsweise die Siedlungsstruktur, die bauliche Dichte und die Sozialstruktur eines Quartiers entscheidende Rollen bei den Auswirkungen der Pandemie spielen. Zugleich werden die Anpassungsmaßnahmen der Städte und Gemeinden systematisch erfasst und hinsichtlich ihrer Wirkungen analysiert. Dabei stellt sich die Frage, wie beispielsweise das Bund-Länder-Programm der Städtebauförderung zur Bewältigung der Krise modifiziert und eingesetzt werden kann.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Theo Kötter
Institut für Geodäsie und Geoinformation
Universität Bonn
Tel. 0228/732612
E-Mail: koetter@uni-bonn.de

Weitere Informationen:
https://www.bbsr.bund.de/BBSR/DE/forschung/programme/refo/staedtebau/2020/covid-…

(nach oben)


Neuer Schwung für die Elektromobilität: Entwicklung von effizienteren Lithium-Ionen-Batterien

Fraunhofer IFAM Dresden Kommunikation
Fraunhofer-Gesellschaft
Mit dem neuen Projekt „RoSiLIB“ leistet das Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM in Dresden einen entscheidenden Beitrag hin zu einer CO2-neutralen Energieversorgung in der Mobilität. Dafür werden gemeinsam mit den Partnern des Instituts für Ionenstrahlphysik und Materialforschung am Helmholtz-Zentrum Dresden Rossendorf e. V., der E-Lyte Innovations GmbH, der NANOVAL GmbH & Co. KG, der VON ARDENNE GmbH und der Custom Cells Itzehoe GmbH neue hochenergetische Anoden für Lithium-Ionen-Batterien entwickelt.

Der von der Bundesregierung geforderte und geförderte vollständige Umstieg auf die Elektromobilität wird nur mit solchen Lösungen möglich, die den Umstieg von fossilen auf elektrochemische Energieträger befördern. Die Verbesserung von Lithium-Ionen-Batterien hinsichtlich Kosten, Rohstoff- und Energieeffizienz ist dabei ein wichtiger Schritt.

Die anvisierte innovative Anode wird im Projekt entlang der gesamten Wertschöpfungskette entwickelt, um den notwendigen Verbesserungen der Batteriezellen für die Elektromobilität gerecht zu werden. Entscheidend ist dabei die Weiterentwicklung einer neuen kostengünstigen Herstellungsroute für nanoporöse Silizium-Mikroteilchen. Diese sollen genutzt werden, um großformatige Hochenergiebatteriezellen aufzubauen, die mit den bisherigen Anodenmaterialien mit hoher Energiedichte nicht herstellbar sind.

Das Projekt geht die bisher ungelösten Herausforderungen großformatiger Zellen gleich auf mehreren Ebenen an: sowohl für den Volumensprung des Aktivmaterials als auch das Ausgasen des Elektrolyten werden Lösungen entwickelt.

Die Forschenden am Fraunhofer IFAM in Dresden beschäftigen sich innerhalb von „RoSiLIB“ hauptsächlich mit der Weiterentwicklung des nanoporösen Siliziums und passen die innere Struktur der Teilchen weiter an die Anforderungen der Batterie an. Dazu muss die Entstehung der Struktur bei der Pulververdüsung von Siliziumlegierungen besser verstanden werden. In diesem Teilvorhaben werden dazu die Ergebnisse von Verdüsungsexperimenten und Simulationsrechnungen zusammengeführt. Gleichzeitig wird die chemische Aufarbeitung der Pulver weiterentwickelt und skaliert, so dass bis zu 500 g nanoporöses Silizium pro Tag hergestellt werden können.

Innerhalb des Projekts kann das Fraunhofer IFAM Dresden seine umfassende Kompetenz in den Bereichen der Rascherstarrung, der chemischen Synthese und der Entwicklung von Hochleistungsbatterien eindrucksvoll einsetzen und weiteres Know-how für zukünftige Fragestellungen aufbauen.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Olaf Andersen

Weitere Informationen:
https://www.ifam.fraunhofer.de/de/Institutsprofil/Standorte/Dresden/pressemittei…

(nach oben)


Neue Methode für die Speicherung erneuerbarer Energien

Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm
TH Nürnberg forscht an Verfahren zur Analyse der Photoaktivität von Halbleitern

Eine schnelle Umstellung auf erneuerbare Energien ist mit Blick auf den Klimawandel dringend notwendig, wofür auch die chemische Energiespeicherung benötigt wird. Prof. Dr. Maik Eichelbaum von der Fakultät Angewandte Chemie der TH Nürnberg forscht an einer elektrochemischen Methode zur Analytik der Photoaktivität von Halbleitern. Das Projekt wird von der STAEDTLER Stiftung gefördert.

Die Erde erwärmt sich. Um die Erderwärmung auf unter 1,5 Grad bis zum Ende des Jahrhunderts zu begrenzen, wurde 2015 das Pariser Klimaabkommen beschlossen. Einen großen Abschnitt nimmt dort die Energiespeicherung ein. Als Schlüsseltechnologie gilt dabei die Wasserelektrolyse, die kontrollierte Spaltung von Wasser in Wasserstoff und Sauerstoff. Mit ihr kann die Energie der Sonne oder der Windkraft chemisch im Wasserstoff gespeichert werden und mithilfe von Brennstoffzellen zurück in elektrische Energie gewandelt werden. Für ein nachhaltiges und kosteneffizientes Energiesystem kann das Wasser auch direkt mit Sonnenlicht und mit Hilfe eines Photokatalysators gespalten werden, ohne den Umweg über einen Elektrolyseur.
Prof. Dr. Maik Eichelbaum von der Fakultät Angewandte Chemie der TH Nürnberg erforscht deshalb eine neue Methode zur Analyse der Photoaktivität von halbleitenden Photokatalysatoren. Die Photoaktivität beschreibt, wie gut ein Stoff durch die Bestrahlung mit Licht eine chemische Reaktion wie zum Beispiel die Spaltung von Wasser zu Wasserstoff und Sauerstoff beschleunigt („katalysiert“). Im Projekt „Entwicklung einer neuen Standardmethode zur Analyse der Photoaktivität von Halbleitern für umwelt- und energierelevante Anwendungen – TiO2-Photoanalytik“ beschäftigt sich Prof. Dr. Maik Eichelbaum im Speziellen mit Titandioxid TiO2 als Photokatalysator. Das ist das weißeste und hellste überhaupt bekannte Pigment mit reflektierenden Eigenschaften. Durch die ultraweiße Farbe kann Titandioxid UV-Strahlen streuen oder diese sogar absorbieren. Deshalb wird es unter anderem auch in Sonnenschutzmitteln und in Wandfarben verwendet.
Prof. Dr. Maik Eichelbaum und sein Team gehen konkret der Frage nach, wie man TiO2 besser analysieren kann, da die bisherigen Methoden für viele Anwendungen nicht geeignet, zu unempfindlich oder nicht robust genug sind. „Eine aussagekräftige Analytik ist jedoch unabdingbar, um die Verbesserung, Entwicklung und Kommerzialisierung von photokatalytisch aktiven Substanzen vorantreiben zu können“, erklärt Prof. Dr. Maik Eichelbaum. Einen besonderen Fokus legt das Projektteam auf die photokatalytische Wasserspaltung, selbstreinigende Oberflächen und die Aufbereitung von Wasser. Titandioxid kann auch als Photokatalysator in Farben oder zur Beschichtung von Fensterscheiben genutzt werden, um Umweltschadstoffe unwirksam zu machen. Auch zur Reduktion von Stickoxiden in der Luft gilt TiO2, verwendet in photoaktiven Baustoffen wie Pflastersteinen, als vielversprechend.
Durch ihre Forschung entwickeln Prof. Dr. Maik Eichelbaum und sein Team ein elektrochemisches Standardverfahren für die empfindliche Analyse der Photoaktivität von Halbleitern, wodurch auch die Suche nach besseren Photokatalysatoren für die Energiespeicherung vereinfacht wird. Im Rahmen der Forschung an Photokatalysatoren in der Fakultät Angewandte Chemie findet eine interdisziplinäre Vernetzung innerhalb der TH Nürnberg mit der Fakultät Werkstoffwissenschaften, dem Nuremberg Campus of Technology (NCT) und dem Kompetenzzentrum Energietechnik statt. Die Ergebnisse aus der Forschung sollen auch in die Lehre übernommen werden, beispielsweise in einem neuen Lehrmodul „Sensorik und Elektroanalytik“ des Masterstudiengangs Angewandte Chemie.
Die STAEDTLER Stiftung fördert das Projekt erfreulicherweise mit 40.000 Euro.

Kontakt:
Hochschulkommunikation, Tel. 0911/5880-4101, E-Mail: presse@th-nuernberg.de

(nach oben)


Arbeitszeit von Männern und Frauen: Wunsch und Wirklichkeit klaffen auseinander

Stefan Schelp Pressestelle
Bertelsmann Stiftung
Männer arbeiten im Durchschnitt neun Stunden pro Woche mehr als Frauen. Dabei möchten mehr Männer als Frauen ihre Arbeitszeit reduzieren und andererseits mehr Frauen als Männer ihre Arbeitszeit ausweiten. Damit besteht Potenzial zur Angleichung der Arbeitszeiten zwischen den Geschlechtern.

In Deutschland arbeiten erwerbstätige Männer im Durchschnitt 41 Stunden und erwerbstätige Frauen 32 Stunden pro Woche. Allerdings wünschen sich Männer mit 37 und Frauen mit 30 Stunden pro Woche eine kürzere Arbeitszeit. Insgesamt arbeiten 50 Prozent der männlichen und 41 Prozent der weiblichen Beschäftigten mehr, als sie gerne würden, und sind damit überbeschäftigt. Dieses Bild dreht sich beim Blick auf jene Beschäftigte, die ihre Arbeitszeit gerne ausweiten würden, die also unterbeschäftigt sind: Mehr Frauen als Männer möchten ihre Stundenzahl ausweiten. So ist der Anteil unterbeschäftigter Frauen mit 17 Prozent fast doppelt so hoch wie bei Männern – von ihnen arbeiten nur neun Prozent weniger als gewünscht.

„Unterschiedliche Arbeitszeiten sind einer der Hauptgründe für die unterschiedlichen Erwerbseinkommen von Männern und Frauen. Unsere Analysen zeigen: Das Potenzial für die Angleichung von Arbeitszeiten ist da. Und es ist auch gesellschaftlich geboten“, kommentiert Jörg Dräger, Vorstand der Bertelsmann Stiftung. Im Mittelpunkt der neuen Studie, die ein Forscher:innen-Team um Andreas Peichl vom ifo Institut im Auftrag der Stiftung erstellt hat, stehen die Entwicklung der tatsächlichen und gewünschten Arbeitszeiten seit 1985 sowie die Gründe für die Kluft zwischen Wunsch und Wirklichkeit.

Müttern fällt es schwerer als Vätern, ihre Arbeitszeitwünsche umzusetzen
Teilzeit- und Vollzeitbeschäftigte können ihre Arbeitszeitwünsche nicht gleich gut umsetzen. Während Vollzeitbeschäftigte im Durchschnitt gerne rund sechs Stunden weniger pro Woche arbeiten würden, besteht bei in Teilzeit beschäftigten Frauen und Männern zwischen gewünschter und tatsächlicher Arbeitszeit nahezu kein Unterschied.

Insbesondere Müttern fällt es schwer, ihre Arbeitszeitwünsche zu realisieren. Die Berechnungen zeigen, dass dies nicht auf Kinder an sich, sondern auf den Mangel an Betreuungsmöglichkeiten oder die zu hohen Kosten dafür zurückzuführen ist. Lassen sich Familie und Beruf gut miteinander vereinbaren, können auch Arbeitszeitwünsche besser verwirklicht werden.

Auf die Arbeitszeitwünsche von Männern haben Kinder und die Betreuungssituation hingegen so gut wie keinen Einfluss. Dies deutet darauf hin, dass die traditionelle Rollenaufteilung nach wie vor dominiert. „Fehlende oder zu teure Kinderbetreuung führt immer noch dazu, dass insbesondere Mütter ihre Arbeitszeitwünsche nicht realisieren können“, kommentiert Dräger. „Auch acht Jahre nach Einführung des Rechtsanspruchs auf einen Krippenplatz müssen die Angebote ausgeweitet werden.“

Verfügbarkeit von Betreuungsmöglichkeiten ist ein zentraler Hebel
Die Corona-Pandemie verschärft die Situation – erste Untersuchungen zeigen, dass sich die Kita- und Schulschließungen negativ auf die Arbeitszeitwünsche von Müttern auswirken. Ohne funktionierende Kinderbetreuung ziehen sie sich weiter aus der Erwerbsarbeit zurück. „Die Pandemie verdeutlicht: Gute Kitas und ein gutes Ganztagsangebot in den Schulen sind zentral, damit Mütter ihre Arbeitszeitwünsche umsetzen können“, sagt Dräger.

Darüber hinaus müssten Fehlanreize im Steuer-, Abgaben- und Transfersystem abgebaut werden, weil sie die Mehrarbeit für Frauen und Mütter häufig unattraktiv machen. Die Kombination aus Ehegattensplitting und Minijobs führt beispielsweise dazu, dass es sich für Zweitverdiener:innen häufig nicht lohnt, eine substanzielle Beschäftigung aufzunehmen. Die Verwirklichung von Arbeitszeitwünschen von Männern und Frauen ist aber eine wesentliche Voraussetzung für eine gleichere Aufteilung der Erwerbs- und Fürsorgearbeit.

Zusatzinformationen: Die Studie „Zwischen Wunsch und Wirklichkeit. Unter- und Überbeschäftigung auf dem deutschen Arbeitsmarkt“ wurde von Maximilian Blömer, Johanna Garnitz, Laura Gärtner, Andreas Peichl und Helene Strandt vom ifo Institut im Auftrag der Bertelsmann Stiftung erstellt. Um die Entwicklung der tatsächlichen und gewünschten Arbeitszeiten differenziert nach Geschlecht, Beschäftigungstyp und Alterskohorte von 1985 bis einschließlich 2017 nachzuzeichnen, nutzten sie das Sozio-oekonomische Panel (SOEP) sowie das Panel Arbeitsmarkt und Soziale Sicherung (PASS). Dabei beziehen sich die Werte vor der Wiedervereinigung nur auf Westdeutschland. Beide Datensätze ermöglichen neben der deskriptiven Beschreibung der Arbeitszeitdiskrepanzen auch die Beantwortung der Frage, welche Faktoren eine Arbeitszeitdiskrepanz vergrößern oder verringern.

Unsere Expertinnen:
Manuela Barišić, Telefon: 030 27 57 88-1 31
E-Mail: manuela.barisic@bertelsmann-stiftung.de

Valentina Consiglio, Telefon: 030 27 57 88-1 30
E-Mail: valentina.consiglio@bertelsmann-stiftung.de

Originalpublikation:
https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/zwischen-wu…

Weitere Informationen:
http://www.bertelsmann-stiftung.de

(nach oben)


IAB-Arbeitsmarktbarometer legt weiter zu, dennoch bleiben Risiken

Marie-Christine Nedoma, Jana Bart, Pia Kastl und Inna Felde Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das IAB-Arbeitsmarktbarometer legt zum zweiten Mal in Folge zu und ist im März gegenüber dem Vormonat um 0,7 Punkte auf 101,7 Punkte gestiegen. Der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) zeigt damit positive Aussichten für die Arbeitsmarktentwicklung im zweiten Quartal. Zuletzt stand das Arbeitsmarkbarometer so günstig vor der Corona-Krise im Februar 2020.

„Am Arbeitsmarkt stehen die Zeichen auf Erholung“, sagt Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“. Sowohl bei der Beschäftigungsentwicklung als auch der Arbeitslosigkeit zeigten sich positive Signale. Die Verlängerung des Lockdowns sei allerdings erst nach Ende des Befragungszeitraums bis Mitte des Monats beschlossen worden. „Die Risiken der Pandemie bleiben immens. Die Krise ist in den nächsten Monaten noch nicht vorbei“, erklärt Weber.

Die Beschäftigungskomponente des IAB-Arbeitsmarktbarometers legte im März um 0,6 Punkte zu und liegt nun bei 101,1. Damit wird ein leichter Beschäftigungsaufbau erwartet. Die Komponente des IAB-Arbeitsmarktbarometers zur Vorhersage der saisonbereinigten Arbeitslosigkeit liegt mit 102,3 Punkten deutlich im positiven Bereich und lässt eine sinkende Arbeitslosigkeit erwarten. Sie stieg gegenüber dem Februar um 0,8 Punkte.

Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert. Während Komponente A des Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert des IAB-Arbeitsmarktbarometers. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

Zum Download stehen bereit:
– eine Zeitreihe des IAB-Arbeitsmarktbarometers einschließlich seiner Einzelkomponenten „Arbeitslosigkeit“ und „Beschäftigung“ unter http://www.iab.de/presse/abzeitreihe.
– eine Grafik mit den aktuellen Werten des IAB-Arbeitsmarktbarometers und seiner Komponenten sowie eine Zeitreihengrafik unter http://www.iab.de/presse/abgrafik.

(nach oben)


Die beständige Gefahr nach Landschaftsbränden: Verkohlte Pflanzen enthalten schädliche freie Radikale

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Jedes Jahr verbrennen weltweit schätzungsweise vier Prozent der Landoberfläche. Zurück bleiben mehr als 250 Megatonnen verkohlter Pflanzen. Eine Studie der Universität Wien hat in diesen Kohlen nun erstmals erhöhte Konzentrationen umweltbeständiger freier Radikale nachgewiesen – und das teilweise noch fünf Jahre nach dem Brand. Diese können reaktive Substanzen generieren, welche wiederum Pflanzen und Lebewesen schaden. Die Forscher*innen um Gabriel Sigmund und Thilo Hofmann haben Kohleproben aus den Rückständen von Wald-, Gras- und Buschbränden in unterschiedlichen klimatischen Zonen analysiert. Die Studie erscheint in Nature Communications Earth & Environment.

Reaktive Sauerstoffspezies verursachen oxidativen Stress auf Zellebene. Bisherige Forschung zeigt, dass sie auf diese Weise beispielsweise die Keimfähigkeit von Pflanzen hemmen, Zellgifte produzieren oder toxisch auf wirbellose Wasserbewohner wirken. Umweltbeständige freie Radikale sind potenzielle Vorläufer reaktiver Sauerstoffspezies, da sie mit Wasser zu diesen Sauerstoffradikalen reagieren können. „Daher bringt man umweltbeständige freie Radikale mit schädlichen Effekten für das Ökosystem und die menschliche Gesundheit in Verbindung“, erklärt Studienleiter Gabriel Sigmund.

„Unsere Studie zeigt, dass eben diese umweltbeständigen freien Radikale in großen Mengen und langfristig in Brandkohlen gefunden werden können“, berichtet der Umweltgeowissenschafter am Zentrum für Mikrobiologie und Umweltsystemwissenschaft (CMESS) der Universität Wien. In allen 60 Kohleproben aus zehn unterschiedlichen Bränden haben die Forscher*innen umweltbeständige freie Radikale in einer Konzentration nachgewiesen, die jene, die üblicherweise in Böden vorkommt, um das Zehn- bis Tausendfache übersteigt. Anders als erwartet blieb diese Konzentration über mindestens fünf Jahre stabil. Dies ergab eine Analyse von Kohleproben, die über mehrere Jahre hinweg nach einem Waldbrand am gleichen Ort gesammelt wurden. „Je beständiger die umweltpersistenten freien Radikale sind, desto wahrscheinlich ist es, dass sie über längere Zeiträume einen Einfluss auf Ökosys-teme haben“, erklärt Thilo Hofmann, Co-Autor der Studie und Leiter der Arbeitsgruppe.

Proben von Gras-, Wald- und Buschbränden in unterschiedlichen Klimazonen
Die Forscher*innen sammelten Proben von Brandkohlen unterschiedlich intensiver Feuer in borealen, gemäßigten, subtropischen und tropischen Klimazonen. Sie berücksichtigten Wald-, Busch- und Grasbrände und damit auch unterschiedliche Ausgangsmaterialien (Hölzer und Gräser) der Kohle. Das Ausgangsmaterial und die Feuerbedingungen bedingen den Verkohlungsgrad und beeinflussen damit mittelbar, in welchem Ausmaß umweltbeständige freie Radikale entstehen und wie beständig sie sind. „Die Analysen zeigen, dass die Konzentration umweltbeständiger freier Radikale mit dem Verkoh-lungsgrad anstieg“, berichtet Sigmund. Holzige Brennstoffe begünstigten dabei höhere Konzentrationen. Für diese konnten die Forscher*innen zudem die mehrjährige Stabilität umweltbeständiger freier Radikale nachweisen. „Gerade Waldbrandholzkohlen sind unserer Vermutung nach eine global sehr bedeutsame Quelle für umweltpersistente freie Radikale und damit potenziell auch für schädliche reaktive Sauerstoffspezies“, ergänzt Hofmann.

Internationale Zusammenarbeit über Disziplinen hinweg
„Dass wir so differenzierte Aussagen treffen können, ist der Zusammenarbeit mit Kolleg*innen der Swansea University in Großbritannien zu verdanken“, erklärt Sigmund. Die Expert*innen für Landschaftsbrände erforschen global, welche Auswirkungen Feuer auf Umweltprozesse wie den Kohlenstoffkreislauf und Erosion haben. Weltweit haben sie Proben von Brandkohlen zusammengetragen und zusammen mit Informationen zu Zeitpunkt, Dauer und Intensität der Brände zur Analyse nach Wien geschickt. Die Forscher*innen des CMESS analysierten die Proben in Zusammenarbeit mit Marc Pignitter von der Fakultät für Chemie mittels Elektronenspinresonanzspektroskopie (ESR-Spektroskopie). Die ESR-Spektroskopie ermöglichte es, die umweltbeständigen freien Radikale im untersuchten Material zu quantifizieren und die benachbarten chemischen Strukturen zu erfassen.

Fragen nach Konsequenzen für das Ökosystem
Die Untersuchung hat Erkenntnisse geliefert, aber auch neue Fragen aufgeworfen: Dass umweltbeständige freie Radikale in so hoher Konzentration vorkommen und dabei über mehrere Jahre beständig bleiben, habe überrascht. Der zukünftige Blick der Forscher*innen richtet sich nun auch auf die Folgen, die das für die Umwelt hat. „Inwieweit ist das ein Stressfaktor für Mikroorganismen nach einem Waldbrand? Wie wird ein Ökosystem davon beeinflusst? Die Studie ist ein Anstoß für weitere Untersuchungen“, berichtet Sigmund.

Publikation in Communications Earth & Environment:
G. Sigmund, C. Santín, M. Pignitter, N. Tepe, S. H. Doerr, T. Hofmann, Environmentally persistent free radicals are ubiquitous in wildfire charcoals and remain stable for years. Communications Earth & Environment (2021), DOI: 10.1038/s43247-021-00138-2

Wissenschaftliche Ansprechpartner:
Dr. Gabriel Sigmund
Zentrum für Mikrobiologie und Umweltsystemwissenschaft
1090 – Wien, Althanstraße 14
+43-1-4277-53392
gabriel.sigmund@univie.ac.at

Originalpublikation:
G. Sigmund, C. Santín, M. Pignitter, N. Tepe, S. H. Doerr, T. Hofmann, Environmentally persistent free radicals are ubiquitous in wildfire charcoals and remain stable for years. Communications Earth & Environment (2021), DOI: 10.1038/s43247-021-00138-2

Weitere Informationen:
https://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/…

(nach oben)


Neuartige, haltbare biologisch abbaubare Flaschen aus Biokunststoffen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT forscht zusammen mit vier weiteren Partnern an biobasierten und rezyklierbaren Kunststoffen. Ziel des Verbundvorhabens »Bio2Bottle« ist es, biobasierte Flaschen zu entwickeln, die sich für die Aufbewahrung von Reinigungsmitteln und landwirtschaftlichen Bodenhilfsstoffen eignen, hohe Standards erfüllen und gleichzeitig biologisch abbaubar und wiederverwertbar sind. Heute verfügbare Kunststoffe aus nachwachsenden Rohstoffen weisen für diesen Einsatzzweck eine zu hohe Durchlässigkeit auf und genügen nicht allen Anforderungen.

Laut dem Umweltbundesamt fallen derzeit allein in Deutschland rund 6,28 Millionen Tonnen Kunststoffabfälle an. Längst haben kritische Diskussionen in Gesellschaft und Politik dazu geführt, dass neue Ziele bei der Kunststoffentwicklung zu berücksichtigen sind. Das entstandene Umweltbewusstsein bei Endverbrauchern wie auch bei Industrieunternehmen führt zu einer in der Zukunft noch weiter steigenden Nachfrage nach nachhaltigen Produkten. Bei ihrer Verkaufsstrategie legen Unternehmen ihren Schwerpunkt mehr und mehr auf die Vermeidung kritischer Produkte und großen Wert auf Recyclingfähigkeit und Bioabbaubarkeit. Das Projekt »Bio2Bottle«, das unter der Koordination des Fraunhofer UMSICHT umgesetzt wird, setzt genau hier an und hat sich zum Ziel gesetzt, einen biobasierten und rezyklierbaren Kunststoff zur Herstellung von Flaschen zu entwickeln.

Anforderungen an biologisch abbaubare Flaschen
Flaschen aus biobasierten Kunstoffen wie Polymilchsäure (PLA) sind zum Teil bereits in marktfähigen Produkten zu finden. PLA ist ein biobasierter Polyester auf Basis der Milchsäure mit einer hohen mechanischen Belastbarkeit, ähnlich wie Polyethylenterephthalat (PET). Das Material eignet sich jedoch wegen einer zu geringen Wasserdampfbarriere nicht für die angestrebten Anwendungen.

Im Mittelpunkt des Projekts »Bio2Bottle« steht die Entwicklung eines biobasierten Kunststoffs, der sich gleichzeitig für die Lagerung und den Transport von Reinigungsmitteln und landwirtschaftlichen Bodenhilfsstoffen eignet, rezyklierbar und biologisch abbaubar ist. Um die Anforderungen dafür zu erfüllen, muss das Material eine hohe Wasserdampfbarriere, Stabilität und Schmelzviskosität aufweisen. In der Entwicklung werden außerdem die CO2- und Sauerstoffdurchlässigkeit sowie die Gammasterilisation berücksichtigt. Zusätzlich zu diesen hohen Anforderungen müssen die Materialien wiederverwertbar und biologisch abbaubar sein – auch außerhalb industrieller Kompostieranlagen. »Im Verbundprojekt werden biobasierte Polymere ausgewählt und deren Eigenschaften durch die Compoundierung mit weiteren Komponenten so verändert, dass diese hohen Anforderungen erfüllt werden«, erläutert Inna Bretz, Abteilung Zirkuläre und Biobasierte Kunststoffe des Fraunhofer UMSICHT. »Das Ziel des Projektes ist es, biobasierte Materialien und Recyclingfähigkeit miteinander zu verbinden«, führt Inna Bretz weiter aus.

Zukunftsforschung für weniger Kunststoffabfälle
Das Fraunhofer UMSICHT hat bereits langjährige Erfahrungen in der Entwicklung marktfähiger Kunststoffmaterialien auf der Basis von nachwachsenden Rohstoffen. Mit dem »Bio2Bottle« Projekt stellt das Institut sicher, dass die zukünftige Materialentwicklung für Unternehmen den besonderen Anforderungen an das Produkt genügt. Weiterhin soll im Rahmen des Verbundprojekts gezeigt werden, dass das Flaschenmaterial in einem technisch effizienten Verwertungsprozess wiederaufgearbeitet werden kann, was es konkurrenzfähiger macht. Die langfristige Nutzung der Flaschen sowie ihre Wiederverwendung soll zu weniger Kunststoffabfällen und einem reduzierten Verbrauch fossiler Rohstoffe für Kurzzeitprodukte führen. Zusätzlich dazu wird die gute Bioabbaubarkeit der bio-basierten Flaschen unter der Koordination von Fraunhofer UMSICHT untersucht und weiterentwickelt.

Erfolgreiche Projektzusammenarbeit mit Unternehmen
Das Verbundvorhaben »Bio2Bottle« ist ein Kooperationsprojekt zwischen vier Industrieunternehmen und des Fraunhofer UMSICHT. Zu den Kooperationspartnern gehören:
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, Oberhausen
cleaneroo GmbH, Berlin
UnaveraChemLab GmbH (Unavera), Mittenwald
FKuR Kunststoff GmbH (FKuR), Willich
Fritzmeier Umwelttechnik GmbH & Co. KG (FMU), Großhelfendorf –assoziierter Partner

Förderhinweis
Fachagentur Nachwachsende Rohstoffe e.V. (FNR)
Förderprogramm »Nachwachsende Rohstoffe« des BMEL

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/kompetenzen/zirkulaere-biobasierte-kunststo… (Abteilung Zirkuläre und biobasierte Kunststoffe)
https://www.umsicht.fraunhofer.de/de/forschung-fuer-den-markt/biokunststoffe.htm… (Biokunststoffe)

(nach oben)


DBFZ präsentiert umfangreich erweiterte Onlinedatenbank zu biogenen Rohstoffen

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Systematisch aufbereitete und leicht zugängliche Forschungsdaten können eine wesentliche Entscheidungsgrundlage für eine Vielzahl von Akteuren aus Politik, Wissenschaft und Wirtschaft darstellen. Die vom DBFZ entwickelte Ressourcendatenbank mit zahlreichen Informationen zu verschiedenen Biomassepotenzialen und deren aktueller Nutzung wurde umfangreich erweitert und steht mit einer Vielzahl von neuen Funktionalitäten ab sofort auch zweisprachig (DE/EN) zur Verfügung. Das neue Informationsangebot kam bereits u.a. bei der Deutschen Gesellschaft für Abfallwirtschaft (DGAW) zum Einsatz und ist unter der Portaladresse webapp.dbfz.de kostenfrei erreichbar.

Die Ressourcendatenbank des DBFZ enthält detaillierte Informationen zu derzeit 77 biogenen Reststoffen, Nebenprodukten und Abfällen aus der Land-, Forst- und Abfallwirtschaft. Durch die Integration von neuen Forschungsergebnissen aus weiteren Projekten (BEniVer, FKZ: 03EIV241C / Pilot-SBG, Inhouse BMVI) können die Daten nun für insgesamt elf biobasierte Produkte wie bspw. Biomethan, Bio-CNG, Bio-LNG, Bio-SNG und andere interpretiert werden. Die Biomassepotenziale (Tonnen) werden im Hintergrund automatisch in Energie (PJ) umgerechnet. In Verbindung mit dem Bedarf eines Zielmarktes (z.B. Verkehrssektor) können auf diese Weise zukünftige Substitutionspotenziale unkompliziert abgeschätzt werden. Die etablierten Funktionen erlauben unzählige Kombinations- und Interpretationsmöglichkeiten der Forschungsdaten und stellen dabei deren Vergleichbarkeit jederzeit sicher.

Überabeitetes User-Interface mit erweiterten Filterfunktionen
Zu den wesentlichen Neuerungen der Datenbank zählen weiterhin ein überarbeitetes User-Interface mit erweiterten Filterfunktionen, der direkte Zugriff auf Hintergrundinformationen und die Integration einer maschinenlesbaren Datenschnittstelle (API). Über die neuen Filterfunktionen im User-Interface kann die Rohstoffauswahl nun auch auf Basis von Rohstoffeigenschaften (z.B. lignozellulosehaltig) oder der sektoralen Herkunft getroffen werden. Die Filter können frei miteinander kombiniert werden und ermöglichen eine verbesserte und individuelle Rohstoffauswahl. Um die umfangreichen Hinter-grundberechnungen bedarfsgerecht und vollständig nachvollziehen zu können, stehen im neu etablierten Menü Direktlinks zu den relevanten Dokumentationen zur Verfügung. Hierzu zählen mehrere wissenschaftliche Publikationen (peer-reviewed Paper), zwei Datenpublikationen (OpenAgrar), Flowcharts zur Visualisierung der Berechnungen und der Ergebnis-Download als Datentabelle. Für den automatisierten Datenzugriff wurde darüber hinaus eine maschinenlesbare Datenschnittstelle auf Basis von GraphiQL integriert. Über diesen Weg können die Daten von externen Computersystemen direkt ausgelesen und individuell weiterverarbeitet werden.

Die Berechnung von Biomassepotenzialen ist ein kontinuierlicher Verbesserungsprozess. In der Entwicklungs-Pipeline befinden sich daher zahlreiche weitere Funktionen (z.B. weitere biobasierte Produkte, Zielmärkte, Länder sowie Zeitreihen, Methodenverbesserungen, dynamische Abbildungen u.v.m.). Die DBFZ-Ressourcendatenbank ist unter einer CC BY 4.0 Lizenz kostenfrei verwendbar und über die Landingpage für alle DBFZ-Webapps erreichbar: http://webapp.dbfz.de / Screencast: https://youtu.be/uepGMPacXlw

Wissenschaftliche Ansprechpartner:
André Brosowski
Tel.: +49 (0)341 2434-718
E-Mail: andre.brosowski@dbfz.de

Weitere Informationen:
https://www.dbfz.de/pressemediathek/presse/pressemitteilungen/dbfz-praesentiert-…
https://webapp.dbfz.de

(nach oben)


Emissionsrückgang aufgrund der Corona-Lockdowns hat das globale Klima nicht wesentlich beeinflusst

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Aufgrund der Corona-Lockdowns ist der weltweite Ausstoß von Treibhausgasen und Aerosolen im Jahr 2020 deutlich gesunken / Die Veränderung war wahrscheinlich nicht nachhaltig genug, um einen spürbaren Einfluss auf das Klima zu haben

Der Rückgang der Emissionen durch die weltweiten Covid-19-Lockdowns war sowohl vom Ausmaß als auch von der Dauer her zu gering, um einen signifikanten Einfluss auf das globale Klima zu haben. Das ist das Ergebnis einer neuen Studie, die unter der Leitung von Chris D. Jones vom Met Office Hadley Centre in Exeter (Vereinigtes Königreich) von einer Gruppe von 49 Forschern von verschiedenen internationalen Institutionen durchgeführt wurde, darunter auch Professor Stephanie Fiedler vom Institut für Geophysik und Meteorologie der Universität Köln. Die Wissenschaftler und Wissenschaftlerinnen versuchten die Frage zu beantworten, ob der durch die Lockdowns verursachte Rückgang der Emissionen Auswirkungen auf das globale Klima hat, indem sie die Ergebnisse von einem Dutzend Erdsystemmodellen verglichen. Solche Multi-Earth-System-Model-Intercomparison-Projekte (MIPs), deren Planung und Durchführung in der Regel Jahre dauert, können Klimasignale identifizieren. Die ersten Ergebnisse des aktuellen Projekts, bekannt als CovidMIP, konzentrierten sich auf die unmittelbaren Auswirkungen des Covid-19-bedingten Emissionsrückgangs und gingen davon aus, dass die globalen Emissionen bis 2022 wieder auf das Ausgangsniveau ansteigen werden. Der Artikel „The Climate Response to Emissions Reductions due to Covid-19: Initial Results from CovidMIP“ ist im Journal Geophysical Research Letters zu finden.

Professorin Stephanie Fiedler vom Institut für Geophysik und Meteorologie der Universität zu Köln erstellte die optischen Daten des von Menschen verursachten Aerosols, die die die Streuung und Absorption von Sonnenlicht beschreiben. Die Daten werden von beitragenden Modellen benötigt, um die Computersimulationen durchzuführen, z.B. das Erdsystemmodell MPI-ESM1.2 des Max-Planck-Instituts für Meteorologie.
Als die sozialen und wirtschaftlichen Aktivitäten angesichts der Covid-19-Pandemie weltweit zum Erliegen kamen, sank auch der Ausstoß von Treibhausgasen. Zum Beispiel hielten die Einschränkungen viele Menschen von den Straßen fern, so dass die CO2-Emissionen um einige Prozent sanken. Es wird jedoch erwartet, dass die Emissionen wieder ansteigen werden, wenn sich die Volkswirtschaften auf der ganzen Welt wieder öffnen. Das wirft die Frage auf, welche Auswirkungen der kurzfristige Rückgang der Emissionen auf das Klima hat.

Die von den Forschern erstellten Modellsimulationen zeigten eine Abnahme der optischen Dicke der Aerosole und eine Zunahme der Sonneneinstrahlung, die die Oberfläche des Planeten erreicht, wobei die größten Auswirkungen über Indien und China simuliert wurden. Die Autorinnen und Autoren untersuchten dann, wie sich die Veränderungen in der atmosphärischen Zusammensetzung auf Temperatur und Niederschlagsmuster auswirken können. Während sie einen leichten Anstieg der Sonneneinstrahlung, die die Planetenoberfläche erreicht, aufgrund von weniger Aerosolen sahen, gab es nur geringe Auswirkungen auf die globale Temperatur. Dort, wo die Aerosole regional am stärksten reduziert wurden, zeigten die meisten Modelle eine leichte Erwärmung, die aber meist weniger als 0,1 Grad Celsius im Vergleich zu einer Simulation ohne die pandemischen Einflüsse beträgt. Die Studie fand keine signifikanten Änderungen für die Niederschlagsmuster aufgrund der Covid-19-Pandemie.
Die Forscherinnen und Forscher kommen zu dem Schluss, dass der Rückgang der Emissionen aufgrund des Covid-19-Einflusses auf sozioökonomische Aktivitäten sowohl in der Größenordnung als auch in der Dauer zu gering war, um einen signifikanten Einfluss auf das globale Klima zu haben. Dennoch können die Ergebnisse Prioritäten für zukünftige Arbeiten setzen. Die Autoren identifizieren mehrere Bereiche, in denen zukünftige Analysen gerechtfertigt sein könnten, einschließlich der längerfristigen Auswirkungen der Emissionsreduzierungen und der Entscheidungen zur wirtschaftlichen Erholung. Professorin Stephanie Fiedler von der Uni Köln erklärt dazu: „CovidMIP liefert Klimamodell-Output für neue Erholungsszenarien für die Zeit nach der Pandemie bis zur Mitte des 21. Jahrhunderts. Dazu gehören Entwicklungsszenarien, die eine Zukunft mit mehr grünen Technologien beschreiben, sowie Szenarien, in denen wir zu einem ähnlichen Verhalten wie vor der Pandemie zurückkehren.“ Solche Daten sind nützlich, um zu untersuchen, wie sich das Klima in Abhängigkeit von verschiedenen menschengemachten Emissionsszenarien nach Ende der Pandemie weiter verändern würde.

Inhaltlicher Kontakt:
Professorin Dr. Stephanie Fiedler
Institut für Geophysik und Meteorologie
+49 (0)221 470- 3693
stephanie.fiedler@uni-koeln.de
Presse und Kommunikation:
Robert Hahn
+49 (0)221 470- 2396
r.hahn@verw.uni-koeln.de

Publikation:
Jones, C. D., Hickman, J. E., Rumbold, S. T., Walton, J., Lamboll, R. D., Skeie, R. B., Fiedler, S., Forster, P., Rogelj, J., et al. (2021). The Climate Response to Emissions Reductions due to COVID‐19: Initial Results from CovidMIP. Geophysical Research Letters, 48, e2020GL091883. https://doi.org/10.1029/2020GL091883
https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2020GL091883

(nach oben)


Grundsteuer belastet vor allem ärmere Haushalte in Mietwohnungen

Sabine Elbert Presse und Redaktion
Zentrum für Europäische Wirtschaftsforschung GmbH (ZEW)
Am Einkommen gemessen ärmere Mieter werden bis zu vier Mal stärker durch Grundsteuererhöhungen belastet als reichere. Vermieter tragen nur in den ersten zwei Jahren nach einer Erhöhung einen Teil der Steuerlast. Spätestens nach drei Jahren geben sie die höhere Grundsteuer vollständig an ihre Mieter/innen weiter. Verkaufspreise hingegen reagieren nicht auf Steueränderungen. Das belegt eine aktuelle Studie des ZEW Mannheim in Kooperation mit der Universität Maastricht. Die Grundsteuer ist somit eine regressive Steuer: Sie belastet geringere Einkommen relativ gesehen stärker als Haushalte mit höherer Finanzkraft.

Wie sich die Steuerlast von Grundsteuererhöhungen auf verschiedene Einkommensgruppen verteilt, untersuchten die Wissenschaftler anhand eines ökonomischen Modells, das sie mit Daten der Vermittlungsplattform Immobilienscout24 sowie des Statistischen Bundesamtes und des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) fundierten. Dabei zeigte sich, dass eine Erhöhung der Grundsteuer um einen Prozentpunkt die Wohlfahrt ärmerer Haushalte stärker belastet als die von reicheren. Jene Haushalte, die die untersten zehn Prozent der Einkommen erwirtschaften, erfahren dabei einen relativen Wohlfahrtsverlust von 1,14 Prozent, während der relative Verlust bei den obersten zehn Prozent der Einkommensskala nur 0,27 Prozent beträgt. Dieser relative Wohlfahrtsverlust berechnet sich als der Konsum, auf den diese verzichten müssen, um die Kosten für eine höhere Steuer aufzubringen. „Einkommensarme Haushalte erleiden einen bis zu viermal höheren Wohlfahrtsverlust als reichere Haushalte, wenn eine Kommune ihre Grundsteuer erhöht“, sagt Sebastian Siegloch, Wissenschaftler am ZEW Mannheim und Ko-Autor der Studie.

Bedeutung der Grundsteuer
Kommunale Gewerbe- und Grundsteuern machen gemeinsam rund 25 Prozent der Einnahmen von Städten und Gemeinden aus. Der Anteil der Grundsteuer an den kommunalen Steuern beläuft sich auf etwas über 20 Prozent. Das Grundsteueraufkommen belief sich damit im Jahr 2015 auf durchschnittlich 155 Euro pro Einwohner/in. Im Vergleich zu den USA, wo sich die vergleichbare Steuer auf etwa 850 Dollar pro Kopf beläuft, spielt die Grundsteuer in Deutschland eine geringere Rolle, obwohl sie seit Jahren vielerorts stetig erhöht wird. Im Durchschnitt hat sich die örtliche Grundsteuer zwischen 1990 und 2018 von 0,9 auf 1,4 Prozent erhöht. Rund 90 Prozent aller Städte und Gemeinden haben die Hebesätze und damit die Grundsteuer im gleichen Zeitraum geändert, bei 95 Prozent der Änderungen war dies eine Erhöhung.

Die Anpassungen der Grundsteuer verglichen die ZEW-Wissenschaftler mit konjunkturellen und anderen sozioökonomischen Daten. Dabei zeigt sich, dass die Verantwortlichen in Rathäusern und Gemeinderäten ihre Entscheidung, die Grundsteuer zu erhöhen, selten von der lokalen Wirtschaft abhängig machen. „Wir sehen einen starken Zusammenhang zwischen der Haushaltslage der Kommune und der Erhöhung der Grundsteuer. Kommt die schwarze Null ins Wackeln, erhöht die Gemeinde gerne mal die Steuer auf Grundbesitz“, erklärt ZEW-Wissenschaftler Siegloch.

Implikationen für die deutsche Grundsteuerdebatte
Die deutsche Grundsteuer wird aktuell reformiert. Ab 2025 sorgt das vom Bundesfinanzministerium eingebrachte Bundesmodell dafür, dass sich die Grundsteuer stärker am tatsächlichen Wert des Grundstücks und der Immobilie orientiert. Dies ist aktuell nicht der Fall und wurde vom Bundesverfassungsgericht beanstandet. Allerdings haben die Länder die Möglichkeit, vom Bundesmodell abzuweichen und eigene Systeme zur Bewertung von Haus und Grund einzuführen. So will sich Bayern rein an der Grundstücksfläche orientieren, andere Länder wie Baden-Württemberg wollen nur auf den Wert des Bodens schauen.

„Die neuen Modelle sollten die Verteilungswirkungen der Grundsteuer berücksichtigen – die Grundsteuer in aktueller Form und auch im Flächenmodell ist schlicht ungerecht“, kommentiert Siegloch. Es spräche viel dafür, die Grundsteuer progressiver zu gestalten. Dies könnte durch großzügigere Freibeträge geschehen, so dass kleinere Mietwohnungen für ärmere Haushalte deutlich weniger belastet würden. Gleichzeitig wäre es sinnvoll, teurere Immobilien stärker zu besteuern. „Um dies umzusetzen, ist es wichtig den Wert von Grundstück und Immobilie möglichst genau zu kennen“, so Siegloch weiter. „Das spricht eindeutig für die Umsetzung des Bundesmodells.“ Ein vertretbarer Kompromiss sei das Bodenwert-Modell: Aktuelle Analysen zeigten, dass der Wert des Bodens ein guter Indikator für den Wert der darauf stehenden Immobilie sei.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sebastian Siegloch
Leiter der ZEW-Forschungsbereich
„Soziale Sicherung und Verteilung“
Tel: +49 (0)621 1235-140
sebastian.siegloch@zew.de

Originalpublikation:
http://ftp.zew.de/pub/zew-docs/dp/dp21026.pdf

(nach oben)


Wenn Salz, dann Jodsalz

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Trotz erheblicher Fortschritte nehmen viele Erwachsene und Jugendliche noch immer zu wenig Jod zu sich. Eine der wenigen Quellen, die reich daran sind, ist jodiertes Speisesalz.

Seit Mitte der 1980er-Jahre hat sich die Jodversorgung in Deutschland durch den Einsatz von Jodsalz verbessert. Aktuelle Daten des Robert Koch-Instituts (RKI) zeigen jedoch, dass die Jodzufuhr der Bevölkerung immer noch nicht optimal ist. Bei knapp 30 Prozent der Erwachsenen und 44 Prozent der Kinder und Jugendlichen besteht das Risiko einer zu geringen Jodaufnahme. Ein wesentlicher Grund dafür könnte sein, dass in der Lebensmittelindustrie zu wenig jodiertes Speisesalz verwendet wird. Dies legen Modellrechnungen des Bundesinstituts für Risikobewertung (BfR) nahe. „Weniger Salz tut gut, auf Jodsalz verzichten aber nicht“, sagt Professor Dr. Dr. Andreas Hensel, Präsident des BfR. „Dieser Grundsatz sollte sowohl in der eigenen Küche als auch in der Lebensmittelproduktion gelten.“

Link zur Stellungnahme:
https://www.bfr.bund.de/cm/343/ruecklaeufige-jodzufuhr-in-der-bevoelkerung-model…

Link zu Fragen und Antworten:
https://www.bfr.bund.de/cm/343/jodversorgung-in-deutschland-wieder-ruecklaeufig-…

Link zum BfR2GO, dem BfR-Wissenschaftsmagazin (S. 2 und 11):
https://www.bfr.bund.de/cm/350/bfr-2-go-ausgabe-2-2020.pdf

Laut aktueller Daten aus den nationalen Gesundheitssurveys des RKI ist die Jodversorgung der deutschen Bevölkerung noch verbesserungswürdig. Bei Kindern und Jugendlichen zeichnet sich hier sogar ein rückläufiger Trend ab. Für Frauen im gebärfähigen Alter ist das Risiko einer unzureichenden Jodzufuhr besonders hoch. Dabei ist eine gute Versorgung gerade für Schwangere und Stillende bedeutsam, weil das Spurenelement für die körperliche und geistige Entwicklung des Kindes wichtig ist – auch schon vor der Geburt.

In Deutschland können Hersteller selbst entscheiden, ob sie jodiertes Speisesalz für ihre Produkte nutzen. Eine Studie der Justus-Liebig-Universität Gießen weist darauf hin, dass in den letzten Jahren deutlich weniger Jodsalz für verarbeitete Lebensmittel verwendet wurde, insbesondere für Brot und Backwaren. Zudem zeigen die Ergebnisse, dass nur etwa 30 Prozent der industriell und handwerklich hergestellten Produkte Jodsalz enthalten. Modellrechnungen des BfR zufolge ist eine gute Jodversorgung aber nur dann möglich, wenn etwa 40 Prozent dieser Lebensmittel mit Jodsalz produziert werden.

Jod ist lebenswichtig und für den Aufbau von Schilddrüsenhormonen unentbehrlich. Die Schilddrüsenhormone haben eine zentrale Funktion bei der Steuerung des Stoffwechsels und sind für normales Wachstum, die Knochenbildung und die Entwicklung des Nervensystems notwendig. Wird über längere Zeit zu wenig des Elements aufgenommen, kann es zu einer Schilddrüsenunterfunktion kommen. Symptome wie Müdigkeit, Gewichtszunahme und eine vergrößerte Schilddrüse (Struma) können auftreten.

Jod muss mit der Nahrung aufgenommen werden. Da der Boden hierzulande aber nur wenig von dem Spurenelement enthält, sind die natürlichen Jodgehalte der pflanzlichen landwirtschaftlichen Erzeugnisse entsprechend gering. In relevanten Mengen kommt das Element nur in wenigen Speisen vor. Dazu gehören Meeresfisch und -früchte, aber auch mit Jodsalz angereicherte Speisen. Wer bewusst zu jodhaltigen Lebensmitteln greift, ist in der Regel ausreichend versorgt.

Tipps für eine gute Jodversorgung:
– Jodsalz zum Kochen und Nachsalzen nutzen.
– Abgepackte Lebensmittel und Fertiggerichte bevorzugen, in deren Zutatenliste „Jodsalz“ oder „jodiertes Salz“ steht.
– Bei loser Ware wie Brot, Käse und Wurst nachfragen, ob Jodsalz enthalten ist.
– Milch- und Milchprodukte täglich,
– Meeresfisch ein- bis zweimal pro Woche verzehren.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Mit „innovatION“ nationale und internationale Wasserressourcen sichern

Katrin Presberger Pressestelle
Technische Universität Dresden
Forschungsprojekt entwickelt nachhaltiges, membranbasiertes Wasser-Entsalzungsverfahren

Auf Grund des global ansteigenden Wasserbedarfs und der sinkenden zur Verfügung stehenden Süßwasserressourcen, besteht ein weltweites Interesse an effizienten Entsalzungsverfahren. Süßwasser, das vom Meer oder von geogenen, also natürlichen, im Untergrund vorkommenden Salzvorkommen beeinflusst wird, weist u. a. oft erhöhte Konzentrationen an Natrium und Chlorid auf. Hohe Nitrat- und Sulfatkonzentrationen resultieren hingegen meist aus landwirtschaftlichem Einfluss. „Herkömmliche Entsalzungsverfahren entsalzen Wässer weitestgehend vollständig und unterscheiden meist nicht, welche Salze zurückgehalten werden“, erklärt Prof. Dr.-Ing. André Lerch, Inhaber der TUD-Professur für Verfahrenstechnik in Hydrosystemen, die Partner des Verbundprojekts innovatION ist. „Eine vollständige Entsalzung der Wässer ist aber oft nicht sinnvoll, sondern lediglich eine Verminderung der monovalenten, einfach geladenen Ionen.“
Ziel des Forschungsvorhabens innovatION ist die Entwicklung eines energieeffizienten, selektiven, membranbasierten Entsalzungsverfahrens zur gezielten Entfernung monovalenter Ionen aus salzhaltigem Grund- und Oberflächenwasser sowie die Überprüfung potenzieller Anwendungen und Einsatzgebiete unter Berücksichtigung wasserchemischer, ökonomischer und ökologischer Aspekte.

innovatION steht für Selektive Entfernung monovalenter Ionen aus salzhaltigen Wässern für die Grundwasseranreicherung und Trinkwasseraufbereitung. Das Verbundprojekt wird in den kommenden drei Jahren vom Bundesministerium für Bildung und Forschung BMBF innerhalb der Fördermaßnahme „Wassertechnologien: Wasserwiederverwendung“ gefördert. innovatION vereint dabei neun nationale Partner aus der Praxis und Wissenschaft sowie auch zwei internationale assoziierte Partner. Die Projektkoordination liegt bei der TUD-Professur für Verfahrenstechnik in Hydrosystemen. Von Seiten der TU Dresden ist zusätzlich die Professur für BWL, insb. Nachhaltigkeitsmanagement und Betriebliche Umweltökonomie (Vertreter: Prof. Dr. Remmer Sassen) beteiligt.

Im Rahmen von innovatION werden selektive Membranen für einen spezifischen Rückhalt monovalenter Salze entwickelt und in neukonstruierten Modulen für den Einsatz in einem elektrochemischen Verfahren in Labor- und Pilotanlagen verbaut. Mit den Anlagen werden Untersuchungen zur Identifikation optimierter Prozess- und Anlagenparameter in Abhängigkeit unterschiedlicher Rohwasserqualitäten und Aufbereitungsziele durchgeführt. Es wird geprüft, welche resultierenden Effekte und Herausforderungen bei den unterschiedlichen Rohwässern gegeben sind. Die entwickelte Technologie wird anhand einer ganzheitlichen ökonomisch-ökologischen Nachhaltigkeitsbewertung internationalen Zielgrößen wie den Nachhaltigkeitszielen gegenübergestellt, um Handlungsempfehlungen abzuleiten.
Durch die Wahl der Partner aus Industrie, Wissenschaft und Praxis ist das Konsortium in der Lage, Anlagen zu bauen und die innovative Technologie bei Praxispartnern vor Ort zu testen und zu bewerten. Der wissenschaftliche Nachwuchs kann frühzeitig in Kooperationen und den Austausch mit internationalen Wissenschaftlerinnen und Wissenschaftlern eingebunden werden. Die Ergebnisse tragen somit maßgeblich zur Sicherung der Wasserressourcen und Weiterbildung, national wie international, bei.

Wissenschaftliche Ansprechpartner:
Technische Universität Dresden
Prof. Dr.-Ing. André Lerch
Professur für Verfahrenstechnik in Hydrosystemen
Tel.: +49 351 463-37537
E-Mail: andre.lerch@tu-dresden.de

(nach oben)


Risiken von Wasserknappheit begrenzen: Bewässerungsmanagement entscheidend für Bioenergie-Anbau zum Klimaschutz

Mareike Schodder Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

– Klimawandel und Bevölkerungswachstum lassen einen Anstieg von Wasserknappheit erwarten, daher muss jede zusätzliche Entnahme von Wasser minimiert werden.
– Bewässerte Bioenergie-Plantagen, die zu einer Begrenzung des Klimawandels beitragen sollen, können den Wasserstress erhöhen.
– Nachhaltiges Wassermanagement kann den zusätzlichen Wasserstress reduzieren.

Damit Wasser nicht noch knapper wird, als es ohnehin vielerorts ist, ist bei Biomasseplantagen nachhaltiges Wassermanagement nötig. Dies zeigt eine neue Studie. Wenn der Anbau von Pflanzen für die Energiegewinnung in Kraftwerken mit unterirdischer Speicherung des CO2 aus den Abgasen kombiniert wird, gilt er oft als eine der Möglichkeiten, Treibhausgasemissionen zu reduzieren und die Pariser Klimaziele zu erreichen. Doch der Anbau von Bioenergieplantagen im großen Stil benötigt weltweit nicht nur viel Land, sondern auch erhebliche Mengen an Wasser für die Bewässerung – was im Widerspruch mit der Einhaltung der Planetaren Belastungsgrenzen stehen kann. Wissenschaftler berechneten nun in den bisher detailliertesten Computersimulationen, wie viel zusätzlicher Wasserstress für die Bevölkerung weltweit in einem Szenario mit konventioneller Bewässerung und einem mit nachhaltiger Wassernutzung entstehen könnte.

„Ohne nachhaltiges Wassermanagement könnte die Bewässerung von Biomasseplantagen nach unseren Berechnungen zusammen mit dem Bevölkerungswachstum bis Ende des Jahrhunderts sowohl die Fläche als auch die Zahl der Menschen verdoppeln, die unter starkem Wasserstress leiden“, sagt Hauptautor Fabian Stenzel vom Potsdam-Institut für Klimafolgenforschung (PIK), der die Forschungsidee im Sommerprogramm für junge Wissenschaftlerinnen und Wissenschaftler am International Institute for Applied Systems Analysis (IIASA) entwickelte. „Umgekehrt könnten wir mit einem nachhaltigen Wassermanagement der Biomasseplantagen den zusätzlichen Wasserstress für die Menschen fast halbieren, im Vergleich zu einem Szenario mit starkem Klimawandels und ohne Bioenergieproduktion.“

Sowohl politische Regulierung als auch Verbesserungen in den Betrieben erforderlich
„Nachhaltiges Wassermanagement bedeutet sowohl politische Regulierung wie Bepreisung oder Wasserzuteilungssysteme, um die aus Flüssen entnommenen Wassermengen zu reduzieren, als auch Verbesserungen in den Betrieben, um das Wasser effizienter zu nutzen“, sagt Ko-Autorin Sylvia Tramberend vom IIASA. Dazu könnten Zisternen zum Sammeln von Regenwasser oder Mulchen zur Reduzierung der Verdunstung gehören. „Außerdem gehört zu einem nachhaltigen Wassermanagement der Erhalt von dauerhaft hinreichenden Wassermengen in den Flüssen, um die Ökosysteme dort gesund zu erhalten. Die Bewirtschaftung flussaufwärts und flussabwärts kann dabei zur Folge haben, dass mehr grenzüberschreitende Flussbewirtschaftung sowie eine Zusammenarbeit zwischen verschiedenen Wassernutzern nötig wird – eine zukünftige Herausforderung für ein integriertes Wasserressourcenmanagement.“

Eine weitgehend ungebremste globale Erwärmung zusammen mit dem Bevölkerungswachstum würde in den Simulationen die Zahl der Menschen unter Wasserstress um etwa 80% erhöhen. Eine verstärkte Nutzung von Bioenergie mit Kohlenstoffabscheidung und -speicherung könnte helfen, den Klimawandel begrenzen: Wenn Pflanzen wachsen, nehmen sie CO2 aus der Luft auf und bauen es in ihre Stämme, Zweige und Blätter ein. Wird diese Biomasse in Kraftwerken verbrannt und das CO2 aus den Abgasen abgetrennt und unterirdisch gespeichert (Carbon Capture and Storage, kurz CCS), kann dies letztlich dazu beitragen, die Menge an Treibhausgasen in unserer Atmosphäre zu reduzieren – Wissenschaftler nennen dies „negative Emissionen“.

In vielen Szenarien werden diese als notwendig erachtet, um ehrgeizige Klimaschutzziele zu erreichen, wenn die direkten Emissionsreduktionen zu langsam voranschreiten. Negative Emissionen werden auch betrachtet, um verbleibende Treibhausgasemissionen auszugleichen, die nur schwer oder gar nicht zu reduzieren sind, zum Beispiel im Flugverkehr, in bestimmten Industriezweigen oder in der Viehhaltung.

Wasserknappheit bleibt eine große Herausforderung
„Nach den vorliegenden Szenarien könnten die Biomasseplantagen um bis zu 6 Millionen Quadratkilometer zunehmen, wenn die globale Erwärmung bis zum Ende des Jahrhunderts auf 1,5 Grad Celsius begrenzt werden soll, also gemäß dem ehrgeizigeren der beiden Temperaturziele des Pariser Abkommens“, sagt Ko-Autor Dieter Gerten vom PIK. „Wir verwenden diese Szenarien als Grundlage für Simulationen in unserem hochauflösenden globalen Vegetations- und Wasserhaushaltsmodell, um die Auswirkungen auf das Wasser zu untersuchen. Während die erhebliche Bewässerung in einem Bioenergie-plus-CCS-Szenario mit Bevölkerungswachstum einen Anstieg der Zahl der Menschen, die mit Wasserstress konfrontiert sind, um 100 % nahelegt, sinkt die Zahl in Kombination mit nachhaltigem Wassermanagement auf 60 %. Das ist natürlich immer noch ein Anstieg, so dass schwere Kompromisse gefunden werden müssen.“

Regionen, die bereits heute unter Wasserstress leiden, wären im Klimawandel-Szenario am stärksten betroffen, wie der Mittelmeerraum, der Nahe Osten, der Nordosten Chinas, Südost- und das südliche Westafrika. Im Bioenergie-plus-CCS-Szenario ohne nachhaltiges Wassermanagement erstreckt sich der hohe Wasserstress auch auf einige sonst nicht betroffenen Regionen, wie den Osten Brasiliens und große Teile von Afrika südlich der Sahara. Hier werden im untersuchten Szenario große Biomasse-Plantagenflächen angenommen, die bewässert werden müssen.

„Die Zahlen zeigen, dass nachhaltiges Wassermanagement in jedem Fall eine Herausforderung ist, der wir uns umgehend stellen müssen“, sagt Ko-Autor Wolfgang Lucht, Leiter der Forschungsabteilung Erdsystemanalyse am PIK. „Unsere neue Studie bestätigt, dass derzeit diskutierte Maßnahmen zur Stabilisierung des Klimas, hier die Erzeugung von Bioenergie mit CCS, eine Reihe zusätzlicher Dimensionen unseres Erdsystems berücksichtigen sollte -– der Wasserkreislauf gehört dazu. Risiken und Zielkonflikte müssen sorgfältig durchdacht werden, bevor größere Schritte zur Etablierung von Märkten und Infrastrukturen für Biomasse eingeleitet werden. Das Konzept der Planetaren Belastungsgrenzen betrachtet das gesamte Erdsystem, nicht nur das Klima. Um einen sicheren Handlungsraum für die Menschheit zu bewahren, muss vor allem auch die Integrität der Biosphäre beachtet werden.“

Artikel: Fabian Stenzel, Peter Greve, Wolfgang Lucht, Sylvia Tramberend, Yoshihide Wada, Dieter Gerten (2021): Irrigation of biomass plantations may globally increase water stress more than climate change. Nature Climate Change [DOI: 10.1038/s41467-021-21640-3]

Weblink zum Artikel, sobald er veröffentlicht ist: http://dx.doi.org/10.1038/s41467-021-21640-3

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung PIK, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
http://www.pik-potsdam.de

Wer wir sind:
Das Potsdam-Institut für Klimafolgenforschung (PIK) ist eines der weltweit führenden Institute in der Forschung zu globalem Wandel, Klimawirkung und nachhaltiger Entwicklung. Natur- und Sozialwissenschaftler erarbeiten hier interdisziplinäre Einsichten, welche wiederum eine robuste Grundlage für Entscheidungen in Politik, Wirtschaft und Zivilgesellschaft darstellen. Das PIK ist ein Mitglied der Leibniz-Gemeinschaft.

Originalpublikation:
Fabian Stenzel, Peter Greve, Wolfgang Lucht, Sylvia Tramberend, Yoshihide Wada, Dieter Gerten (2021): Irrigation of biomass plantations may globally increase water stress more than climate change. Nature Climate Change [DOI: 10.1038/s41467-021-21640-3]

(nach oben)


Auf der Suche nach Lösungen für Klimawandelfolgen in Nord- und Ostsee: Küstenforschungsverbund KüNO geht in dritte Runde

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Nord- und Ostsee sind durch Klimakrise und wachsenden Nutzungsdruck, auch im Einzugsgebiet, massiven Umweltveränderungen ausgesetzt. Die negativen Folgen– etwa für Gewässerqualität, Küstenschutz und Fischerei – stehen im Fokus des Verbundes „Küstenforschung Nordsee-Ostsee“ (kurz KüNO), der 24 Einrichtungen vereint und seit 2013 wissenschaftliche Grundlagen für nachhaltiges Küstenmanagement erarbeitet. Am 15. und 16. März treffen sich rund 100 Wissenschaftler:innen zu einem virtuellen Auftakt der KüNO-Förderphase III. Geplant ist ein intensiver Austausch zu den neuen Forschungsvorhaben, die das Bundesministerium für Bildung und Forschung (BMBF) bis 2023 mit rund 10,5 Mio. Euro fördert.

Neben Expert:innen der großen deutschen Meeresforschungseinrichtungen in Bremerhaven, Geesthacht, Hamburg, Kiel, Rostock und Wilhemshaven, werden auch Forschende aus verschiedenen Universitäten, Behörden, Wirtschafts- und Umweltinstituten teilnehmen. Auf der vom Leibniz-Institut für Ostseefor-schung Warnemünde (IOW) koordinierten Online-Tagung stellen sich die sieben neuen Forschungsprojekte der dritten KüNO-Förderphase dem Forschernetzwerk vor. Der Fokus der Projekte liegt auch hier, wie in den beiden vorherigen Förderphasen, auf der Erarbeitung von praxisnahen Lösungsansätzen für Fischerei, Wirtschaft, Tourismus sowie Politik und Verwaltung, die zunehmend mit den Folgen von Klimawandel, sich verändernden Nährstoffeinträgen, Schadstoffbelastung und weiteren Facetten der Intensivnutzung von Nord- und Ostsee zu kämpfen haben. Die Probleme sind vielfältig; dazu gehören etwa der drastische Rückgang verschiedener Fischbestände, die zunehmende Gefahr von Sturmfluten oder massive Algenblüten, die die Attraktivität der touristisch genutzten Küstenbereiche beeinträchtigen.

„Wir wollen bei diesem Treffen den Austausch im Verbund voranbringen – pandemiebedingt ist dies wich-tiger denn je“, erläutert Prof. Ulrich Bathmann, IOW-Direktor und Sprecher des KüNO-Verbundes das An-liegen der Tagung. „Die Wissenschaftlerinnen und Wissenschaftler sollen sich vernetzen und diejenigen kennenlernen, die in anderen Projekten mit ähnlichen Methoden oder an verwandten Themen arbeiten.“ Außerdem ist ein Austausch mit Akteuren aus Wirtschaft, Politikberatung und Forschungsförderung zu gelungenen Beispielen der Zusammenarbeit von Forschenden und Anwender:innen geplant. Diese sollen den Wissenschaftlerinnen und Wissenschaftlern Ideen und Anregungen für ihre Arbeit mitgeben. „In den Forschungsprojekten werden die jeweiligen ‚Endnutzer‘ der Ergebnisse, wie z.B. Behörden, Verbände und Kommunen, schon frühzeitig eng in die Forschung eingebunden, damit auch wirklich nützliche, umsetzbare Werkzeuge und Handlungsempfehlungen für nachhaltiges Management entstehen. Eine solche Zusammenarbeit bietet große Chancen für alle Seiten“, so Bathmann weiter.

*Verbund „Küstenforschung Nordsee-Ostsee“ (KüNO)
Der KüNO-Verbund geht mit den aktuell gestarteten Projekten in seine dritte Runde. Das Bundesministeri-um für Bildung und Forschung (BMBF) fördert die Forschung in diesem Verbund seit 2013 im Rahmen der Forschungsstrategie „Forschung für Nachhaltigkeit“ (FONA). Daraus entstanden mehrere Werkzeuge, die Behörden zur Planung von Maßnahmen zum Gewässer- und Küstenschutz bereits verwenden – beispiels-weise digitale Atlanten, die Habitate und die dort lebenden Organismen-Gemeinschaften kartieren, und deren Informationen kostenfrei im Internet abgerufen werden können. Eine Übersicht über die sieben Projekte der im November 2020 gestarteten dritten KüNO-Förderphase sowie weiterführende Informationen gibt es auf der KüNO-Webseite unter https://deutsche-kuestenforschung.de/projekte.html.

Bei Presseanfragen:
Dr. Kristin Beck | Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Tel.: 0381 – 5197 135 | Mail: kristin.beck@io-warnemuende.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ulrich Bathmann | Sprecher Verbund „Küstenforschung Nordsee-Ostsee“ (KüNO)
Direktor, Leibniz-Institut für Ostseeforschung Warnemünde (IOW)
Tel.: 0381 – 5197 100 | Mail: ulrich.bathmann@io-warnemuende.de

Dr. Franziska Schmacka | KüNO-Koordinationsbüro Küste
Leibniz-Institut für Ostseeforschung Warnemünde
Tel.: 0381 – 5197 133 | Mail: franziska.schmacka@io-warnemuende.de

(nach oben)


Lachsdetektor zur Erfolgskontrolle am Rhein

Dr.rer.nat. Arne Claussen Stabsstelle Presse und Kommunikation
Heinrich-Heine-Universität Düsseldorf
HHU-Studierende untersuchen die Lachsausbreitung

In verschiedenen deutschen Gewässern werden Lachse angesiedelt. Um den Erfolg solcher Maßnahmen zu untersuchen, hat ein deutsches Forschungskonsortium unter Beteiligung von Studierenden der Heinrich-Heine-Universität Düsseldorf (HHU) ein Diagnoseverfahren entwickelt, das nach Lachs-DNA in Flüssen sucht.

Der Atlantische Lachs (Salmo salar) hat seine Kinderstube an den Oberläufen von Flüssen. Junglachse leben zwischen einem und drei Jahren in den Flüssen, bevor sie sich physiologische verändern und ins Meer ziehen. Nach einigen Jahren schwimmen sie im Spätherbst flussaufwärts zurück in ihre Heimatgewässer, wo sie laichen und viele nach der Fortpflanzung sterben.

Noch zu Beginn des 20. Jahrhunderts war der Atlantische Lachs ein alltägliches Bild in Europas Flüssen, insbesondere im Rhein und seinen Zuflüssen. Doch durch Überfischung, Denaturierung, Flussbegradigung und die zunehmende Verschmutzung der Flüsse ging für die Fische immer mehr Lebensräume verloren. Der Lachs verschwand aus unseren Gewässern.

Seit zehn Jahren wird versucht, Lachse wieder in den ursprünglichen Gewässern heimisch zu machen. Dazu werden Lachse im Flusssystem des Rheins, vor allem in den Oberläufen der Zuflüsse, ausgesetzt. Um den Erfolg der Maßnahmen beurteilen zu können – ob also die neu eingesetzten Lachse nach einer Zeit noch vorhanden sind oder ob eventuell natürliche Lachse im Gewässer leben –, muss der Fischbestand quantitativ beurteilt werden. Ziel des Konsortiums GeMoLaR (Genetisches Monitoring zur Wiederansiedlung des Atlantischen Lachses im Rheingebiet), in dem die HHU mit Forschungsgruppen aus Belgien, den Niederlanden und der Schweiz zusammenarbeitet, ist es, den Erfolg dieser Maßnahmen zu untersuchen.

Dazu entwickelte ein Team um HHU-Professor Dr. Christopher Bridges zusammen mit dem aus der HHU ausgegründeten Unternehmen Tunatech und dem Lachszentrum Hasper Talsperre ein schnelles Lachs-Nachweisverfahren („Salmon Detection Test“, kurz SDT). Dieses verknüpft ein bereits in den USA und Irland genutztes Verfahren mit neuen Diagnosetechniken. Die HHU-Biologin Lydia Schmidt und Dr. Florian Borutta von Tunatech suchen dazu nach DNA-Spuren – sogenannte eDNA – im Gewässer.

Das Lachszentrum Hasper Talsperre bei Hagen liegt am Hasper Bach, der über die Ennepe in die Ruhr und dann in den Rhein fließt. An verschiedenen Stellen des Bachs in unterschiedlicher Entfernung zum Lachszentrum entnahmen die Forscherinnen und Forscher Wasser, aus dem sie anschließend eDNA extrahierten.

Das Verfahren kann die Lachs-DNA vom Erbgut anderer in den Gewässern lebender Fische wie Bachforelle, Regenbogenforelle, Meerforelle und Äsche unterscheiden. Bereits nach 15 bis 30 Minuten liefert der unaufwändige Test eindeutige Ergebnisse.

Dazu Prof. Bridges: „Unser Test, an dessen Entwicklung Studierende der HHU beteiligt waren, hat sich in Feldversuchen in NRW bewährt. Er eignet sich damit zur Erfolgskontrolle von Wiederbesiedlungsmaßnahmen; dies wollen wir nun auch mit anderen Kollegen in Europa und darüber hinaus erproben.“

Das Projekt GeMoLaR wird vom Bundesministerium für Ernährung und Landwirtschaft gefördert.

(nach oben)


Mikroplastik in der Elbe

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung
Ein Team aus Wissenschaftlern unter der Federführung des Helmholtz-Zentrums Geesthacht – Zentrum für Material und Küstenforschung (HZG) hat zahlreiche Mikroplastikpartikel im Elbewasser bei Cuxhaven nachgewiesen. Das Ergebnis: 200 bis 2.100 Mikroplastikpartikel fanden die Forscher pro Kubikmeter Wasser. Um die Ergebnisse ihrer Messungen und deren große Spanne besser interpretieren und mit zukünftigen Studien vergleichen zu können, hat das Team erstmalig für den Bereich der Mikroplastikforschung dargestellt, wie man den Leitfaden des Internationales Büros für Maß und Gewicht (BIPM) zur Erfassung der Messunsicherheit für solche Untersuchungen einsetzen kann.

Die Studie, die heute im Journal of Hazardous Materials veröffentlicht wurde, und deren Methodik zur Darstellung und Berechnung der Ergebnisse auch auf viele andere Studien übertragbar sind, zeigt: Die bisher bekannten Mikroplastik-Konzentrationen weisen vermutlich eine sehr hohe Unsicherheit auf.

Jeden Tag transportiert die Elbe Schätzungen zufolge zwischen 300 Kilogramm und 1,2 Tonnen Kunststoffmüll in die Nordsee (Schöneich-Argent et al., 2020), wobei die Dunkelziffer noch deutlich höher liegen wird. Wissenschaftler des neu gegründeten Instituts für Umweltchemie des Küstenraumes am Helmholtz-Zentrum Geesthacht (HZG), des Alfred-Wegener-Instituts – Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) auf Helgoland und des Leibniz-Instituts für Polymerforschung Dresden (IPF) haben Oberflächenwasser an der HZG-Messstation Cuxhaven untersucht, um verschiedene Verfahren zu vergleichen und die Menge der Mikroplastikpartikel zu bestimmen, die über die Elbe in die Nordsee gelangen.

Die Verfahren, die bislang zur Beprobung von Partikeln eingesetzt wurden, bringen oft das Problem mit sich, dass die eingesetzten Filter zu schnell verstopfen und nur geringe Wasservolumina beprobt werden können. Dadurch wird die Repräsentativität der Ergebnisse beeinträchtigt. Deshalb wurden die Proben in der aktuellen Studie – zusätzlich zu den genommenen Schöpfproben – erstmals mit zwei alternativen Techniken gewonnen: Durchflusszentrifugen und Hydrozyklonen. Beides sind in anderen Bereichen gut etablierte Instrumente zur kontinuierlichen Partikeltrennung aus großen Flüssigkeitsvolumen. „Durch die Gezeiten an der Nordseeküste haben wir relativ viele Schwebstoffe im Wasser. Deshalb mussten wir die Wasserproben zunächst von organischem Material und Sedimentpartikeln bereinigen. Anschließend haben wir einige der Proben mit spektroskopischen Mikroskopieverfahren am IPF und am AWI analysiert. Durch das systematische Vorgehen wollten wir möglichst vergleichbare Ergebnisse erhalten“, erklärt Lars Hildebrandt, Umweltchemiker und Erstautor der Studie.

Die Ergebnisse: „Zwischen 200 und 2.100 Partikel Mikroplastik haben wir pro Kubikmeter Wasser gefunden. Etwa 95 Prozent davon sind kleiner als hundert Mikrometer, was in etwa dem Durchmesser eines Haares entspricht “, so Lars Hildebrandt. „Das sind relativ hohe Konzentrationen im Vergleich zur offenen Nordsee.“ Bei den am häufigsten identifizierten Partikeln handelt es sich um Polypropylen, Acrylate, Polyvinylchlorid und Polyethylen. Grundsätzlich stecken die verschiedenen Kunststofftypen in ganz unterschiedlichen Produkten, was eine eindeutige Zuordnung gefundener Partikel schwierig macht. Polypropylen und Polyethylen sind typische Verpackungsmaterialien. 40 Prozent der gesamten Kunststoffproduktion fließen in Verpackungen mit kurzer Produktlebensdauer. PVC (Polyvinylchlorid) wird in großen Mengen im Bauwesen eingesetzt, zum Beispiel in Form von Fußbodenbelag oder Leitungen. Acrylate findet man in Lacken und Farben, aber auch in vielen Kosmetikprodukten.

Wie sicher sind solche Ergebnisse?
In dieser Studie haben die Wissenschaftler erstmals den wichtigsten Leitfaden zur Erhebung von Messunsicherheiten für die Auswertung der Untersuchungen angewendet: den Guide to the Expression of Uncertainty in Measurement des Internationalen Büros für Maß und Gewicht, der weltweit wichtigsten Behörde für „Maß und Gewicht“. Sie dient als Wächter über das Internationale Einheitensystem und alle Arten von Messungen. Lars Hildebrandt erklärt: „Jede Art von Messung ist mit einer Unsicherheit behaftet, die zusammen mit dem gemessenen Wert als sogenannte Messunsicherheit angegeben wird. Viele bereits veröffentlichte Studien zu Mikroplastikpartikeln wenden die einschlägigen Leitfäden jedoch nicht an, wodurch in der Öffentlichkeit der Eindruck einer falschen Genauigkeit entstehen kann: ‚So sind die Konzentrationen und nicht anders.‘ Dem ist aber nicht so. Man stößt auf dieses Problem aber auch in anderen Bereichen des Alltags: Wenn man sich zum Beispiel die Nährwertangabe auf einer Käsepackung ansieht oder versucht, exakt zwei Kilogramm Kartoffeln auf dem Wochenmarkt zu kaufen.“

Auf die Ergebnisse aus der Elbe angewendet, zeigt sich in der sogenannten Unsicherheitsbetrachtung: Die Messwerte sind teilweise mit extrem hohen Unsicherheiten (von etwa 25 Prozent bis zu 200 Prozent) behaftet. „Die Hauptquelle dafür ist bei uns und auch bei allen anderen Studien: Die Verteilung der Mikroplastikpartikel im Elbwasser ist nicht gleichmäßig – die Partikel verhalten sich fundamental anders als gelöste Substanzen. Deshalb müssen Forscher die Messunsicherheit, die sich natürlich über die Inhomogenität hinaus auch aus dem verwendeten Probenahme- und Analyseverfahren ergibt, adäquat berechnen und bei der Veröffentlichung der Endergebnisse berücksichtigen. Oftmals zeigt sich, dass sich die gefundenen Muster im Transport und in der Verteilung von Mikroplastik im Wasser innerhalb der Messunsicherheiten nicht signifikant voneinander unterscheiden“, sagt Dr. Daniel Pröfrock, Leiter der Abteilung Anorganische Umweltchemie am HZG.

Optimieren und Standardisieren
„Das Thema Mikroplastikpartikel in unseren Gewässern steckt wissenschaftlich gesehen in den Kinderschuhen“, so Umweltchemiker Dr. Tristan Zimmermann, Co-Autor der Studie. „Wir brauchen repräsentative Techniken zur Probenahme, um den Umweltzustand valide abzubilden. Diese Techniken müssen analytisch akkurat, nachvollziehbar und robust sein, einen hohen Automatisierungsgrad aufweisen sowie zeit- und kosteneffizient sein.“ Zukünftig sollten auch entsprechende Unsicherheitsbetrachtungen standardmäßig im Rahmen von Mikroplastik-Studien durchgeführt werden, um die Vergleichbarkeit von Daten zu verbessern und eine solidere Datengrundlage für daraus abgeleitete Entscheidungen zur Verfügung stellen zu können. Mit ihren neuen Methoden haben Forschende des HZG bei einer Fahrt mit dem Forschungsschiff SONNE im vergangenen Dezember Proben im Atlantik genommen, um sich auch ein Bild über die Situation in anderen Teilen des Ozeans machen zu können. Diese werden aktuell in den Laboren des Instituts für Umweltchemie des Küstenraumes am HZG analysiert.

Wissenschaftliche Ansprechpartner:
Lars Hildebrandt
Doktorand Anorganische Umweltchemie
Helmholtz-Zentrum Geesthacht
Tel: +49 (0)4152 87-1813
lars.hildebrandt@hzg.de

Originalpublikation:
Lars Hildebrandt, Tristan Zimmermann, Sebastian Primpke, Dieter Fischer, Gunnar Gerdts, Daniel Pröfrock,
Comparison and uncertainty evaluation of two centrifugal separators for microplastic sampling,
Journal of Hazardous Materials,
Volume 414,
2021,
125482,
ISSN 0304-3894,
https://doi.org/10.1016/j.jhazmat.2021.125482

(nach oben)


Arbeitsbedingungen in sozialen Berufen verschlechtern sich weiter

Dr. Antje Mohr Pressestelle
Hochschule Fulda
Eine Online-Befragung unter mehr als 3.000 Beschäftigten in der Sozialen Arbeit zeigt: Ihre Arbeitssituation hat sich im zweiten Lockdown verschärft – durch steigende Nachfrage, zunehmende Arbeitsverdichtung, veränderte Beziehungen zu den Adressat*innen. „Die Folgen werden wir auch als Gesellschaft insgesamt spüren“, sagt Studienleiter Professor Dr. Nikolaus Meyer, Professor für Profession und Professionalisierung Sozialer Arbeit an der Hochschule Fulda. Auf einer digitalen Konferenz der Dienstleistungsgewerkschaft ver.di zum heutigen Internationalen Tag der Sozialen Arbeit hat er die Ergebnisse der Studie vorgestellt.

Im Forschungsprojekt „Soziale Arbeit macht Gesellschaft“ befragte er während des zweiten Lockdowns in Kooperation mit der Gewerkschaft ver.di Beschäftigte aus unterschiedlichen Handlungsfeldern der Sozialen Arbeit. 3.064 Personen beteiligten sich zwischen dem 9. November und 6. Dezember 2020 an der Online-Erhebung. Da bis heute kein Überblick über die genaue Zahl der Beschäftigten in der Sozialen Arbeit vorhanden ist, kann die Studie zwar nicht als repräsentativ gelten. Doch die Verteilung der Teilnehmenden entspricht in etwa den bisher bekannten wissenschaftlichen Annahmen zur Personalverteilung über die verschiedenen Handlungsfelder. Daher kann die Befragung Tendenzen zur aktuellen Situation in der Sozialen Arbeit und erste Hinweise auf mögliche langfristige Änderungen in diesem Arbeitsfeld liefern.

„Die Berufsgruppe der Sozialen Arbeit ist diejenige, die für die Bewältigung der Krise und deren soziale Folgen eine Schlüsselrolle einnimmt. Doch sie ist selbst stark von der Krise betroffen“, betont Professor Meyer. „Die Arbeitsbedingungen in der Sozialen Arbeit waren schon vor der Pandemie nicht optimal. Die Corona-Pandemie wirkt nun wie ein Brennglas.“

Nachdenken über Stellenwechsel
Die Online-Befragung zeigt: Einrichtungen sind im zweiten Lockdown sowohl häufiger geöffnet als auch von Beschränkungen der Angebote betroffen. Beschäftigte müssen daher mehr Angebote möglich machen oder mehr Adressat*innen parallel begleiten (24,8 Prozent), auch weil Kolleg*innen als Angehörige einer Risikogruppe ausfallen (18,3 Prozent) oder selbst erkrankt sind (47,2 Prozent). In der Folge verdichtet sich die eigene Arbeit und verändert sich nahezu vollständig (88,6 Prozent). 62,1 Prozent der Beschäftigten fühlen sich belastet oder sogar extrem belastet. Aus Sicht jeder zweiten befragten Person verschlechtern sich die Arbeitsbedingungen. 29,9 Prozent denken über einen Stellenwechsel nach, 16,2 Prozent sogar über einen Berufswechsel.

Tendenzen zur Deprofessionalisierung
Aus Sicht jeder zweiten befragten Person verändern sich auch die fachlichen Strukturen wie etwa die Zusammenarbeit zwischen den Fachkräften negativ. Der veränderte Austausch mit Vorgesetzten, Kolleg*innen sowie Kooperationspartner*innen wirkt sich negativ auf die eigenwahrgenommene Arbeitsqualität aus. Mit den sich verschlechternden Arbeitsbedingungen verbunden zeigen sich darüber hinaus auch grundsätzlichere Mechanismen der Deprofessionalisierung. So werden etwa Hilfen bei 13,3 Prozent der Befragten früher als üblich beendet.

Mehr Probleme der Adressat*innen, weniger professionelle Interventionen
Die Beschäftigten geben an, dass das Leben der Adressat*innen in der Corona-Pandemie herausfordernder und prekärer geworden ist. Gleichzeitig sagen Adressat*innen häufiger geplante Termine ab, wodurch sich die Möglichkeiten zur professionellen Intervention verringern. Die Kontaktzahl zu Adressat*innen über alle Handlungsfelder hinweg nimmt bei mehr als jeder zweiten befragten Person ab. „Eine gefährliche Entwicklung, und das nehmen die Befragten auch so wahr“, sagt Professor Meyer. Hinzu kommt: Die Schutzmaßnahmen verschlechtern die Interaktion. Fast drei Viertel der Befragten bewerten diese für das Arbeitsbündnis mit den Adressat*innen negativ. In den offenen Antworten geben sie an, dass die Adressat*innen durch die Schutzmaßnahmen verunsichert oder überhaupt nicht mehr erreicht würden.

Zerrieben zwischen Anspruch und Wirklichkeit
„Die Beschäftigten werden in der Pandemie zerrieben zwischen Vorgaben von außen, die weitgehend nicht den beruflichen Standards entsprechen und den hohen professionellen Ansprüchen an die Qualität der eigenen Arbeit. Diese Diskrepanz gleichen sie nur durch hohen persönlichen Einsatz aus, um die Adressat*innen individuell angemessen begleiten zu können“, analysiert Professor Meyer die Ergebnisse der Umfrage. Da könne es nicht verwundern, dass die Befragten zu Beginn des zweiten Lockdowns nur eine geringe Anerkennung der eigenen Arbeit durch die Gesellschaft wahrgenommen hätten.

Auswirkungen auf Adressat*innen und Gesellschaft
„Wir haben in der Studie zwar nicht untersucht, wie sich die Situation der über eine Million Beschäftigten in der Sozialen Arbeit auf die mindestens fünf Millionen Adressat*innen auswirkt. Aber: Die Arbeitsbedingungen der Beschäftigten in der Sozialen Arbeit haben letzten Endes auch Einfluss auf die Adressat*innen“, betont Professor Meyer und fordert: „Wir müssen anerkennen, dass Soziale Arbeit und die in ihr Beschäftigten für unsere Gesellschaft extrem wichtig sind. Diese Berufsgruppe organisiert Prävention, Erziehung und Bildung ebenso wie Hilfe und Unterstützung in den verschiedensten problembelasteten Lebenslagen. Das ist für die Aufarbeitung der durch die Corona-Pandemie entstehenden sozialen Probleme ungeheuer wichtig.“

HINTERGRUNDINFORMATIONEN
Finanzierung der Studie:
Die gesamte Studie wurde von der Hochschule Fulda finanziert.

Methodik:
Die Studie „SOZIALE ARBEIT MACHT GESELLSCHAFT“ baut auf einer Online-Befragung von 1.867 Beschäftigten in der Sozialen Arbeit im ersten Lockdown auf. Die quantitativen Daten zeigten, dass sich die professionellen Handlungsweisen verändern und Arbeitsbedingungen verschärfen (Buschle & Meyer 2020). Die Befragung im zweiten Lockdown fragte darüber hinaus, welche Veränderungen im professionellen Handeln sich dauerhaft etablieren. Zu diesem Zweck wurde ein Online-Fragebogen zwischen dem 9. November sowie dem 6. Dezember 2020 freigeschaltet. Der Link wurde an die ver.di-Mitglieder in diesem Bereich, alle Studierenden sowie Kooperationspartner der Hochschule Fulda sowie an die Studiengangskoordinator*innen aus dem Verbund „Bachelor Soziale Arbeit Online“ (BASA-Online), hier arbeiten sieben Hochschulen aus dem gesamten Bundesgebiet zusammen, weitergegeben. Außerdem erhielten den Link alle Landesverbände der Berufsgruppenvertretungen Gilde Soziale Arbeit sowie Deutscher Berufsverband Soziale Arbeit (DBSH) und die wissenschaftliche Fachgesellschaft Deutsche Gesellschaft für Soziale Arbeit (DGSA). Ebenso wurden Interessenvertretungen wie die Arbeitsgemeinschaft Kinder- und Jugendhilfe (AGJ) und die Deutsche Vereinigung für Soziale Arbeit im Gesundheitswesen (DVSG) mit der Bitte um Weitergabe kontaktiert. Alle angeschriebenen Institutionen nahmen den Link in ihre Verteiler auf. Auf diese Weise wurden 3.064 Teilnehmende aus den verschiedenen Handlungsfeldern der Sozialen Arbeit gewonnen.

Wissenschaftliche Ansprechpartner:
Professor Dr. Nikolaus Meyer
Hochschule Fulda, Fachbereich Sozialwesen
E-Mail: nikolaus.meyer@sw.hs-fulda.de
Mobil: 0176 240 918 50

Originalpublikation:
Meyer, N. & Alsago, E. (2021). Soziale Arbeit in der Corona-Pandemie: Arbeiten am Limit? Ein empirischer Beitrag zur Lage der Beschäftigten aus professionstheoretischer Perspektive. Sozial Extra, in Begutachtung/peer review.

Weitere Informationen:
https://www.verdi.de/presse/downloads/pressemappen Profis am Limit – digitale Konferenz der Dienstleistungsgewerkschaft ver.di am 16. März 2021 – Presseinformation mit Statements

(nach oben)


Internetnutzung von Menschen in der zweiten Lebenshälfte während der Pandemie: Soziale Ungleichheiten bleiben bestehen

Stefanie Hartmann Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen
Die Corona-Pandemie und die damit verbundenen Maßnahmen zur Eindämmung haben den Alltag der meisten Menschen stark verändert. Sie sollen nur in Ausnahmefällen die eigene Wohnung verlassen. Soziale Kontakte zu pflegen und an Veranstaltungen teilzunehmen, ist kaum noch oder nur digital möglich. Verändert sich deshalb das Nutzungsverhalten rund um das Internet? Doch zuallererst ist ein Internetzugang erst einmal notwendig.

Im Rahmen des Deutschen Alterssurveys (DEAS) wurde untersucht, wie sich im Juni/Juli 2020 der Zugang zum Internet und seine Nutzung im Vergleich zu 2017 verändert haben. Befragt wurden Personen im Alter von 46 bis 90 Jahren. Circa ein Fünftel der Befragten gab an, das Internet seit Beginn der Corona Pandemie im März häufiger für private Zwecke zu nutzen als vor Beginn der Pandemie.

Besonders häufig suchten die Befragten im Jahr 2020 im Internet nach Informationen. Darunter fallen Nachrichten und Service-Angebote, beispielsweise um sich über das aktuelle Pandemiegeschehen zu informieren. Ebenfalls zeigen die DEAS-Daten, dass bestehende soziale Kontakte stärker über das Internet gepflegt wurden als noch im Jahr 2017. Vielfach ersetzen offenbar Videochats Zusammenkünfte innerhalb der Familie, z. B. von Großeltern und ihren Enkelkindern. Auch Angebote zur Unterhaltung und Kultur im Netz wurden stärker nachgefragt als 2017.

Um auf solche digitalen Möglichkeiten auszuweichen, ist zunächst ein Internetzugang erforderlich. Zwar ist zu erkennen, dass mehr Menschen darüber verfügen als noch im Jahr 2017 – aber die Unterschiede zwischen verschiedenen Bevölkerungsgruppen sind immer noch deutlich. Auch im Jahr 2020 sind es weniger Frauen als Männer, die einen Zugang hatten. Noch entscheidender sind aber der Bildungsstatus und – das Alter. Insbesondere unter den 76- bis 90-Jährigen hat nur etwas mehr als jeder Zweite Zugang zum Internet – und damit zu wichtigen Ressourcen gerade in Pandemiezeiten.

Diese Unterschiede beim Zugang spiegeln sich auch bei der Art der Internetnutzung wider. Selbst unter denjenigen, die die Möglichkeit haben, im Internet zu surfen, nutzen Personen in der ältesten Altersgruppe seltener die damit verbundenen Möglichkeiten. Beispielsweise scheinen die über 76-Jährigen dem Online-Einkauf noch immer kritisch gegenüber zu stehen.

Die Corona-Pandemie hat noch einmal deutlich gezeigt, welche Handlungsmöglichkeiten das Internet eröffnen kann. Daher ist es wichtig, dass der Zugang zum Internet möglichst niedrigschwellig und kostengünstig gestaltet wird, sodass allen die Möglichkeit offen steht, das Internet zu nutzen. Dazu gehört auch die gezielte Vermittlung und Stärkung von Kompetenzen der Internetnutzung.

Der Deutsche Alterssurvey (DEAS) ist eine repräsentative Quer- und Längsschnittbefragung von Personen in der zweiten Lebenshälfte. Im Rahmen der Studie werden seit mehr als zwei Jahrzehnten Menschen auf ihrem Weg ins höhere und hohe Alter regelmäßig befragt. An der schriftlich-postalischen Befragung im Juni und Juli 2020 haben 4.762 Personen im Alter von 46 bis 90 Jahren teilgenommen. Der Deutsche Alterssurvey wird gefördert vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ).

Originalpublikation:
Lisa Kortmann, Christine Hagen, Cordula Endter, Julia Riesch und Clemens Tesch-Römer: Internetnutzung von Menschen in der zweiten Lebenshälfte während der Corona-Pandemie: Soziale Ungleichheiten bleiben bestehen [DZA-Aktuell 05/2021]. Berlin: Deutsches Zentrum für Altersfragen.
https://www.dza.de/fileadmin/dza/Dokumente/DZA_Aktuell/DZA-Aktuell_05_2021_Inter…

(nach oben)


TU Berlin: Weniger Behandlungsfälle trotz Pandemie

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Die Analyse von Krankenhausdaten durch TU-Wissenschaftler zeigt zudem eine niedrige Bettenauslastung / Online-Vortrag zur Situation deutscher Kliniken im Covid-19-Jahr 2020 am 15. März 2021

Im Jahr 2020 sind in deutschen Krankenhäusern 13 Prozent weniger abgerechnete Behandlungsfälle registriert worden als im Jahr 2019. In der Zeit vom 9. März bis 24. Mai 2020, das ist die Zeit des ersten Lockdowns, sanken die Fallzahlen sogar um 30 Prozent gegenüber dem Vorjahr. Das ist das Ergebnis einer Analyse von Krankenhausdaten, die Prof. Dr. Reinhard Busse und Dr. Ulrike Nimptsch, vorgenommen haben. Reinhard Busse leitet an der TU Berlin das Fachgebiet Management im Gesundheitswesen. Ulrike Nimptsch ist am Fachgebiet wissenschaftliche Mitarbeiterin. Die Auswertung wurde für den Beirat zur Überprüfung der Auswirkungen der Regelungen des COVID-19-Krankenhausentlastungsgesetzes vorgenommen, dessen Mitglied Prof. Dr. Reinhard Busse ist. Das Gesetz war im März 2020 verabschiedet worden, um die im Zusammenhang mit der Pandemie befürchtete Kapazitätenknappheit in deutschen Krankenhäusern abzuwenden.

Historisches Tief
Der Rückgang der Behandlungsfälle führte trotz einer kleinen Zunahme der Verweildauer pro Patient auch zu einem Rückgang der Verweildauertage um zwölf Prozent. Dadurch sank die Bettenauslastung der Krankenhäuser: „Lag die Bettenauslastung 2019 noch bei 75,1 Prozent, erreichte sie 2020 ein historisches Allzeittief von 67,3 Prozent“, sagt Prof. Dr. Reinhard Busse. Besonders niedrig war sie mit 62,1 Prozent bei den kleineren Krankenhäusern mit bis zu 299 Betten.

Die Zahl der gemeldeten Intensivbetten erhöhte sich im vergangenen Jahr um 206 Betten von 26.581 im Jahr 2019 auf 26787 im Jahr 2020. Dabei konstatieren Busse und Nimptsch jedoch Unterschiede hinsichtlich der Größe der Krankenhäuser. Sank die Anzahl der Intensivbetten in den kleinen Krankenhäusern (bis zu 299 Betten) um sieben Prozent, stieg sie in den großen Krankenhäusern (ab 600 Betten) um fünf Prozent. Dass kleine Krankenhäuser in der Pandemie Intensivbetten abbauten, war ein überraschender Befund, ist jedoch ein weiterer Beleg für die Leistungskonzentration bei den größeren Häusern.

172.248 Behandlungsfälle, bei denen das Coronavirus SARS-CoV-2 nachgewiesen worden war, wurden 2020 in deutschen Krankenhäusern gezählt und an das Institut für das Entgeltsystem im Krankenhaus übermittelt. „Dabei ist es wichtig zu beachten, dass es sich um Fälle handelt und nicht um Personen. Wenn also eine Person von einem Krankenhaus in ein anderes verlegt wurde, sind das zwei Fälle“, erklärt Dr. Ulrike Nimptsch. Von den 172.248 Fällen wurden 36.305 Fälle, also über ein Fünftel, intensivmedizinisch behandelt. „Die durchschnittliche Verweildauer dieser Patienten auf Intensivstation betrug 9,1 Tage, eine im Vergleich mit anderen Diagnosen sehr lange Zeit“, so Dr. Ulrike Nimptsch. 60 Prozent der intensivmedizinisch versorgten Covid-19-Patienten wurden in den 330 größten (ab 400 Betten) der insgesamt über 1400 Krankenhäuser versorgt. Laut Robert-Koch-Institut starben 2020 etwa 40.000 Menschen an oder mit Covid-19. Die Analysen der TU-Wissenschaftler zeigen, dass 75 Prozent davon, also 30.307 Patienten, im Krankenhaus starben.

Weniger Hüfte, weniger Knie
Besonderes Augenmerk lag auf der Absage beziehungsweise Verschiebung von elektiven, also planbaren Operationen. „Bei den eingesetzten künstlichen Hüftgelenken verringerten sich die Fallzahlen um neun Prozent im Vergleich zu 2019 und bei den künstlichen Kniegelenken um elf Prozent“, sagt Prof. Dr. Reinhard Busse. Deutlich stärker waren allerdings die Rückgänge von Krankenhausfällen mit den Hauptdiagnosen Diabetes, Bluthochdruck, Herzinsuffizienz, Chronisch-Obstruktive Lungenerkrankung (COPD) und Asthma, die die OECD als potenziell vermeidbare Krankenhausfälle einstuft. Bei der Hauptdiagnose Asthma gingen die Krankenhausfälle um 29 Prozent zurück, bei COPD um 26 Prozent, bei Bluthochdruck um 18 Prozent, bei Diabetes um 17 Prozent und bei Herzinsuffizienz um zwölf Prozent im Vergleich zu 2019. „Das verdeutlicht, dass das Inanspruchnahmeverhalten der Patienten eine deutlich größere Rolle als die Absage von elektiven Operationen durch die Krankenhäuser gespielt hat. Dass sich diese Entwicklung verstetigt, ist somit zumindest nicht unwahrscheinlich“, resümieren die beiden Wissenschaftler.

Am Montag, dem 15. März 2021, 18.15 Uhr, wird Prof. Dr. Reinhard Busse im Rahmen des Spreestadtforums den Vortrag „Wie erging es den Krankenhäusern im Covid-19-Jahr 2020? Analyse der Fallzahlen, Belegung und Sterblichkeit nach Indikationen und Krankenhausgröße“ via Zoom halten.

Link zur Auswertung der Krankenhaus-Daten: https://www.aerzteblatt.de/archiv/218200/COVID-19-Pandemie-Historisch-niedrige-B….

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. med. Reinhard Busse
TU Berlin
Fachgebiet Management im Gesundheitswesen
Tel.: 030 314-28420
E-Mail: mig@tu-berlin.de oder rbusse@tu-berlin.de

Dr. Ulrike Nimptsch
TU Berlin
Fachgebiet Management im Gesundheitswesen
E-Mail: ulrike.nimptsch@tu-berlin.de

(nach oben)


Erste Lausitzer Wasserkonferenz in Cottbus startet durch

Ralf-Peter Witzmann Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg
Den großen Herausforderungen bei der Bewältigung der mit dem Strukturwandel in der Lausitz einhergehenden wasserwirtschaftlichen Aufgaben Rechnung tragend, sind drei Fachministerien der Einladung des Wasser-Cluster-Lausitz e.V. zur Teilnahme an der Wasserkonferenz gefolgt.

Die Veranstaltung wurde am 12. März 2021 an der Brandenburgischen Technischen Universität (BTU) als Hybridveranstaltung mit mehr als 450 Online-Teilnehmenden aus dem In- und Ausland sowie einem sehr begrenzten Personenkreis in Präsenz durchgeführt.

Die Präsidentin der BTU Cottbus–Senftenberg Prof. Gesine Grande unterstreicht in ihrer Eröffnungsrede die Rolle der Universität als Plattform für den fachlichen Austausch und den Diskurs: „Die Weichen, die wir heute für eine verantwortungsvolle und nachhaltige Nutzung unserer überaus wichtigen Ressource Wasser stellen, haben unmittelbare Auswirkungen auf unsere Zukunft und die unserer Region. Über meine Funktion im Nachhaltigkeitsbeirat des Landes Brandenburg werde ich die Brisanz des Themas, die Ergebnisse der Konferenz und das Know-how der BTU hinsichtlich der wasserwirtschaftlich zu lösenden Aufgaben einbringen.“

In ihrer Videobotschaft sagt die zuständige Senatorin für Umwelt, Verkehr und Klimaschutz in Berlin Regine Günther: „Die jahrzehntelangen massiven Eingriffe in den Wasserhaushalt durch die Braunkohleförderung sowie der beschleunigte Klimawandel stellen die Hauptstadtregion zukünftig vor enorme Herausforderungen bei der sicheren Wasserversorgung. Wir benötigen ein kluges und vorausschauendes Wassermanagement unter Berücksichtigung der Gewässerökologie. Dabei gilt es jetzt gemeinsam einer möglichen Wasserknappheit entgegen zu steuern. Die Wasserkonferenz ist hier ein wichtiger Beitrag.“

Auf die Rolle des Landes Brandenburg geht Umweltminister Axel Vogel ein: „Der Ausstieg aus der Braunkohle ist alleine schon aus Gründen des Klimaschutzes unvermeidlich und zwingend erforderlich. Die gravierenden Folgen des Kohleabbaus für den Wasserhaushalt werden uns noch lange begleiten und können nicht von einer Generation bewältigt werden. Für die dafür notwendigen Maßnahmen sind zuallererst die Bergbauunternehmen nach dem Verursacherprinzip in der Pflicht. Gleichzeitig arbeiten Brandenburg, Sachsen und Berlin länderübergreifend an Lösungen zur Stabilisierung des Wasserhaushalts. Zur Absicherung aller ökologischen und wasserwirtschaftlichen Interessen, vor allem in niederschlagsarmen Zeiten, braucht es ein gemeinsames und zielgerichtetes Handeln auf allen Ebenen. Das gilt für das Einzugsgebiet von Spree und der Schwarzen Elster gleichermaßen. In Abstimmung mit Sachsen wird aktuell die Nutzung der Tagebaurestseen sowohl für den Wasserrückhalt in Hochwassersituationen als auch für die Niedrigwasseraufhöhung untersucht. Wir brauchen zur Bewältigung dieser Aufgaben, die dazu noch durch den fortschreitenden Klimawandel erschwert wird, zukunftsorientierte Anpassungsstrategien und weiterhin die gemeinsame Anstrengung von Unternehmen, Landnutzern, Politik, Wissenschaft und allen beteiligten Akteuren.“

Wie ein roter Faden durchzieht es alle Vorträge: Die Bewältigung der wasserwirtschaftlichen Folgen des Braunkohlebergbaues in Verbindung mit den zeitgleich wirkenden Einflüssen des Klimawandels sind als Mehrgenerationsaufgaben zu sehen. Dafür gibt es weltweit keine Beispiele. Hier hat das Bundesunternehmen Lausitzer und Mitteldeutsche Bergbau-VerwaltungsgesellschaftmbH (LMBV) in den vergangenen 25 Jahren auf vorbildliche Weise gezeigt, wie trotz häufiger Trockenwetterperioden Bergbaufolgeseen aufgefüllt und zu erlebnisreichen Landschaften entwickelt werden können.

Dass auch in den niederschlagsarmen Jahren 2018 bis 2020 keiner der Spreeanrainer bis Berlin einen größeren Schaden genommen hat, liegt nach Ansicht von Sachsens Umweltminister Wolfram Günther am engen Schulterschluss zwischen Berlin, Brandenburg und Sachsen. Günther: „Mit unseren Speichern im Oberen Spreegebiet sorgt die sächsische Landestalsperrenverwaltung kontinuierlich für eine angemessene Wasserführung der Spree. Wir stimmen uns bereits seit vielen Jahren länderübergreifend ab, um das Wasser in den Einzugsgebieten von Spree und Schwarzer Elster zu bewirtschaften. Auf diese Zusammenarbeit werden wir bei der Bewältigung des Struktur- und Klimawandels aufbauen.“ Dazu sei auch ein besserer Wasserrückhalt in der Fläche, im Siedlungsraum und im unbebauten Offenland notwendig. „Die Folgen des Braunkohleabbaus für den Wasserhaushalt in der Lausitz werden uns noch Jahrzehnte begleiten und viel Geld kosten. Selbstverständlich müssen die Kohleunternehmen ihre gesetzlichen Verpflichtungen erfüllen. Die darüber hinausgehenden Langzeitkosten können die Länder nicht allein stemmen. Hier ist der Bund gefragt, denn die jahrzehntelange Kohlenutzung war ein Teil der nationalen Energieversorgung“, so der Minister weiter.

Im Schlusswort der Wasserkonferenz betonte Sprembergs Bürgermeisterin und ehemaliges Mitglied der Kommission Wachstum, Strukturwandel und Beschäftigung, die so genannte „Kohlekommission“ Christine Herntier: „Ich fahre heute etwas beruhigter nach Hause und wünsche mir vor allem, dass neben künftigen regelmäßigen Wasserkonferenzen vor allem die noch bestehende Denkhindernisse an den Ländergrenzen zum Wohle der Lausitz aber auch der Hauptstadtmetropole noch schneller überwunden werden“.

Pressekontakt:
Susett Tanneberger
Stabsstelle Kommunikation und Marketing
T +49 (0) 355 69-3126
susett.tanneberger@b-tu.de

Wissenschaftliche Ansprechpartner:
Dipl.- Ing. Ingolf Arnold
Vorsitzender des Wasser-Cluster-Lausitz e.V.
Tel.: 0173 576 0134
Ingolf.arnold@wasser-cluster-lausitz.de

Dr.-Ing. Volker Preuß
BTU Cottbus – Senftenberg
Wassertechnik
T +49 (0) 355 69-4312
Volker.Preuss@B-TU.De

Weitere Informationen:
https://www.wasser-cluster-lausitz.de/ – zum Wasser Cluster Lausitz e.V.
https://www.b-tu.de/news/artikel/18238-erste-lausitzer-wasserkonferenz-in-cottbu… – mehr zur Lausitzer Wasserkonferenz

(nach oben)


Europäisches Forschungsnetzwerk untersucht die Mikroplastikbelastung von Ackerböden

Michael Hallermayer Stabsstelle Kommunikation und Marketing
Universität Augsburg
Unter Leitung des Augsburger Geographen Prof. Dr. Peter Fiener ist ein europaweites „EU Innovative Training Network“ gestartet, dass die Belastung landwirtschaftlich genutzter Böden mit Makro- und Mikroplastik untersucht. Insgesamt 14 Doktorandinnen und Doktoranden an elf europäischen Forschungseinrichtungen arbeiten an dem Thema.

Mit dem Programm der „Innovative Training Networks“ möchte die EU eine neue Generation von innovativen Nachwuchswissenschaftlerinnen und -wissenschaftlern fördern, die sich mit den bestehenden und wachsenden Herausforderungen unserer Zeit auseinandersetzen. Ihre aus der Forschung gewonnene Expertise soll Einfluss in innovative Produkte, Dienstleistungen und Ideen für Wirtschaft und Gesellschaft finden.

Das Ziel des SOPLAS-Forschungsnetzwerks (Macro and Microplastic in Agricultural Soil Systems) ist es, bestehende Wissenslücken im Kontext „Plasticulture“ und Bodensysteme zu schließen. Des Weiteren soll der Austausch zwischen Forschung, Industrie und Landwirtschaft verbessert und letztendlich einen Beitrag zu einer nachhaltigeren Nutzung von Plastik in der Landwirtschaft in Europa zu leisten.

Die Wissenschaftlerinnen und Wissenschaftler aus den Bereichen Geographie, Agronomie, Bodenkunde, Biologie, Mikrobiologie, Hydrologie, Chemie, Ökonomie und Lebenswissenschaften arbeiten mit weiteren Partnern aus Industrie und Umweltverwaltung an folgenden Forschungsaspekten:

• Anpassung und Optimierung bestehender Methoden zur Quantifizierung von Makro- und Mikroplastik im Boden,
• Verbesserung des Verständnisses von Zersetzungsprozessen von Plastik in Bodenökosystemen,
• Untersuchung der Auswirkungen von Mikroplastik auf Bodenorganismen,
• Analyse der Austragspfade von Mikroplastik aus landwirtschaftlichen Flächen,
• und Untersuchung der Bereitschaft von Landwirten und Konsumenten die Verwendung von Plastikmaterialien im Kontext landwirtschaftlicher Produktion zu verringern.

„Erste Abschätzungen legen nahe, dass global in Böden mehr Mikroplastik zu finden ist als in den Ozeanen. Wie groß die konkrete Belastung ist und welche ökologischen bzw. ökotoxikologischen Auswirkungen dies hat, ist aber weitestgehend unbekannt. Das europäische Doktorandennetzwerk SOPLAS bietet Nachwuchswissenschaftlern eine fantastische Möglichkeit, in einem noch jungen und zugleich hoch relevanten Feld der Umweltforschung Neues zu entdecken“, sagt Prof. Dr. Peter Fiener.

Kern des Netzwerks sind die Doktorandenprojekte, welche thematisch verzahnt sind, um sich den Fragestellungen des Themenkomplexes aus verschiedenen Blickwinkeln zu nähern. Ein Austauschprogramm ermöglicht für jeden Doktoranden und jede Doktorandin einen vier bis sechs monatigen Forschungsaufenthalt an einer der Partnerinstitutionen für einen wechselseitigen Wissenstransfer. Zudem erlernen die Promovierenden in sechs einwöchigen Trainingsmodulen wissenschaftliche und methodische Kompetenzen. Die Trainingsprogramme werden von den Institutionen des Netzwerkes gelehrt und ausgerichtet, was wiederum den Wissenstransfer innerhalb des Netzwerks sicherstellt.

Das EU Innovative Training Network SOPLAS wird von Januar 2021 bis Dezember 2024 von der EU mit ca.3,7 Mio. Euro gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Fiener, Wasser- und Bodenressourcenforschung
peter.fiener@geo.uni-augsburg.de
+49 821 598 2665

Dr. Florian Wilken, Wasser- und Bodenressourcenforschung
florian.wilken@geo.uni-augsburg.de
+49 821 598 2753

(nach oben)


Klimawandel verändert Abflussmenge von Flüssen

Hochschulkommunikation Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Die Wassermengen in Flüssen haben sich in den letzten Jahrzehnten weltweit stark verändert. Ein internationales Forschungsteam unter Leitung der ETH Zürich konnte nun belegen, dass der Klimawandel dafür auf globaler Ebene eine entscheidende Rolle spielt, nicht aber Gewässermanagement und Landnutzung.

Der Klimawandel beeinflusst den Wasserhaushalt der Erde: Je nach Region und Jahreszeit kann er zu mehr Überschwemmungen oder Dürren führen und sich auch auf die Wassermengen in Flüssen auswirken. Die Abflussmengen sind ein wichtiger Indikator für die Wasserressourcen, die Mensch und Umwelt zur Verfügung stehen. Wieviel Wasser regional verfügbar ist, hängt auch von weiteren Faktoren wie direkten Eingriffen in den Wasserhaushalt oder der Landnutzung ab: Wird beispielsweise Wasser zur Bewässerung abgezweigt, über Stauseen reguliert, oder werden Wälder abgeholzt und stattdessen Monokulturen angebaut, kann dies ebenfalls die Wassermenge in Flüssen verändern.

Wie stark sich die Abflussmengen in verschiedenen Weltregionen während der letzten Jahrzehnte verändert haben, wurde bisher aber auf globaler Ebene noch nicht anhand von konkreten Messdaten untersucht. Ebenso war die Frage, ob global sichtbare Veränderungen auf den Klimawandel oder auf direkte menschliche Eingriffe in den Wasserhaushalt und die Landnutzung zurückzuführen sind, bislang nicht geklärt.

Nun ist es einem internationalen Forschungsteam unter Leitung der ETH Zürich gelungen, den Einfluss dieser Faktoren aufzuschlüsseln. Dazu analysierten die Wissenschaftlerinnen und Wissenschaftler Daten von 7250 Abfluss-Messstationen weltweit. Die Studie, die nun in der renommierten Fachzeitschrift Science erschienen ist, belegt: Wie viel Wasser Flüsse führen, hat sich zwischen 1971 und 2010 stark verändert. Es zeigen sich komplexe Muster: Manche Regionen sind trockener geworden, etwa der Mittelmeerraum oder der Nordosten Brasiliens, während anderswo die Wassermengen zunahmen, zum Beispiel in Skandinavien.

Suche nach den Ursachen
«Die eigentliche Frage war jedoch, was die Ursache für diese Veränderungen ist», sagt Lukas Gudmundsson, Erstautor der Studie und Oberassistent in der Gruppe von Sonia Seneviratne, Professorin am Institut für Atmosphäre und Klima der ETH.

Um das herauszufinden, führten die Forschenden mehrere Computersimulationen durch. Sie verwendeten globale hydrologische Modelle, die sie mit beobachteten Klimadaten aus dem untersuchten Zeitraum fütterten (1971 bis 2010). Die Ergebnisse der Modellrechnungen stimmten gut mit der Analyse der Flussmessdaten überein. «Das heisst, dass die klimatischen Bedingungen die beobachteten Trends bei den Abflussmengen erklären können», sagt Gudmundsson.

In einem zweiten Durchgang schlossen die Forschenden in ihre Simulationen zusätzlich direkte menschliche Veränderungen ein, um den Einfluss dieser Faktoren zu untersuchen. Das Ergebnis änderte sich dadurch jedoch nicht. «Veränderungen im Wasser- und Landmanagement sind offenbar nicht die Ursache für die globalen Veränderungen in Flüssen», sagt Gudmundsson.

Gewässermanagement und Landnutzung können zwar lokal zu grossen Schwankungen der Abflüsse führen. «Uns ging es aber nicht um lokale, sondern um globale Trends, die über längere Zeiträume sichtbar werden», sagt Gudmundsson. Deshalb betrachteten die Forschenden nicht isoliert die Daten einzelner Messstationen, sondern fassten diese für die Analyse zu grösseren, subkontinentalen Regionen zusammen. Dadurch wurde es möglich, den Einfluss des Klimawandels in den Daten zu erkennen.

Einfluss der Treibhausgase
Die Rolle des Klimawandels konnten die Forschenden mit der sogenannten Attributions-Methode untermauern: Sie verglichen ihre Messdaten mit Simulationen von Klimamodellen, die einmal mit den menschengemachten Treibhausgasen berechnet wurden und einmal ohne diese. Im ersten Fall stimmte die Simulation mit den tatsächlichen Daten überein, im zweiten Fall jedoch nicht. «Daraus lässt sich ableiten, dass die beobachteten Veränderungen ohne den Klimawandel sehr unwahrscheinlich sind», sagt Gudmundsson.

Die Studie ist die erste, welche mit Messdaten nachweist, dass der Klimawandel einen global sichtbaren Einfluss auf die Fliessgewässer hat. «Dies war nur durch die gute Zusammenarbeit der beteiligten Forschenden und Institutionen aus zwölf verschiedenen Ländern möglich», betont Gudmundsson. Auch die gesammelten Daten von den 7250 Messstationen weltweit waren ein Gemeinschaftswerk: Die Forschenden trugen sie mit australischen Kollaborationspartnern in einer Vorgängerstudie zusammen. Sie bilden den grössten weltumspannenden Datensatz zur Wassermenge in Flüssen, der heute verfügbar ist. «Dank dieser Daten konnten wir die Modelle validieren und zeigen, dass sie die Realität gut abbilden», sagt Gudmundsson.

Das heisst, dass die Modelle auch verlässliche Szenarien liefern können, wie sich Flüsse künftig weiter verändern werden. Solche Projektionen stellen für betroffene Regionen eine wichtige Planungsgrundlage dar, um die Wasserversorgung sicherzustellen und sich an den Klimawandel anzupassen.

Wissenschaftliche Ansprechpartner:
Lukas Gudmundsson, lukas.gudmundsson@env.ethz.ch

Originalpublikation:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2021/03/klimawandel-be…

(nach oben)


Erholung an europäischen Gewässern bringt Volkswirtschaft 800 Milliarden Euro

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin

Europäerinnen und Europäer geben jährlich über 800 Milliarden Euro für die Erholung an Küsten und Gewässern aus. Das belegt eine EU-weite Studie unter Leitung der Hochschule für Wirtschaft und Recht Berlin.

• Zum ersten Mal hat ein Forscherteam den ökonomischen Wert von Erholung an und in Gewässern in Europa ermittelt
• Ökologisch intakte Gewässer und Grünflächen für das physische und psychische Wohlbefinden von Menschen enorm wichtig
• Wasserqualität für die Nutzung zu Erholungszwecken entscheidend, Haushaltseinkommen und Bildungsniveau nicht

Gewässer und ihre Umgebung sind wichtig für die physische und psychische Gesundheit der Menschen. Der volkswirtschaftliche Nutzen ist hoch und abhängig von der Wasserqualität. Eine Verschlechterung der Qualität in Binnen- und Küstengewässern würde die Länder der Europäischen Gemeinschaft mehr als 100 Milliarden Euro an entgangenem Erholungswert kosten.

Zum ersten Mal hat ein Team von Wissenschaftlerinnen und Wissenschaftlern aus Großbritannien, Österreich, Irland und Finnland unter Leitung von Volkswirtschaftsprofessor Dr. Tobias Börger, Hochschule für Wirtschaft und Recht Berlin (HWR Berlin), den ökonomischen Stellenwert von Erholung in und an Gewässern in Europa ermittelt. Die EU-finanzierte Studie zum Forschungsprojekt unter dem Titel „Blue Health“ wird am 1. März 2021 im Fachjournal “Science of the Total Environment” veröffentlicht.

Auf Basis der Antworten von mehr als 10 000 Erholungssuchenden in 14 Ländern der Europäischen Union im Rahmen von Urlaubsaufenthalten, Tagesausflügen und Spaziergängen am Wasser. „Innerhalb der EU beläuft sich der Erholungswert auf über 800 Milliarden Euro pro Jahr. Dies zeigt den enormen Stellenwert von Gewässern für Erholung und Gesundheit“, sagt Tobias Börger. „Die Covid-19-Krise hat uns gezeigt, wie wichtig ökologisch intakte Gewässer und Grünflächen für das physische und psychische Wohlbefinden von Menschen sind. Unsere Forschung belegt, dass es von großer volkswirtschaftlicher Relevanz ist, unbedingt hohe Standards in der Wasserqualität anzustreben und zu halten, vor allem, wenn Reisebeschränkungen zur Verhinderung der Ausbreitung der Pandemie langsam heruntergefahren werden“, so der Experte für Umwelt-, Energie- und Ressourcenökonomik an der HWR Berlin.

Einer EU-Richtlinie folgend, müssen an den über 15 000 Küsten- und fast 7 000 Binnengewässern in der Europäischen Union gut sichtbar Hinweisschilder angebracht sein, die über die Wasserqualität der letzten vier Jahre informieren. Demnach erfüllen 95 Prozent der Wasserflächen in den Mitgliedsstaaten die festgelegten Mindeststandards und sind zum Baden freigegeben. Bei 85 Prozent wird die Wasserqualität sogar als ausgezeichnet eingestuft.

Prof. Danny Campbell von der Universität Stirling in Großbritannien und Co-Autor der Studie sagt: „Unsere empirische Untersuchung hat ergeben, dass die Beschaffenheit der Wasserqualität für die Menschen bei der Entscheidung über die Nutzung von Gewässern als Erholungsorte sehr wohl von Bedeutung ist. Gleichzeitig sehen wir aber auch, dass das Haushaltseinkommen und das Bildungsniveau keine Rolle spielen. Alle Bevölkerungsgruppen verbringen Freizeit an Seen und Küsten und profitieren in Bezug auf ihre Gesundheit und ihr Wohlbefinden.“

Die Ergebnisse des „Blue Health“-Projekts reihen sich ein in die zahlreicher werdende Forschung zur Bedeutung von Binnen- und Küstengewässern für die Gesundheit der Menschen in Europa. „Wasserflächen nützen der Bevölkerung auf unterschiedliche Art“, unterstreicht Co-Autor Dr. Mathew White von der Universität Exeter. „Diese Erholungsorte regen zu Sport und Bewegung an, tragen bei zum Stressabbau und zur Entspannung, und sie sind wichtig für die Menschen, um mit Familie und Freunden sinnvoll Zeit zu verbringen. All das wirkt sich förderlich auf Psyche und Körper aus“, sagt der britische Wissenschaftler und verweist darauf, dass gute Wasserqualität der Schlüssel sei, um Menschen anzuregen, von den vielen Vorteilen Gebrauch zu machen.

Das Forscherteam will mit der Studie Planer/innen und Verantwortlichen bei nationalen und europäischen Regulierungsbehörden Fakten und Argumente an die Hand geben, um die Kosten für die Schaffung und Instandhaltung von Infrastruktur zu begründen, die zur Erhaltung einer hohen Wasserqualität an Badeorten anfallen.

Die „Blue Health“-Studie
„The value of blue-space recreation and perceived water quality across Europe: A contingent behaviour study” in „Science of the Total Environment“, Elsevier, 2021

Authors: Tobias Börger (a,b)*, Danny Campbell (b), Mathew P. Whitec (d), Lewis R. Elliott (d), Lora E. Fleming (d), Joanne K. Garrett (d), Caroline Hattam (e), Stephen Hynes (f), Tuija Lankia (g), Tim Taylor (d)

(a) Department of Business and Economics, Berlin School of Economics and Law, Germany
(b) Applied Choice Research Group, University of Stirling Management School, United Kingdom
(c) Cognitive Science Hub, University of Vienna, Austria
(d) European Centre for Environment and Human Health, University of Exeter Medical School, United Kingdom
(e) ICF, Plymouth, United Kingdom
(f) Socio-Economic Marine Research Unit, Whitaker Institute, National University of Ireland, Galway, Ireland
(g) Natural Resources Institute Finland (LUKE), Finland

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht (HWR) Berlin ist mit über 11 500 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in über 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutenden und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
http://www.hwr-berlin.de

About the University of Exeter Medical School
The University of Exeter Medical School is part of the University of Exeter’s College of Medicine and Health. Our mission is to improve the health of the South West and beyond, through the development of high quality graduates and world-leading research that has international impact. As part of a Russell Group university, we combine this world-class research with very high levels of student satisfaction. Exeter has over 19,000 students and is ranked 12th in The Times and Sunday Times Good University Guide 2020. The University of Exeter Medical School’s Medicine course is in the top 10 in the Complete University Guide 2020.
The College’s Medical Imaging programme is ranked in the top 5 in the Guardian Guide 2020 and the Complete University Guide 2020. The University of Exeter entered the world top 20 for Biomedical and Health Sciences in the CWTS Leiden Ranking 2019, based on the percentage of publications ranked in the top 10 per cent most cited.
https://medicine.exeter.ac.uk/

University of Stirling
The University of Stirling is ranked fifth in Scotland and 40th in the UK for research intensity in the 2014 Research Excellence Framework. Stirling is committed to providing education with a purpose and carrying out research which has a positive impact on communities across the globe – addressing real issues, providing solutions and helping to shape society. Interdisciplinary in its approach, Stirling’s research informs its teaching curriculum and facilitates opportunities for knowledge exchange and collaboration between staff, students, industry partners and the wider community. The University’s scenic central Scotland campus – complete with a loch, castle and golf course – is home to more than 14,000 students and 1500 staff representing around 120 nationalities. This includes an ever-expanding base for postgraduate study. The University received a Queen’s Anniversary Prize in the latest round of awards, in recognition of the quality and innovation exhibited by its Institute of Aquaculture. The University is the UK Sports University of the Year 2020, as conferred by The Times / Sunday Times Good University Guide.
http://www.stir.ac.uk @stiruni

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tobias Börger
E: tobias.boerger@hwr-berlin.de
T: +49 (0)30 30877- 1482

(nach oben)


Neue Studie zeigt: Mehr Müll durch COVID-19 Pandemie

Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg
Derzeit begegnen uns volle Mülleimer in Parks oder volle Altpapier-Container in der Nachbarschaft. Das subjektive Gefühl, mehr Müll als vor der Pandemie zu produzieren, wurde jetzt von einer internationalen Studie bestätigt, an der insgesamt 23 Länder beteiligt waren. Sie zeigt: Die Gewohnheiten von Verbrauchern haben sich während der Pandemie verändert. Die internationale Studie koordinierte Prof. Dr. Dr. Walter Leal, Leiter des Forschungs- und Transferzentrum „Nachhaltigkeit und Klimafolgenmanagement“ an der HAW Hamburg. Die Analyse wurde zudem gerade in der Fachzeitschrift „Science of the Total Environment“ publiziert.

„Die internationale Studie analysiert den Konsumverbrauch und das Abfallaufkommen seit der COVID-19-Pandemie“, sagt Koordinator Prof. Walter Leal, Leiter des Forschungs- und Transferzentrum „Nachhaltigkeit und Klimafolgenmanagement“ an der HAW Hamburg. Die Lockdowns führten insgesamt zu einem höheren Konsum von verpackten Produkten und von Essen zum Mitnehmen. So gaben 45 bis 48 Prozent der Befragten aus 23 Ländern an, einen erhöhten Konsum von verpackten Lebensmitteln, frischen Lebensmitteln und Lebensmittellieferungen zu haben. „Die Pandemie verursacht also deutliche Änderungen im Verhalten der Verbraucher“, so Prof. Leal.

Einer der Hauptgründe für das erhöhte Abfallaufkommen während der Abriegelung, das in Deutschland normalerweise im Durschnitt 457 Kilogramm pro Kopf beträgt, sei die Tatsache, dass die Menschen mehr Zeit zu Hause verbringen. Außerdem wurden Steigerungen von 43 und 53 Prozent bei Lebensmittelabfällen und Plastikverpackungen verzeichnet. Anhand von Vergleichen über die Menge an Hausmüll, die vor und während der Pandemie produziert wurde, legen die Ergebnisse nahe, dass spezifische Arten von Siedlungsabfällen zugenommen haben. „Das übt einen zusätzlichen Druck auf die Abfallwirtschaftssysteme aus und sei ein indirekter Effekt der COVID-19-Pandemie“, erklärt Prof. Leal.

Die Ergebnisse der Studie können Stadtverwaltungen und Stadtwerken nützliche Erkenntnisse über Verbrauchsmuster in Notfallsituationen liefern. „Dadurch können schneller systemische und strategische Maßnahmen ergriffen werden, um die Auswirkungen zukünftiger Pandemien besser einzuschätzen und einzudämmen“, sagt Studien-Koordinator Prof. Leal.

An der Untersuchung hatten sich folgende Länder beteiligt: Portugal, Italien, Deutschland, Brasilien, Estland, USA, Australien, Kanada, Singapur, England, Dänemark, Spanien, Polen, Finnland, Bangladesch, Argentinien, Chile, Irland, Neuseeland, Japan, Malaysia, Indonesien und Vietnam.

Wissenschaftliche Ansprechpartner:
HAW Hamburg
Fakultät Life Sciences
Prof. Dr. Dr. Walter Leal
Leiter des Forschungs- und Transferzentrum „Nachhaltigkeit und Klimafolgenmanagement“ (FZ-NK)
T +49 40 428 75-6313
walter.leal2@haw-hamburg.de

Originalpublikation:
http://www.sciencedirect.com/science/article/pii/S0048969721010640?via%3Dihub

(nach oben)


Eine “Modell-Botschaft” für die Ostsee: die weitere Umsetzung von Nährstoff-Reduktionen wird am Ende erfolgreich sein

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Ein Team von Klimamodellierern untersuchte mit einem umfangreichen Modell -Ensemble die Auswirkungen des Klimawandels auf die „toten Zonen“ der Ostsee. Sie zeigten, dass eine Verkleinerung der Gebiete bei konsequenter Reduktion von Nährstoffeinleitungen bis zum Jahr 2100 erreicht werden kann – trotz des Klimawandels. Bis dahin liegen jedoch die simulierten Veränderungen noch im Schwankungsbereich der natürlichen Variabilität, die – auch dies zeigten die Autoren – vorerst die größte Unsicherheit von Zukunftsszenarien darstellt. Für einzelne Ostseeregionen ermittelten sie eine frühere Sichtbarkeit von Veränderungen als in anderen. Sie empfehlen, dort die Beobachtungen zu intensivieren.

Die Ostsee weist weltweit das größte Areal an Sauerstoff-verarmtem Bodenwasser auf, gefolgt vom nördlichen Golf von Mexiko, dem nordwestlichen Schwarzen Meer und dem Ostchinesischen Meer. Diese “toten Zonen” werden allgemein als Folge eines Überschusses an Nährstoffen im System gesehen. Seit Jahrzehnten wird deshalb in einigen dieser unter Sauerstoffnot leidenden Gebieten versucht, durch die Reduktion von Einleitungen Verbesserungen zu schaffen, so geschehen in der Ostsee, im Golf von Mexiko und der Chesapeake Bay. Im Falle der Ostsee sind dies Maßnahmen im Rahmen des Ostseeaktionsplans.
All diesen Programmen war gemein, dass sie die Auswirkungen des Klimawandels auf die Überdüngung nicht mitbedacht hatten. Als jedoch versucht wurde, mit Hilfe von regionalen Klimamodellen die Folgen des Klimawandels für die Überdüngung und die Ausbreitung der toten Zonen zu simulieren, um auf diesem Wege die Reduktionsmaßnahmen anzupassen, musste man feststellen, dass die Modellergebnisse stark von einander abwichen und nicht direkt zu brauchbaren Empfehlungen kamen. Diese Streuung der Resultate basiert im Wesentlichen auf vier Unsicherheiten: 1) der natürlichen Variabilität, 2) den Unterschieden in den Modellen, 3) der Richtigkeit der Annahmen zukünftigen Treibhausgas-Konzentrationspfaden – den so genannten RCPs (representative concentration pathways) und 4) der Richtigkeit der Annahmen zukünftiger sozioökonomischer Entwicklungen, ausgedrückt durch die so genannten SSPs – die shared socioeconomic pathways. Sie beinhalten für die Ostsee unter anderem Annahmen zu unterschiedlichen Nährstoff-Einleitungen. Daneben existierte die generelle Schwäche, dass zu wenige Modelle miteinander verglichen wurden. Frühere Ensemble Simulationen bestanden aufgrund begrenzter Rechenkapazitäten meist aus weniger als 10 Mitgliedern.
In einem in dieser Woche in dem renommierten Fachjournal Communications Earth & Environment veröffentlichten Bericht analysierten deutsche und schwedische Klimamodellierer um den Physiker Markus Meier vom Leibniz-Institut für Ostseeforschung Warnemünde mithilfe statistischer Methoden, angewandt an einer großen Anzahl unterschiedlicher Modellszenarien (48), welche Unsicherheiten die Hauptverantwortung für diese Streuung haben.
Ihr Ziel war es, Entscheider, wie – im Falle der Ostsee – die Helsinki-Kommission (HELCOM), bei ihrer Aufgabe zu unterstützen, an den Klimawandel angepasste Maßnahmen zur Reduktion von Nährstoffeinleitungen zu definieren. Im Vordergrund stand dabei die Frage, wann man erkennen kann, ob umweltpolitische Maßnahmen auch wirklich greifen und ob der Klimawandel diese Sichtbarkeit verzögern wird.
„Die gute Nachricht ist: die geplanten Maßnahmen werden greifen“, resümiert Markus Meier. „Aber bedingt auch durch den Klimawandel wird es vermutlich noch mehrere Jahrzehnte dauern, bis ein statistisch abgesicherter Trend für die „toten Zonen“ der Ostsee gegenüber dem Flickflack der natürlichen Variabilität zu erkennen ist.“ In der Klimaforschung wird dieser Zeitpunkt „Time of Emergence“ genannt. Markus Meier und seine Kollegen konnten zeigen, dass dieser „Zeitpunkt der Sichtbarkeit“ für die unterschiedlichen Umweltvariablen und unterschiedlichen Regionen der Ostsee anders ausfällt. So wird sich im nordwestlichen Gotlandbecken vermutlich bereits in den nächsten Jahren erkennen lassen, ob die Maßnahmen des Ostseeaktionsplanes zu höheren Sauerstoffwerte am Boden führen. Markus Meier: „Unsere Ergebnisse weisen Gebiete aus, in denen der „Zeitpunkt der Sichtbarkeit“ von Veränderungen früher eintreten wird als anderswo. Wir empfehlen, diese Orte in Zukunft besonders gut zu beobachten.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Meier, Department of Physical Oceanography, Leibniz Institute for Baltic Sea Research Warnemünde, phone: +49 381 5197 150 | markus.meier@io-warnemuende.de

Originalpublikation:
Markus Meier, H.E., Dieterich, C. & Gröger, M. Natural variability is a large source of uncertainty in future projections of hypoxia in the Baltic Sea. Commun Earth Environ 2, 50 (2021). https://doi.org/10.1038/s43247-021-00115-9

(nach oben)


Die Weltmeere sickern tiefer in die Erde als erwartet

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
Die Weltmeere sickern tiefer und in größerem Umfang in den Erdmantel als gedacht. Das zeigt eine Untersuchung des wasserhaltigen Minerals Glaukophan, das in der ozeanischen Kruste weit verbreitet ist. Hochdruckexperimenten an DESYs Röntgenlichtquelle PETRA III zufolge ist Glaukophan überraschend stabil und kann Wasser bis in Tiefen von bis zu 240 Kilometer befördern.

Ursache für die unerwartete Stabilität des Minerals ist die allmähliche Abkühlung des Erdinneren, die sich über geologische Zeiträume vollzieht. Durch die gesunkenen Temperaturen können Glaukophan und vermutlich auch andere wasserhaltige Minerale demnach höheren Drücken in größeren Tiefen widerstehen, wie ein internationales Forschungsteam unter der Leitung von Yongjae Lee von der Yonsei-Universität in Südkorea im Fachblatt „Nature Communications“ berichtet. Die Forscherinnen und Forscher schätzen, dass dadurch in rund 200 Millionen Jahren zusätzlich etwa das Volumen des Arktischen Ozeans in diese Tiefen des Erdmantels sickert.

„Unter dem Ozean existieren sogenannte Subduktionszonen mit einer Gesamtlänge von rund 55 000 Kilometern, also deutlich länger als der Erdumfang, wo Platten der Erdkruste und des oberen Mantels in das Innere unseres Planeten abtauchen“, erläutert Lee. „Jedes Jahr befördern diese Platten rund eine Billion Liter Ozeanwasser in Form wasserhaltiger Minerale wie Amphibole in die Tiefe. Allerdings können diese Minerale normalerweise Temperatur und Druck nicht bis zu größeren Tiefen als etwa 100 Kilometer widerstehen.“ Wenn Amphibole wie Glaukophan zerbrechen, wird ihr Wasser freigesetzt und treibt Erdbeben in den Subduktionsplatten und Vulkanismus im darüber liegenden Erdmantel an. Dadurch gelangt das Wasser über kurz oder lang wieder an die Oberfläche.

Das Erdinnere kühlt sich gegenwärtig jedoch um etwa 50 bis 100 Grad Celsius pro einer Milliarde Jahre ab, und diese Abkühlung beschleunigt sich. Dadurch haben sich in der jüngeren Erdgeschichte vielerorts „kalte“ Subduktionszonen gebildet, in denen es zwar immer noch glühend heiß ist, aber merklich kühler als in den üblichen „heißen“ Subduktionszonen und auch kühler als in der erdgeschichtlichen Vergangenheit. „Mit Hochdruck- und Hochtemperatur-Ausrüstung haben wir die heutigen Bedingungen in den kalten Subduktionszonen im Labor simuliert und das Verhalten von Glaukophan dabei untersucht“, erläutert Ko-Autor Hanns-Peter Liermann, Leiter der Messstation für Extrembedingungen P02.2 an DESYs Röntgenquelle PETRA III. „Zu unserer Überraschung bleibt Glaukophan in kalten Subduktionszonen bei Bedingungen stabil, die einer deutlich größeren Tiefe von bis zu 240 Kilometern entsprechen.“

Frühere Schätzungen nahmen an, dass rund ein Drittel des Wassers in Subduktionsplatten in diese Tiefen im Erdmantel befördert wird. Dabei ist nicht klar, ob und wie es von dort wieder an die Oberfläche gelangen kann. „Wenn wir annehmen, dass alle Subduktionszonen früher oder später zu ‚kühlen‘ werden, könnte in 200 Millionen Jahren das Volumen des Arktischen Ozeans zusätzlich im Erdmantel gespeichert werden“, rechnet Yoonah Bang vor, Hauptautorin der Studie von der Yonsei-Universität. „Es würde allerdings fünf Milliarden Jahre dauern, bis die Ozeane auf diese Weise komplett ausgetrocknet wären.“ Da unsere Sonne in Zukunft langsam immer heißer werden wird, werden die Ozeane Schätzungen zufolge bereits in rund einer Milliarde Jahre verdampfen. „Es scheint, dass die Erde einen Teil ihres Oberflächenwassers in ihrem Inneren speichern und damit vor dem Verlust ins Weltall bewahren könnte“, ergänzt Lee.

Die Untersuchung hat weitere Implikationen für die Entwicklung der Erde: Da unterirdisches Wasser in geringeren Tiefen ein wesentlicher Treiber für Vulkanismus und Erdbeben ist, werden diese Phänomene auf geologischen Zeitskalen immer seltener, wie Lee betont: „Da sich die Erde immer weiter abkühlt, ist zu erwarten, dass sich der Wassertransport ins Erdinnere auf größere Tiefen ausdehnt und dadurch Erdbeben und Vulkanismus unterdrückt werden.“

Forscherinnen und Forscher der Yonsei-Universität und der Nationaluniversität Seoul in Südkorea, vom Lawrence-Livermore-Labor, dem Argonne-Labor und der Universität Chicago in den USA, vom Zentrum für Hochdruck-Forschung und -Technologie in China, der Ehime-Universität in Japan und von DESY haben zu dieser Arbeit beigetragen. Die Studie ist Teil des „Early Science“-Programms am Zentrum für Molekulare Wasserforschung CMWS, das zurzeit bei DESY aufgebaut wird, und verbunden mit einem Langzeitprojekt von Yongjae Lee an der Messstation für Extrembedingungen P02.2 an PETRA III.

DESY zählt zu den weltweit führenden Teilchenbeschleuniger-Zentren und erforscht die Struktur und Funktion von Materie – vom Wechselspiel kleinster Elementarteilchen, dem Verhalten neuartiger Nanowerkstoffe und lebenswichtiger Biomoleküle bis hin zu den großen Rätseln des Universums. Die Teilchenbeschleuniger und die Nachweisinstrumente, die DESY an seinen Standorten in Hamburg und Zeuthen entwickelt und baut, sind einzigartige Werkzeuge für die Forschung: Sie erzeugen das stärkste Röntgenlicht der Welt, bringen Teilchen auf Rekordenergien und öffnen neue Fenster ins Universum. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.

Wissenschaftliche Ansprechpartner:
Dr. Hanns-Peter Liermann, DESY, +49 40 8998-95722, hanns-peter.liermann@desy.de
Prof. Yongjae Lee,Yonsei-Universität, yongjaelee@yonsei.ac.kr

Originalpublikation:
Originalveröffentlichung:
„The stability of subducted glaucophane with the Earth’s secular cooling“; Yoonah Bang, Huijeong Hwang, Taehyun Kim, Hyunchae Cynn, Yong Park, Haemyeong Jung, Changyong Park, Dmitry Popov, Vitali B. Prakapenka, Lin Wang, Hanns-Peter Liermann, Tetsuo Irifune, Ho-Kwang Mao and Yongjae Lee; „Nature Communications“, 2021; DOI: https://dx.doi.org/10.1038/s41467-021-21746-8

Weitere Informationen:
https://www.desy.de/aktuelles/news_suche/index_ger.html?openDirectAnchor=2034&am… – Pressemitteilung im Netz

(nach oben)


Virus-Varianten in der Pandemie schneller aufspüren

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Forschende weltweit fordern eine bessere Integration von Virusgenetik, Bioinformatik und Gesundheitswesen, um Pandemien besser zu bekämpfen zu können. Zu den Vorteilen aus Schweizer Sicht äussern sich in der Fachzeitschrift Nature Emma Hodcroft der Universität Bern und vom SIB Swiss Institute of Bioinformatics, und Christophe Dessimoz von der Universität Lausanne und vom SIB.

«Was Forschende in einem Jahr seit der Entdeckung eines brandneuen Virus erreicht haben, ist wirklich bemerkenswert», sagt Emma Hodcroft vom Institut für Sozial- und Präventivmedizin (ISPM) der Universität Bern, Erstautorin des Kommentars. «Aber die Werkzeuge, die Forschende einsetzen um zu untersuchen, wie SARS-CoV-2 sich entwickelt und ausbreitet, waren nie für die einzigartigen Belastungen oder Datenmengen dieser Pandemie ausgelegt.»

SARS-CoV-2 ist heute einer der am meisten sequenzierten Erreger aller Zeiten, mit über 600’000 Vollgenom-Sequenzen, die seit Beginn der Pandemie generiert wurden, und über 5’000 neuen Sequenzen, die jeden Tag aus der ganzen Welt eintreffen. Die heute verwendeten Analyse- und Visualisierungstools (einschliesslich Nextstrain, das von Richard Nehers Gruppe am SIB und der Universität Basel mitentwickelt wurde) waren jedoch nie für die Menge und Geschwindigkeit der heute generierten Sequenzen vorgesehen – ebensowenig, dass sie in einem solchen Ausmass für Massnahmen des öffentlichen Gesundheitswesens herangezogen werden. «Überall auf der Welt beruht die genomische Überwachung auf der Initiative von Forschenden, um wesentliche Antworten zu finden. Die Entscheidungsfindung im Gesundheitswesen würde von einem nachhaltigeren Rahmen für die Zusammenarbeit profitieren», sagt Christophe Dessimoz vom SIB und der Universität Lausanne.

Was eine verbesserte Sequenzierung ermöglichen würde
Die genetischen Sequenzen von SARS-CoV-2 enthalten wertvolle Informationen, um effektive Pandemiemassnahmen umzusetzen und dem Virus einen Schritt voraus zu bleiben. Mutationen in verschiedene Probe zu vergleichen, ermöglicht es Forschenden zum Beispiel, die Übertragung des Virus zu verfolgen – und hilft dabei, Super-Spreading-Ereignisse und die internationale Ausbreitung zu identifizieren. Im Moment ist es jedoch schwierig, diese genetischen Informationen mit anderen Schlüsselvariablen zu kombinieren – etwa wer an einem Ereignis teilgenommen hat und wann die Symptome aufgetreten sind – was dazu beitragen könnte, diese Methoden noch aussagekräftiger zu machen.

Der «R-Wert» hat sich im letzten Jahr von einem wissenschaftlichen Konzept zu einem Alltagsbegriff entwickelt – er misst die durchschnittliche Anzahl Personen, die eine infizierte Person ansteckt. Auch hier können Sequenzierungen helfen, importierte Fälle von lokalen Übertragungen zu unterscheiden. Dies ermöglicht eine genauere Schätzung, erfordert aber ein hohes Mass an Sequenzierungen und komplexe Analysen, die derzeit nicht in grossem Umfang durchgeführt werden.

Letztlich ist die Sequenzierung die einzige Möglichkeit, die vielen Mutationen, die bei SARS-CoV-2 auftreten, zu identifizieren und zu verfolgen. Während Mutationen zum Virus gehören, müssen die Forschenden wissen, welche Variationen harmlos sind und welche die Übertragbarkeit des Virus oder den klinischen Verlauf verändern könnten. Die Kombination von Sequenzierung, Laborarbeit und computergestützten Vorhersagen könnte ein besseres Verständnis der Auswirkungen von Mutationen ermöglichen, aber es gibt kaum einen Rahmen, der die Zusammenarbeit dieser verschiedenen Fachgebiete unterstützt. «Die Daten zum Virus – Sequenzen und zugehörige Metadaten – müssen dank stabiler Infrastrukturen, die mit den Prinzipien von Open Data kompatibel sind, ermittelt, gesammelt und harmonisiert werden, um den wissenschaftlichen Austausch zu erleichtern», sagt Christophe Dessimoz von der Universität Lausanne und SIB, Letztautor des Kommentars.

Vorteile für die Schweiz
«In der Schweiz könnte die Bevölkerung von einer systematischeren und repräsentativeren Sequenzierung profitieren, zum Beispiel durch besseres Contact Tracing, gezielte Isolierung und Quarantäne von kleineren Regionen, und der Steuerung Schulschliessunge und -öffnungen basierend auf dem Auftreten bestimmter Varianten», erklärt Emma Hodcroft. Auch die Harmonisierung von Gesundheitsdaten ist ein kritisches Thema. Die Schweiz unternimmt bereits viele Anstrengungen auf nationaler Ebene durch das Swiss Personalized Health Network (SPHN).

Die Forschenden sind überzeugt, dass das Potenzial der Schweiz in Bezug auf Expertise und Infrastruktur nur darauf wartet, zum Wohle der öffentlichen Gesundheit genutzt zu werden. «Die Tools sind vorhanden, die Forschenden haben sich selbst organisiert und den ersten Schritt getan – aber um diese Bemühungen aufrecht zu erhalten und Forschung und Gesundheitswesen zusammenzubringen, sind wir auf eine nachhaltige öffentliche Finanzierung angewiesen», sagt Christophe Dessimoz.

Institut für Sozial- und Präventivmedizin (ISPM) der Universität Bern
Das Institut für Sozial- und Präventivmedizin (ISPM) bietet eine Ausbildung auf Bachelor- und Masterstufe an und betreibt interdisziplinäre Forschung auf den Gebieten der sozialen und verhaltensbezogenen Gesundheit, der klinischen Epidemiologie und Biostatistik sowie der internationalen und umweltbezogenen Gesundheit. Es bietet auch ein breites Spektrum an Ausbildungen auf Doktorandenstufe, um Studierende zu herausragenden Public-Health-Forschenden auszubilden. In diesem Jahr feiert das ISPM sein 50-jähriges Bestehen.

Swiss Institute of Bioinformatics
Das SIB Swiss Institute of Bioinformatics ist eine international anerkannte Non-Profit-Organisation, die sich der biologischen und biomedizinischen Datenwissenschaft widmet. Die Forschenden arbeiten mit Leidenschaft an der Erschliessung von Wissen und der Lösung komplexer Fragen in vielen Bereichen, von Biodiversität und Evolution bis hin zur Medizin. Sie stellen wesentliche Datenbanken und Software-Plattformen sowie bioinformatische Expertise und Dienstleistungen für akademische, klinische und industrielle Gruppen zur Verfügung. Das SIB vereint die Gemeinschaft der Schweizer Bioinformatik von rund 800 Wissenschaftlerinnen und Wissenschaftlern und fördert die Zusammenarbeit und den Wissensaustausch.

Das Institut trägt dazu bei, die Schweiz an der Spitze der Innovation zu halten, indem es den Fortschritt in der biologischen Forschung fördert und die Gesundheit verbessert.

Datenwissenschaftler für das Leben
http://www.sib.swiss

Wissenschaftliche Ansprechpartner:
Emma Hodcroft, PhD Institut für Sozial- und Präventivmedizin (ISPM), Universität Bern Telefon: +41 31 631 56 97 / emma.hodcroft@ispm.unibe.ch

Prof. Christophe Dessimoz SIB Swiss Institute of Bioinformatics und Universität Lausanne Telefon: +41 79 537 92 77 / christophe.dessimoz@unil.ch

Originalpublikation:
Emma B. Hodcroft, Nicola De Maio, Rob Lanfear, Duncan R. MacCannell, Bui Quang Minh, Heiko A. Schmidt, Alexandros Stamatakis, Nick Goldman & Christophe Dessimoz: Want to track pandemic variants faster? Fix the bioinformatics bottleneck. Nature Comment, 1 March 2021, doi: https://doi.org/10.1038/d41586-021-00525-x

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2021/medi…

Anhang
Medienmitteilung UniBE

(nach oben)


Energiewende der Schweiz

Dr. Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
Kann die Schweiz ihre Kohlendioxid-Emissionen wie geplant bis im Jahr 2050 auf null senken? Forschende des Paul Scherrer Instituts PSI haben in einer Studie untersucht, welche Massnahmen dafür notwendig wären und wie viel das pro Kopf kosten könnte.

Der Schweizer Bundesrat hat im August 2019 ein ehrgeiziges Ziel zur Begrenzung des Klimawandels beschlossen: Ab dem Jahr 2050 soll die Schweiz unter dem Strich keine Treibhausgasemissionen mehr ausstossen. Damit entspricht die Schweiz dem international vereinbarten Ziel, die globale Klimaerwärmung auf maximal 1,5 °C gegenüber der vorindustriellen Zeit zu begrenzen.

Welche Möglichkeiten zur Erreichung dieses Zieles im Energiesektor bestehen, lotet nun eine Studie des Paul Scherrer Instituts aus, die im Rahmen der Joint Activity «Scenarios and Modelling» der 8 Swiss Competence Centers for Energy Research (SCCER) durchgeführt wurde.

«Das Ziel, im Jahr 2050 Netto-Null-Kohlendioxid-Emissionen zu erreichen, erfordert einschneidende Transformationen bei der Bereitstellung und dem Verbrauch von Energie in beinahe allen Bereichen», fasst Tom Kober, Leiter der PSI-Forschungsgruppe Energiewirtschaft und einer der Hauptautoren der Studie, zusammen.

Bei ihren Analysen berücksichtigten die Forscher energiebedingte Kohlendioxid-Emissionen sowie Kohlendioxid-Emissionen aus industriellen Prozessen. Diese Emissionen stellen heute etwa 80 % des gesamten Schweizer Treibhausgasinventars dar. Nicht in die Berechnungen flossen ein: Emissionen aus dem internationalen Luftverkehr, der Landwirtschaft – mit Ausnahme der Emissionen aus der Kraftstoffverbrennung –, der Landnutzung, Landnutzungsänderung und Forstwirtschaft sowie Abfall – ausser Emissionen aus der Abfallverbrennung. Auch waren die Emissionen im Ausland, die im Zusammenhang mit dem Güterkonsum in der Schweiz stehen, nicht Gegenstand der Untersuchung.

Strom aus Photovoltaik muss sich mindestens jedes Jahrzehnt verdoppeln
Zentrale Schlussfolgerungen der Studie sind: Die installierte Kapazität von Photovoltaikanlagen muss sich mindestens jedes Jahrzehnt bis 2050 verdoppeln, sodass sich Photovoltaikanlagen mit 26 Terawattstunden Produktion im Jahr 2050 neben der Wasserkraft (circa 38 Terawattstunden im Jahr 2050) zur zweitgrössten Technologiegruppe entwickeln. Weiterhin tragen Kraftwerke mit Kraft-Wärme-Kopplung sowie Windkraftwerke, Wasserstoff-Brennstoffzellen und Stromimporte dazu bei, die Stromnachfrage zu decken. Im Hauptszenario zur Erreichung des Netto-Null-Emissionsziels steigt insgesamt die Stromerzeugung aus Kraftwerken und Speicheranlagen in der Schweiz gegenüber dem gegenwärtigen Niveau um etwa ein Fünftel auf 83 Terawattstunden im Jahr 2050 an. Die Studie unterstellt, dass die Schweizer Kernkraftwerke bis zum Jahr 2045 ausser Betrieb genommen werden. Die private Autoflotte müsste bis 2050 grösstenteils auf elektrischen Antrieben basieren. Bis 2030 müsste demnach jede dritte Neuzulassung ein vollständig elektrisch betriebenes Auto sein. Zusätzlich müsste der Einsatz von Wärmepumpen im Dienstleistungs- und Wohnbereich deutlich beschleunigt werden, sodass bis 2050 fast drei Viertel des Heizungs-und Warmwasserbedarfs dadurch gedeckt werden. Gleichzeitig wäre es notwendig, deutliche Energieeinsparungen durch beschleunigte Renovierungen von Wohngebäuden zu erzielen.

Will die Schweiz das Netto-Null-Emissionsziel erreichen, muss mit einem deutlichen Anstieg des Stromverbrauchs gerechnet werden. So könnte im Jahr 2050 der Stromverbrauch um 20 Terawattstunden über dem heutigen Niveau liegen. Ein wesentlicher Treiber für dieses Wachstum ist die Verwendung von Strom für den Antrieb von Autos, Bussen und Lastkraftwagen, entweder direkt über batterieelektrische Fahrzeuge oder indirekt über Wasserstoff oder sogenannte E-Fuels, also synthetische Kraftstoffe, die unter anderem mittels Strom aus Wasserstoff und Kohlendioxid (CO2) hergestellt werden. In den stationären Sektoren wird Strom zunehmend durch die vermehrt eingesetzten Wärmepumpen verbraucht werden. Dieser erhöhte Stromverbrauch kann allerdings kompensiert werden, wenn die notwendigen Effizienzgewinne bei Heizung und Warmwasserbereitstellung erreicht werden. Dann könnten die stationären Sektoren einen nahezu gleichbleibenden Stromverbrauch erzielen.

Neben elektrischer Energie werden weitere Energieformen eine Rolle spielen. So bieten beispielsweise der Fern- und Güterverkehr sowie die energieintensive Industrie Perspektiven für neue Wasserstoffanwendungen. Um den dafür benötigten Wasserstoff emissionsarm oder -frei zu produzieren, wäre eine erhebliche Menge an nachhaltig erzeugtem Strom (9 Terawattstunden in 2050) notwendig.

Ohne CO2-Abscheidung wird es wohl nicht gehen
«Wenn die Schweiz das Null-Emissions-Ziel bis 2050 erreichen will, dann müssen die CO2-Emissionen in Zukunft im Durchschnitt jedes Jahr um eine bis anderthalb Millionen Tonnen gegenüber dem Vorjahr verringert werden», sagt Evangelos Panos, Hauptautor der Studie. «Veränderungen der CO2-Emissionen in dieser Grössenordnung haben wir im Zeitraum 1950 bis 1980 gesehen – allerdings in die umgekehrte Richtung – damals haben sie massiv zugenommen.» Um die Emissionsminderung kostengünstig umzusetzen, sollte deshalb auch der Einsatz von Technologien mit der sogenannten CO2-Abscheidung in Betracht gezogen werden. So könne man sogar in Teilbereichen auf eine negative Bilanz beim CO2-Ausstoss kommen. Das sei beispielsweise dann der Fall, wenn man Biomasse als Energieträger nutze und bei der Energiegewinnung entstehendes CO2 nicht emittiere, sondern abfange und unterirdisch speichere. Falls das in der Schweiz nicht möglich sei – beispielsweise aufgrund der Ablehnung durch die Bevölkerung oder aufgrund begrenzter CO2 Speicherstätten –, könne die internationale Vernetzung und die Speicherung im Ausland einen Ausweg bieten. Insgesamt gehen die Forschenden in ihrer Studie für das Jahr 2050 von knapp 9 Millionen Tonnen CO2 aus, die in der Schweiz abgetrennt würden.

«Mehr als zwei Drittel der für das Netto-Null-Emissionsziel notwendigen Emissionsreduktionen sind mit Technologien erreichbar, die bereits kommerziell verfügbar sind oder sich in der Demonstrationsphase befinden», resümiert Panos. Das dekarbonisierte Energiesystem der Zukunft sei erreichbar, erfordere aber kohlenstofffreie Energieträger, zum Beispiel entsprechend erzeugten Strom, Biokraftstoffe und E-Fuels, Zugang zur entsprechenden Transport- und Verteilungsinfrastruktur sowie die Möglichkeit, saubere Brennstoffe und Elektrizität zu importieren.

Kosten sind schwer abschätzbar
In puncto Kosten geben sich die Energiesystemforscher zurückhaltend. «Die Kosten sind sehr schwer abschätzbar, weil dabei enorm viele Komponenten eine Rolle spielen», so Kober. In dem in der Studie angenommenen Netto-Null-Hauptszenario würden sich für den Zeitraum bis 2050 die durchschnittlichen diskontierten Mehrkosten des Klimaschutzszenarios gegenüber dem Referenzszenario mit moderatem Klimaschutz (-40 % CO2-Emissionen im Jahr 2050 gegenüber 1990) in der Schweiz auf etwa 330 CHF pro Person und Jahr (Basis: 2010) belaufen. Betrachtet man alle untersuchten Szenarien, so sieht man eine Bandbreite der durchschnittlichen Kosten zwischen 200 und 860 CHF pro Jahr und Kopf, was letztendlich unterschiedliche Entwicklungen der Energietechnologien, der Ressourcenverfügbarkeit, der Marktintegration, bei der Akzeptanz von Technologien und bei den Präferenzen zur Versorgungssicherheit widerspiegelt. Der Verlauf der Kosten zeigt vor allem eine langfristige Zunahme, sodass vergleichsweise hohe Kosten auch nach 2050 zu erwarten sind.

Die Studie stützt sich auf die Berechnungen mit dem Schweizer TIMES Energiesystemmodell (STEM) des PSI, welches das gesamte Energiesystem der Schweiz mit den verschiedenen Wechselwirkungen zwischen den Technologien und Sektoren abbildet. STEM verbindet einen langfristigen Zeithorizont mit einer hohen unterjährigen zeitlichen Auflösung und berechnet für verschiedene zukünftige Rahmenannahmen die kostenminimalen Konfigurationen des Energiesystems und der Erreichung verschiedener energie- und klimapolitischer Ziele. Das Modell wurde im Rahmen des Forschungsprojektes massgeblich weiterentwickelt, vor allem hinsichtlich der Optionen zur Erreichung von Netto-Null-CO2-Emissionsszenarien. Das Modell wird zur Berechnung von Szenarien eingesetzt, die keinesfalls als Vorhersagen zu verstehen sind, sondern vielmehr Einblicke in die vielfältigen Wechselwirkungen im Energiesystem geben und somit einen Beitrag zur Entscheidungsunterstützung in Politik, Industrie und der Gesellschaft leisten. Konkret wurden in dieser Studie drei Hauptszenarien untersucht, welche neben dem Referenzszenario ein Netto-Null-CO2-Emissionsminderungsszenario umfasst und ein Szenario, welches die Ziele der Schweizer Energiestrategie 2050 unterstellt, ohne explizit ein CO2-Minderungsziel vorzugeben. Zudem wurden sieben verschiedene Varianten der Hauptszenarien analysiert, wie zum Beispiel eine Variante mit hohem technologischen Innovationspotenzial und eine Variante zur Verringerung der Energieimportabhängigkeit.

An der Zusammenarbeit im Rahmen der SCCER Joint Activity Scenarios and Modelling sind neben dem PSI folgende Institutionen beteiligt: Empa, EPFL, ETH Zürich, Hochschule Luzern, Universität Basel, Universität Genf und WSL. Finanziert wurde die Studie durch Innosuisse – Swiss Innovation Agency.

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 400 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.

Wissenschaftliche Ansprechpartner:
Dr. Tom Kober
Leiter der Gruppe Energiewirtschaft
Labor für Energiesystemanalysen
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 26 31
E-Mail: tom.kober@psi.ch [Deutsch, Englisch]

Originalpublikation:
Panos, E.; Kober, T.; Ramachandran, K.; Hirschberg, S. (2021): Long-Term Energy Transformation Pathways – Integrated Scenario Analysis with the Swiss TIMES Energy systems Model; Report of the Joint Activity Scenarios and Modelling of the Swiss Competence Centers for Energy Research. (siehe Link zur PDF-Version unter Weiterführende Informationen)

Weitere Informationen:
http://psi.ch/de/node/44193 – Darstellung der Mitteilung auf der Webseite des PSI und Bildmaterial
https://sccer-jasm.ch/JASMpapers/JASM_results_stem.pdf – Download der PDF-Version der Studie

(nach oben)


2019 gingen weniger Beschäftigte vorzeitig in Rente

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Die Zahl der Verrentungen wegen verminderter Erwerbsfähigkeit erreichte 2019 mit fast 162.000 Fällen (161.534) einen neuen Tiefstand in Deutschland. Ihre Zahl sank im Vergleich zum Vorjahr um knapp 4 Prozent (3,8 %). Dabei stehen „Psychische und Verhaltensstörungen“ mit rund 42 Prozent (41,7 %) nach wie vor an erster Stelle als Ursache für Frühverrentung. Obwohl mit 42,4 Millionen Erwerbstätigen in Deutschland ein neuer Höchststand bei der Beschäftigung erreicht wurde, sank die Zahl der meldepflichtigen Arbeitsunfälle um rund 12.000 (11.853) auf etwa 937.000 (937.456). Damit liegt die Unfallquote je 1.000 Vollarbeiter bei 21,9.

Diese und weitere Ergebnisse enthält der Bericht „Sicherheit und Gesundheit bei der Arbeit – Berichtsjahr 2019“ (SuGA), den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jährlich im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS) erstellt.

Die Zahl der Verrentungen wegen verminderter Erwerbsfähigkeit erreichte 2019 mit fast 162.000 Fällen (161.534) einen neuen Tiefstand in Deutschland. Ihre Zahl sank im Vergleich zum Vorjahr um knapp 4 Prozent (3,8 %). Dabei stehen „Psychische und Verhaltensstörungen“ mit rund 42 Prozent (41,7 %) nach wie vor an erster Stelle als Ursache für Frühverrentung. Obwohl mit 42,4 Millionen Erwerbstätigen in Deutschland ein neuer Höchststand bei der Beschäftigung erreicht wurde, sank die Zahl der meldepflichtigen Arbeitsunfälle um rund 12.000 (11.853) auf etwa 937.000 (937.456). Damit liegt die Unfallquote je 1.000 Vollarbeiter bei 21,9. Diese und weitere Ergebnisse enthält der Bericht „Sicherheit und Gesundheit bei der Arbeit – Berichtsjahr 2019“ (SuGA), den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jährlich im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS) erstellt.

Zwar weist die Statistik 2019 mit 626 tödlichen Arbeitsunfällen einen Anstieg zum Vorjahr aus. Jedoch flossen Nachmeldungen von 84 Unfällen aus den Jahren 2000 bis 2005 ein, nachdem Strafverfahren abgeschlossen waren. Damit blieb das Arbeitsunfallgeschehen auch 2019 auf einem insgesamt niedrigen Niveau mit leicht abnehmender Tendenz. Durch Arbeitsunfähigkeit fielen 2019 schätzungsweise etwa 712 Millionen Arbeitstage aus. Davon entfielen 159 Millionen Ausfalltage auf „Krankheiten des Muskel-Skelett-Systems“ (22,3 %), 117 Millionen Ausfalltage auf „Psychische und Verhaltensstörungen“ (16,5 %) und 93 Millionen Ausfalltage auf „Krankheiten des Atmungssystems“ (13,1 %). Das Arbeitsunfähigkeitsgeschehen führte insgesamt zu einem geschätzten Produktionsausfall anhand der Lohnkosten von rund 88 Milliarden Euro. Wird der Verlust an Arbeitsproduktivität berücksichtigt, gingen der deutschen Volkswirtschaft rund 149 Milliarden Euro an Bruttowertschöpfung verloren.

Auch 2019 gab es einen leichten Anstieg bei den Anzeigen auf Verdacht einer Berufskrankheit (84.853; +2,7 %). 2.581 Menschen starben als Folge einer Berufskrankheit. Fast zwei Drittel der Todesfälle lassen sich nach wie vor auf asbestbedingte Berufskrankheiten zurückführen (66,1 %).

Über das umfangreiche statistische Material hinaus ergänzen Analysen zu Arbeitsbedingungen und der Verbreitung bestimmter Arbeitsmittel und Technologien vor dem Hintergrund des digitalen Wandels den SuGA–Bericht Sicherheit und Gesundheit bei der Arbeit. Berichte zentraler Arbeitsschutzakteure, wie der Gemeinsamen Deutschen Arbeitsschutzstrategie (GDA), der Arbeitsschutzbehörden der Länder, der Unfallversicherungsträger oder der Initiative Neue Qualität der Arbeit (INQA), komplettieren den breiten Überblick über den Arbeits- und Gesundheitsschutz im coronafreien Deutschland im Jahr 2019.

„Sicherheit und Gesundheit bei der Arbeit – Berichtsjahr 2019“, Unfallverhütungsbericht Arbeit; 1. Auflage; Dortmund: Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020; 216 Seiten; ISBN 978-3-88261-736-8; doi:10.21934/baua:bericht20201215. Den Bericht gibt es im PDF-Format zum Herunterladen im Internetangebot der BAuA unter http://www.baua.de/suga.

Direkter Link: http://www.baua.de/dok/8852834

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 750 Beschäftigte.
http://www.baua.de

(nach oben)


BLUE PLANET Berlin Water Dialogues – Virtuelle Vernetzungsmöglichkeiten mit der internationalen Wasserbranche

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)
„Smart Water for Resilient Cities“ – unter diesem Dachthema geht die BLUE PLANET Berlin Water Dialogues Veranstaltungsreihe am 25. Februar 2021 in die nächste Runde. Mit Claudia Castell-Exner, Präsidentin der europäischen Vereinigung der nationalen Verbände in der Wasserver- und Abwasserentsorgung sowie Paul Fleming, Leiter des globalen Wasserprogramms bei Microsoft Nordamerika konnten hochrangige internationale VertreterInnen für die Veranstaltung gewonnen werden.

Seit 10 Jahren ist die BLUE PLANET Berlin Water Dialogues-Konferenzreihe die Anlaufstelle für die deutsche und internationale Wasserwirtschaft, in der VertreterInnen aus Politik, Forschung und Industrie über konkrete Lösungsoptionen zu weltweiten Herausforderungen der globalen Wasserwirtschaft ins Gespräch kommen. Am 25. Februar 2021 wird die Veranstaltung erstmalig digital stattfinden. Die Ausgabe steht unter dem Motto „Smart Water for Resilient Cities“. Hochkarätige internationale VertreterInnen renommierter Unternehmen und Institutionen wie EurEau, Microsoft, Berliner Wasserbetriebe, IBM, KWR Water Research Institute, UN-Habitat’s Global Water Operators‘ Partnerships Alliance (GWOPA) sowie weiterer werden in ihren Beiträgen Wege und Möglichkeiten zu digitalen Technologien und deren Anwendung für zukunftsfähige Städte vorstellen. Themen wie Digitalisierung, Automatisierung und künstliche Intelligenz in der Wasser- und Abwasserinfrastruktur bilden dabei die Schwerpunkte der Diskussion.
Die Veranstaltung bietet in diesem Jahr ein interaktives Erlebnis der digitalen Vernetzung, mit einer Eventplattform, die ganz auf die Bedürfnisse der TeilnehmerInnen ausgerichtet ist. Einen Nachmittag lang haben Gäste die Möglichkeit, sich in Projektpräsentationen und Plenardiskussionen zu innovativen Asset-Management-Prozessen sowie nachhaltiger Wasserversorgung in Metropolen zu informieren, in digitalen Break-Out-Sessions auszutauschen und in themenfokussierten virtuellen Netzwerkräumen zu vernetzen. Auch die Verabredung zu Einzelgesprächen ist möglich.
Über 600 TeilnehmerInnen aus 30 Ländern haben sich bereits registriert. Die Veranstaltung richtet sich an ein internationales Publikum und findet auf Englisch statt. Das detaillierte Programm und die Online-Anmeldung sowie weitere Informationen erhalten Sie unter www.blueplanetberlin.de.

Über BLUE PLANET Berlin Water Dialogues
Mit den BLUE PLANET Berlin Water Dialogues hat sich in den vergangenen Jahren ein qualifiziertes englischsprachiges Forum zum Wissens-, Ideen-, Konzept- und Erfahrungsaustausch zwischen VertreterInnen aus Politik, Wasserwirtschaft, Wissenschaft und Nicht-Regierungsorganisationen etabliert. Hier werden gemeinsam globale Herausforderungen diskutiert sowie deutsche Kompetenzen und Lösungsansätze vorgestellt und mit internationalen Ansätzen abgeglichen. Der Schwerpunkt liegt darauf, Synergien im Bereich Forschung und Entwicklung zwischen Unternehmen und wissenschaftlichen Einrichtungen nachhaltig zu fördern, um praxisnahe Innovationen, etwa aus den Bereichen nachhaltige Entwicklung und künstliche Intelligenz in der Wasserwirtschaft oder Umweltschutz durch ressourceneffiziente Technologien, voranzutreiben. Die BLUE PLANET Berlin Water Dialogues 2020/2021 werden von den Berliner Beratungsunternehmen T-Base Consulting GmbH und eclareon GmbH zusammen mit dem Kompetenzzentrum Wasser Berlin und German Water Partnership e.V. organisiert.

Gefördert wird das Event durch das Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit und die Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe. Weitere Unterstützer sind die Unternehmen Wilo und KSB als Industriepartner sowie die Berliner Wasserbetriebe als fachlicher Partner.

Weitere Informationen:
https://blueplanetberlin.de/

(nach oben)


70 Prozent weniger Darmkrebs-Todesfälle nach Vorsorge-Darmspiegelung

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Um die Wirksamkeit der Vorsorge-Darmspiegelungen in Deutschland möglichst genau zu beurteilen, haben Wissenschaftler des Deutschen Krebsforschungszentrums gemeinsam mit dem Krebsregister des Saarlands über 17 Jahre hinweg mehr als 9000 Studienteilnehmer beobachtet. Das Resultat, auf das die Wissenschaftler nun anlässlich des Damkrebsmonats März hinweisen: Bei Personen, die eine Vorsorge-Darmspiegelung in Anspruch genommen hatten, traten nahezu 60 Prozent weniger Darmkrebs-Neuerkrankungen auf als bei Teilnehmern, die auf die Untersuchung verzichtet hatten. Das Risiko, an Darmkrebs zu versterben, lag in der Screening-Gruppe sogar um 70 Prozent niedriger.

Dickdarmkrebs entwickelt sich in der Regel über viele Jahre hinweg aus Vorstufen, die bei einer Darmspiegelung entdeckt und sogleich entfernt werden können. Deutschland zählt zu den Ländern, die diese Untersuchung bereits frühzeitig in das gesetzliche Krebsfrüherkennungsangebot aufgenommen haben: Seit 2002 haben Menschen ab dem 55. Lebensjahr Anspruch auf zwei so genannte Koloskopien im Abstand von zehn Jahren. Seit 2019 gibt es dieses Angebot für Männer schon ab 50 Jahren.

Inzwischen ist seit der Einführung des Koloskopie-Screenings ausreichend Zeit vergangen, um präzise zu analysieren, wie effizient dieses Vorsorge-Angebot Krebsneuerkrankungen und Krebssterblichkeit zurückdrängt. Dazu werteten die DKFZ-Epidemiologen nun die Daten von über 9000 Teilnehmern aus, die zwischen 2000 und 2002 in die ESTHER-Studie* rekrutiert worden waren. Die Studienteilnehmer wurden in regelmäßigen Abständen nach ihrem Befinden und ihrem Lebensstil gefragt, ihre Behandlungs- und Krebsregisterdaten wurden erfasst. Nach einer Beobachtungszeit von rund 17 Jahren waren unter den Studienteilnehmern 268 Fälle von Darmkrebs aufgetreten, 98 Teilnehmer waren an Darmkrebs verstorben.

Diejenigen ESTHER-Teilnehmer, die eine Vorsorge-Koloskopie wahrgenommen hatten, hatten ein um 60 Prozent niedrigeres Risiko einer Darmkrebsdiagnose als Studienteilnehmer, die das Vorsorge-Angebot nicht genutzt hatten. Das Risiko, an Darmkrebs zu sterben, war in der Screening-Gruppe in den 10 Jahren nach der Koloskopie sogar um 75 Prozent niedriger.

„Die Teilnehmer unsere Studie bilden einen Querschnitt der Bevölkerung ab. Sie nutzen das normale Vorsorgeangebot ihrer Region und werden nicht in speziellen Zentren untersucht. Daher können wir nun erstmals in einer Langzeitstudie aus Deutschland quantifizieren, welchen Beitrag die Vorsorge-Koloskopie im echten Leben zur Krebsprävention leistet“, erklärt Hermann Brenner. Bislang gab es dazu weltweit nur sehr wenige Studien, die zudem fast ausschließlich aus den USA stammen, wo die Koloskopie bereits früher in größerem Umfang eingesetzt wurde.

Neben der Vorsorge-Koloskopie werden in Deutschland alternativ auch immunologische Tests auf Blut im Stuhl zur Darmkrebs-Früherkennung angeboten (im Alter von 50 bis 54 Jahren jährlich, danach alle 2 Jahre). Fällt ein solcher Test positiv aus, muss er anschließend auch durch eine Koloskopie abgeklärt werden.

Brenners Fazit: „Unsere Ergebnisse beziffern, welchen enormen Beitrag die Vorsorge-Koloskopie zur Krebsprävention leisten kann. Aber die beste Früherkennungsuntersuchung nutzt wenig, wenn sie nicht ausreichend wahrgenommen wird. Noch immer sterben in Deutschland jedes Jahr fast 25.000 Menschen an Darmkrebs. Die meisten dieser Todesfälle wären durch die Darmkrebs-Vorsorge vermeidbar. Wir müssen noch Wege finden, mehr Menschen zu motivieren, die potenziell lebensrettenden Früherkennungsuntersuchungen für Darmkrebs zu nutzen.“

Feng Guo, Chen Chen, Bernd Holleczek, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Strong reduction of colorectal cancer incidence and mortality after screening colonoscopy: prospective cohort study from Germany
The American Journal of Gastroenterology, 2021, DOI: 10.14309/ajg.0000000000001146

*ESTHER ist eine landesweit im Saarland durchgeführte Studie. Mehr Information dazu: http://esther.dkfz.org/esther/

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
http://www.dkfz.de

Originalpublikation:
Feng Guo, Chen Chen, Bernd Holleczek, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Strong reduction of colorectal cancer incidence and mortality after screening colonoscopy: prospective cohort study from Germany
The American Journal of Gastroenterology, 2021, DOI: 10.14309/ajg.0000000000001146

(nach oben)


Die Mikroplastik-Belastung der Ostsee: Neue Ansätze für Monitoring und Reduktionsmaßnahmen

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Um die Belastung der Meere durch Mikroplastik zu erfassen, muss man dessen Menge und sein Verhalten kennen. Bislang ist dies nur unzureichend gegeben. Ein hoher analytischer Aufwand behindert die Bestimmung. Nun liegen Kalkulationen zu den Einträgen aus urbanen Quellen für die gesamte Ostsee vor sowie Modellsimulationen zum Verhalten von Mikroplastik im Meer. Die Ergebnisse zeigen, wie die Belastung der Ostsee mit Mikroplastik in einem regelmäßigen Monitoring effizient beobachtet werden kann. Zudem geben sie Einblick, wie eine Reduktion des Gesamteintrages an Mikroplastik erreicht werden könnte. Auf Platz 1 der effektiven Maßnahmen in unseren Städten: die Reduzierung von Abwasserüberläufen.

Kunststoffpartikel, die kleiner als 5 mm sind, werden als Mikroplastik bezeichnet. Es ist in den Fokus der Umweltforschung und -politik geraten, nachdem es überall auf der Erde, auch in den entlegensten Gegenden, nachgewiesen wurde. Und Mikroplastik verschwindet nicht mehr aus der Umwelt, wenn es einmal eingetragen ist. Es zerfällt nur in immer kleinere Teilchen und reichert sich so ständig an, wenn die Eintragspfade nicht geschlossen werden. Als zentrale Quellen für Mikroplastik im Meer gelten besiedelte Gebiete. Aus diesen urbanen Quellen fließen Abwässer aus Kläranlagen, Trennkanalisation, Regenwasserüberläufen sowie in Form ungeklärter Abwässer in Richtung Meer.

Auf der Basis existierender Daten für 3525 Kläranlagen und zusätzlichen Literaturangaben aus dem gesamten Ostseeraum hat ein internationales Team von Umwelt-wissenschaftler:innen um den Warnemünder Gerald Schernewski berechnet, wie viele Partikel der am häufigsten genutzten Kunststoffe der Größe zwischen 0,02-0,5 mm aus diesen Quellen in die Ostsee gelangen und wie sie sich dort verhalten. Sie benutzten dafür Simulationen auf der Basis von dreidimensionalen Strömungsmodellen, die ihnen außerdem die Verweildauer der Teilchen im Meer anzeigten und die Regionen identifizierten, in denen die Mikroplastiklast hauptsächlich abgelagert wird.
Insgesamt kann von einem Eintrag von rund 67 Billionen Mikroplastik-Partikeln ausgegangen werden, die aus urbanen Quellen pro Jahr in die Ostsee gelangen. Das Wissenschaftlerteam fand aber auch heraus, dass die Verweilzeit mit rund 14 Tagen relativ gering ist. Innerhalb dieses Zeitraumes landet der Großteil des Mikroplastiks an den Küsten in der Nähe der Einleitungen, zum Beispiel von Flussmündungen. Hier kann die jährliche Belastung der Strände auf 1 Mrd. Partikel pro Meter Küstenlinie anwachsen. Im Durchschnitt gehen die Autor:innen von 1 Mio. Partikel aus, die jährlich pro Meter an allen Ostseestränden landen.

Für Gerald Schernewski, Leiter der Arbeitsgruppe Küsten- und Meeresmanagement des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW), bieten die Ergebnisse gute Ansätze für ein effizientes Monitoring: „An den Küsten in der Nähe der Emissionsquellen ist die höchste Verschmutzung zu finden. Das bedeutet, dass wir hier auch am ehesten mit einem regelmäßigen Monitoring den Belastungszustand der Ostsee mit Mikroplastik erfassen können.“ Aber das Modell lieferte noch konkretere Ergebnisse: „Die höchsten Partikelansammlungen fanden sich an den Ufern von Fjorden, Buchten und Lagunen. Es scheint, dass diese Küstenformen das Mikroplastik besonders effektiv zurückhalten und so die offene Ostsee vor Verschmutzung schützen. Wir empfehlen daher, diese Systeme bei der Auslegung von Monitoring-Strategien zu priorisieren.“

In einer weiteren Studie untersuchten die Wissenschaftler:innen mithilfe unterschiedlicher Modellszenarien, welchen Gesamteffekt die Reduktionen an einzelnen Quellen bringen würden. Sie fanden heraus,
• dass der größte Effekt durch die Etablierung von Trennkanalisation mit Retentionseinheiten zu erreichen wäre: die Gesamtmenge des Eintrages von Mikroplastik aus urbanen Quellen in die Ostsee halbierte sich, wenn der Anteil der jährlichen Abwässer, die über die Regenwasserüberläufe in die Ostsee gelangen, von derzeit 1,5 auf 0,3 % gedrosselt würden.
• dass sich der Gesamteintrag um weitere 14 % reduzierte, wenn alle Abwässer an Klärwerke mit einer dritten Reinigungsstufe angeschlossen würden. Allein die Nachrüstung aller Klärwerke in den osteuropäischen Flusseinzugsgebieten um eine dritte Reinigungsstufe würde die Menge an von dort eingetragenen Partikeln um 50% reduzieren.

Die Arbeit wurde durch das Projekt BONUS MicroPoll (03A0027A) finanziell unterstützt. Dieses Projekt wurde mit Mitteln aus dem Programm BONUS (Art 185) gefördert, das gemeinsam aus dem 7. Forschungsrahmenprogramm der Europäischen Union und nationalen Fördereinrichtungen aus dem Ostseeraum, zum Beispiel das deutsche Bundesministerium für Bildung und Forschung (BMBF), finanziert wurden.

Kontakt Pressestelle:
Dr. Kristin Beck: +49 381 5197 135| kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch: +49 381 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, die 96 eigenständige Forschungs-einrichtungen miteinander verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftler*innen. Das Finanzvolumen liegt bei 1,9 Milliarden Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Gerald Schernewski, Arbeitsgruppe Küsten- und Meeresmanagement
Leibniz-Institut für Ostseeforschung Warnemünde
Tel.: 0381 5197 207.| gerald.schernewski@io-warnemuende.de

Originalpublikation:
Schernewski, G., H. Radtke, R. Hauk, C. Baresel, M. Olshammar, R. Osinski and S. Oberbeckmann (2020). Transport and behavior of microplastics emissions from urban sources in the Baltic Sea. Front. Environ. Sci. 8: 579361, doi: 10.3389/fenvs.2020.579361

Schernewski, G., Radtke, H., Hauk, R., Baresel, C., Olshammar, M., Oberbeckmann, S. (2021): Urban microplastics emissions: effectiveness of retention measures and consequences for the Baltic Sea. Front. Mar. Sci., doi: 10.3389/fmars.2021.594415

(nach oben)


kompetenzz-Studie zeigt: Partnerschaftliche Teilung der Arbeit im Haushalt – Frauen wollen sie, Männer auch

Christina Haaf M.A. Pressestelle
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Wenn ein wichtiges Fachkräftepotenzial im demografischen Wandel in Deutschland bei den Frauen liegt, ist die Arbeitsteilung im Haushalt einer der Schlüsselfaktoren. Frauen wollen mehr Parität bei der Arbeit im Haushalt, Männer auch. Wie groß dieser Wunsch nach einer Gleichverteilung ist, verdeutlicht die neue Studie „(Digital) arbeiten 2020: Chancengerecht für alle? – Im Fokus: Partnerschaftliche Aufteilung“ des Kompetenzzentrums Technik-Diversity-Chancengleichheit e. V.

Aber: Selbst in der Krise setzen sich paritätische Lebens- und Arbeitsmodelle nicht durch. Auch wenn in partnerschaftlichen Beziehungen die Männer angeben, sich im ersten Lockdown der Corona-Pandemie bedingt durch das verordnete Homeoffice deutlich öfter um Kinder und Haushalt, Einkauf und Organisation zu kümmern, fühlen sich insbesondere Mütter durch die pandemiebedingten Maßnahmen wie Homeoffice zusätzlich zum Homeschooling stärker belastet.

„Das Ideal der Gleichverteilung von Aufgaben, wie Hausarbeit und Kinderversorgung, ist noch viel zu weit vom gelebten Alltag entfernt – aus Frauen – und auch aus Männersicht“, sagt Lore Funk, Co-Autorin der Studie. „Das Potenzial in Form der Orientierung an einem paritätischen Ideal ist also vorhanden, jedoch sind effektive Weichenstellungen noch zu selten Teil des gesellschaftlichen und betrieblichen Alltags.“

Die Studie von kompetenzz zeigt: Zu oft behindern stereotype Rollenvorstellungen den Bruch mit traditionellen Lebens- und Arbeitsmodellen. Sehr deutlich wird die stärkere psychosoziale Belastung von Eltern, insbesondere Müttern. „Die zeigt sich ganz stark bei der Frage nach der Versorgung der Kinder. Unsere Ergebnisse zeigen, dass Paare die Freizeit mit Kindern häufiger gleich auf Mütter und Väter verteilen als die Versorgung der Kinder“, sagt Lore Funk. Bei der Kinderversorgung ist die Diskrepanz zwischen tatsächlicher und idealer Aufgabenteilung auffällig. Der Abstand zum paritätischen Ideal ist hier am größten.

„Der individuelle Wunsch nach einer gerechten Arbeits- und Aufgabenteilung allein reicht nicht aus. Wir müssen Vereinbarkeit, insbesondere im Kontext der Digitalisierung, gesellschaftlich neu denken“, sagt Prof. Barbara Schwarze, Vorsitzende von kompetenzz und Co-Autorin der Studie. „Aufgrund des hohen Fachkräftebedarfs in unserem Land sollten wir schon jetzt die Nach-Corona-Zeiten und den anstehenden Mix von digitalen Arbeitsformen und Arbeit in Präsenz planen. Die Neuverteilung der Arbeit im Haushalt ist eine Voraussetzung für das Gelingen der „neuen“ Arbeit.“

Noch ist die Diskrepanz zwischen der faktischen und der idealen Aufgabenteilung zu groß, wie die Studie zeigt. „Der Rückzug ins Homeoffice könnte eine Chance sein für eine Neuaufteilung der Arbeit im Haushalt. Diese Chance ist aber (noch) nicht ausreichend genutzt worden. Jetzt ist gesellschaftspolitische Unterstützung nötig, damit aus paritätischen Idealen Realität wird”, betont die Geschäftsführerin von kompetenzz, Sabine Mellies.

Studiensteckbrief
Um ein möglichst differenziertes Bild über Rahmenbedingungen, Einstellungen und Praktiken rund um Arbeit im Jahr 2020 zu erhalten, wurden alle Personen, die aktuell in Deutschland erwerbstätig sind, aufgerufen, ihre Erfahrungen zu Homeoffice, digitaler Ausstattung, Weiterbildung und Arbeitsteilung in der Partner*innenschaft zu teilen. Mehr als 1.000 Männer und Frauen haben vom 8. bis 30 Juni 2020 an der Befragung teilgenommen. Erste Ergebnisse mit dem Fokus auf „Wissen und Qualifizierung“ im Homeoffice wurden im Dezember 2020 veröffentlicht, die aktuelle Studie bildet den zweiten Teil.

http://www.kompetenzz.de/arbeiten2020
#arbeiten2020 #EqualCare

Über kompetenzz
Das Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V. fördert bundesweit die Chancengleichheit von Frauen und Männern sowie Vielfalt als Erfolgsprinzip in Wirtschaft, Gesellschaft und technologischer Entwicklung. http://www.kompetenzz.de

Pressekontakt:
Britta Zachau
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Presse- und Öffentlichkeitsarbeit
Tel: +49 521 106 7321
Fax: +49 521 106 7171
presse@kompetenzz.de
Twitter: @kompetenzz_ev

Weitere Informationen:
http://www.kompetenzz.de/arbeiten2020

(nach oben)


Golfstrom-System schwächer als je zuvor im vergangenen Jahrtausend

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Noch nie in über 1000 Jahren war die Atlantische Meridionale Umwälzströmung (AMOC), auch als Golfstrom-System bekannt, so schwach wie in den letzten Jahrzehnten: Dies ist das Ergebnis einer neuen Studie von Wissenschaftlerinnen und Wissenschaftlern aus Irland, Großbritannien und Deutschland.

„Das Golfstrom-System funktioniert wie ein riesiges Förderband, das warmes Oberflächenwasser vom Äquator nach Norden transportiert und kaltes, salzarmes Tiefenwasser zurück in den Süden schickt. Es bewegt fast 20 Millionen Kubikmeter Wasser pro Sekunde, etwa das Hundertfache des Amazonasstroms“, erklärt Stefan Rahmstorf, Forscher am Potsdam-Institut für Klimafolgenforschung PIK und Initiator der Studie, die in Nature Geoscience veröffentlicht wird. Frühere Studien von Rahmstorf und Kolleginnen und Kollegen zeigten eine Verlangsamung der Meeresströmung um etwa 15 Prozent seit Mitte des 20. Jahrhunderts und brachten dies mit der vom Menschen verursachten globalen Erwärmung in Verbindung. Ein belastbares Bild über die langfristige Entwicklung fehlte jedoch bisher – das liefern die Forschenden mit ihrer Übersichtsstudie, welche die Ergebnisse bisheriger Proxy-Daten-Studien vergleicht.

„Wir haben zum ersten Mal eine Reihe von früheren Studien kombiniert und festgestellt, dass sie ein konsistentes Bild der AMOC Entwicklung über die letzten 1600 Jahre liefern“, so Rahmstorf. „Die Studienergebnisse legen nahe, dass die AMOC Strömung bis zum späten 19. Jahrhundert relativ stabil war. Mit dem Ende der kleinen Eiszeit um 1850 begann die Meeresströmung schwächer zu werden, wobei seit Mitte des 20. Jahrhunderts ein zweiter, noch drastischerer Rückgang folgte.“ Bereits im Sonderbericht über den Ozean des Weltklimarats (IPCC) von 2019 wurde mit mittlerem Vertrauensniveau zudem geschlussfolgert, ‘dass die atlantische meridionale Umwälzströmung im Vergleich zu 1850-1900 schwächer geworden ist.’ „Die neue Studie liefert weitere unabhängige Belege für diese Schlussfolgerung und stellt sie in einen längerfristigen paläoklimatischen Kontext“, so Rahmstorf weiter.

Von Temperatur zu Strömungsgeschwindigkeit: Die Kunst, Klimaveränderungen in der Vergangenheit zu rekonstruieren
Da langfristige direkte AMOC-Messungen erst seit 2004 durchgeführt werden, wendeten die Forschenden einen indirekten Ansatz an. Sogenannte Proxydaten halfen ihnen dabei, mehr über die langfristige Entwicklung der AMOC herauszufinden. Diese Zeugen der Vergangenheit werden aus natürlichen Umweltarchiven gewonnen, wie zum Beispiel Baumringen, Eisbohrkernen, Ozeansedimenten und Korallen sowie aus historischen Daten, z.B. Schiffslogbüchern.

„Wir haben eine Kombination aus drei verschiedenen Datentypen verwendet, um Informationen über die Ozeanströmungen zu erhalten: die Temperaturänderungen im Atlantik, die Verteilung der Wassermassen und die Korngrößen der Tiefsee-Sedimente, wobei die einzelnen Archive von 100 bis ca. 1600 Jahre zurückreichen. Während einzelne Proxydaten bei der Darstellung der AMOC-Entwicklung unvollkommen sind, ergab die Kombination aller drei ein robustes Bild der Umwälzzirkulation“, erklärt Levke Caesar, Teil des Irish Climate Analysis and Research Units an der Maynooth University und Gastwissenschaftlerin am PIK.

Proxy-Datensätze sind im Allgemeinen mit Unsicherheiten behaftet. Diese berücksichtigte die Statistikerin Niamh Cahill von der Maynooth University in Irland bei ihren Tests der Robustheit der Ergebnisse. Sie fand heraus, dass in 9 der 11 betrachteten Datensätze die moderne AMOC-Schwächung statistisch signifikant ist: „Wenn wir annehmen, dass die mit den Proxy-Datensätzen gemessenen Prozesse Änderungen in der Strömung widerspiegeln, liefern sie ein konsistentes Bild – und das trotz der Tatsache, dass die Daten an unterschiedlichen Orten aufgenommen wurden und verschiedene Zeitskalen repräsentieren. Die Abschwächung der Strömung ist seit mehr als 1000 Jahren beispiellos”, so Cahill.

Warum schwächelt AMOC?
Eine Verlangsamung der Zirkulation wird von Klimamodellen seit langem als Reaktion auf die durch Treibhausgase verursachte globale Erwärmung vorhergesagt – und einer Reihe von Studien zufolge ist dies wahrscheinlich der Grund für die beobachtete Abschwächung. Die atlantische Umwälzung wird durch die von Wissenschaftlerinnen und Wissenschaftler bezeichnete Tiefenkonvektion angetrieben, verursacht durch die Dichteunterschiede im Ozean: Warmes und salzhaltiges Oberflächenwasser bewegt sich von Süden nach Norden, wobei es abkühlt und dadurch dichter wird. Wenn es schwer genug ist, sinkt das Wasser in tiefere Ozeanschichten ab und fließt zurück in den Süden. Die globale Erwärmung stört diesen Mechanismus: Durch vermehrte Niederschläge und das verstärkte Abschmelzen des grönländischen Eisschildes wird dem nördlichen Atlantik Süßwasser zugeführt. Dadurch sinkt dort der Salzgehalt und damit die Dichte des Wassers, was das Absinken hemmt und so die Strömung der AMOC Zirkulation schwächt.
Die Abschwächung wird auch mit einer einzigartigen deutlichen Abkühlung des nördlichen Atlantiks in den letzten hundert Jahren in Verbindung gebracht. Diese sogenannte „Kälteblase“ wurde von Klimamodellen als Folge einer sich abschwächenden AMOC vorhergesagt, welche weniger Wärme in diese Region transportiert.

Die Folgen der AMOC-Abschwächung könnten für die Menschen auf beiden Seiten des Atlantiks vielfältig sein, wie Levke Caesar erklärt: „Die nordwärts fließende Oberflächenströmung der AMOC führt zu einer Ablenkung von Wassermassen nach rechts, weg von der US-Ostküste. Dies ist auf die Erdrotation zurückzuführen, die bewegte Objekte wie Strömungen auf der Nordhalbkugel nach rechts und auf der Südhalbkugel nach links ablenkt. Wenn sich die Strömung verlangsamt, schwächt sich dieser Effekt ab und es kann sich mehr Wasser an der US-Ostküste aufstauen. Das kann zu einem verstärkten Meeresspiegelanstieg führen.“ In Europa könnte eine Verlangsamung der AMOC zu mehr extremen Wetterereignissen führen, z.B. durch eine Veränderung der Zugbahn sowie mögliche Verstärkung von Winterstürmen über dem Atlantik. Andere Studien nennen extreme Hitzewellen oder eine Abnahme der Sommerniederschläge als mögliche Folgen. Wie genau sich weitere Konsequenzen gestalten, ist Gegenstand der aktuellen Forschung; die Wissenschaftlerinnen und Wissenschaftler wollen auch im Detail klären, welche Teile der AMOC sich wie und aus welchen Gründen verändert haben.

„Wenn wir die globale Erwärmung auch künftig vorantreiben, wird sich das Golfstrom-System weiter abschwächen – um 34 bis 45 Prozent bis 2100, gemäß der neuesten Generation von Klimamodellen“, folgert Rahmstorf. „Das könnte uns gefährlich nahe an den Kipppunkt bringen, an dem die Strömung instabil wird.“

Artikel: L. Caesar, G. D. McCarthy, D. J. R. Thornalley, N. Cahill, S. Rahmstorf (2020): Current Atlantic Meridional Overturning Circulation weakest in last millennium. Nature Geoscience [DOI: 10.1038/s41561-021-00699-z].

Wissenschaftliche Ansprechpartner:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
http://www.pik-potsdam.de

Originalpublikation:
L. Caesar, G. D. McCarthy, D. J. R. Thornalley, N. Cahill, S. Rahmstorf (2020): Current Atlantic Meridional Overturning Circulation weakest in last millennium. Nature Geoscience [DOI: 10.1038/s41561-021-00699-z].

(nach oben)


Lerntechnologien und Mathematikdidaktik gemeinsam entwickeln

Axel Kölling Presse- und Öffentlichkeitsarbeit
Technologie-Zentrum Informatik und Informationstechnik
Algebra lernen mit allen Sinnen: Dies ermöglicht ein System, das Informatiker*innen und Mathematikdidaktiker*innen der Universität Bremen gemeinsam entwickelt haben. Viele Erkenntnisse lassen sich auf andere Lernbereiche übertragen.

Das „Rechnen mit Unbekannten“ – die elementare Algebra – ist ein besonders wichtiger Baustein auf dem Weg zum erfolgreichen Schulabschluss: Fast alle folgenden mathematischen Konzepte bauen darauf auf. Da die Algebra vielen Schülerinnen und Schülern jedoch erhebliche Probleme bereitet, haben Mathematikdidaktiker*innen und Informatiker*innen der Universität Bremen gemeinsam ein System entwickelt, das den Lernprozess neu gestaltet.

Im Verbundprojekt „Multimodal Algebra Lernen“ (MAL) wurden unter Federführung des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen
neueste Erkenntnisse aus der Mathematikdidaktik mit technischen Innovationen zusammengeführt. „Ziel des Projekts war es, ein Lernsystem zu entwickeln, das Konzepte der Algebra interaktiv und körperlich erfahrbar vermittelt“, erklärt TZI-Direktor Prof. Rainer Malaka. Eine Besonderheit dabei war, dass die Entwicklung des Demonstrators von Beginn an disziplinübergreifend erfolgte und die zukünftigen Nutzergruppen – Lehrer*innen und Schüler*innen – regelmäßig mit einbezog.

Systeme für zu Hause und für den Klassenraum
Ebenfalls ungewöhnlich war das Ziel, ein skalierbares System zu entwickeln, das an verschiedene Nutzungsszenarien angepasst werden kann. Das Resultat ist ein Demonstrator, der verschiedene Interaktionsmöglichkeiten anbietet. Beispielsweise unterstützt das mobile MAL-System auf einem mobilen Endgerät die Einzelnutzung zuhause oder unterwegs, während im schulischen Umfeld auch die Schultisch-Variante eingesetzt werden kann – sie besteht aus einem Tablet-PC und physischen Objekten in verschiedenen geometrischen Formen, die für bestimmte Werte oder Variablen stehen können und eine Gleichung somit handlungsorientierter lösbar machen. Diese Objekte sind auch als „Smart Objects“ in elektronischer Form entwickelt worden. Sie können automatisch kleine Hilfestellungen leisten, beispielsweise durch farbiges Lichtfeedback. Smart Objects lassen sich am besten mit einem Multi-Touch-Tisch kombinieren, also einem Tisch mit interaktiver Oberfläche. So können etwa mathematische Operationen durch passende Gesteninterkationen körperlich erfahrbar und Aufgaben auch kollaborativ bearbeitet werden. Um die Attraktivität des Lernsystems für Schülerinnen und Schüler weiter zu erhöhen, setzt MAL auf „Gamification“ – die spielerische Vermittlung der Inhalte.

Didaktische Erkenntnisse auf andere Projekte übertragbar
Die AG Mathedidaktik der Universität Bremen hat die didaktischen Grundlagen des MAL-Systems entwickelt und die Einbettungsmöglichkeiten in den Unterricht gemeinsam mit dem Westermann-Verlag, der ebenfalls am Projekt beteiligt war, untersucht. Prof. Angelika Bikner-Ahsbahs und ihr Team haben dabei das Zusammenwirken von Technologie, Design und Aufgabenstellung konkret für das Algebra-Lernen betrachtet – mit Ergebnissen, die sich auf andere Anwendungsfelder übertragen lassen. Dazu gehören beispielsweise wichtige Erkenntnisse zur Präsentation von Feedback: „Wir haben gelernt, dass leistungsstarke Schülerinnen und Schüler das Feedback oft ignorieren“, berichtet Bikner-Ahsbahs. „Leistungsschwache Schülerinnen und Schüler müssen dagegen erst lernen, Feedback zu verstehen und umzusetzen.“ Ein wichtiges Ergebnis war darüber hinaus die Entwicklung eines Schichtenmodells des Lernprozesses, das in vier Schritten vom Erlernen des Systems bis zur Emanzipierung von ihm führt.

Schülerinnen und Schüler begeistert
Die Entwicklung des Systems wurde von zahlreichen Evaluationsstudien begleitet und in einer abschließenden Gesamtevaluation von Mathematik-Lehrkräften online bewertet, unter anderem auf Basis von Videos. „Die Rückmeldungen waren fast durchgehend signifikant positiv“, so Bikner-Ahsbahs. Nur die Frage nach der kognitiven Belastung der Lernenden sei differenzierter beantwortet worden – Schülerinnen und Schüler mit Förderbedarf könne das MAL-System in seiner aktuellen Form beim Denken auch belasten anstatt zu entlasten. „Schulgruppen, die das System ausprobiert haben, waren bis jetzt aber stets begeistert“, berichtet sie. Um das MAL-System tatsächlich in den Unterricht zu bringen, werde nun ein Unternehmen benötigt, das die kommerzielle Weiterentwicklung der Prototypen übernimmt.

Förderung durch das BMBF
Neben den genannten Partnern waren auch Wissenschaftler*innen des Kompetenzzentrums für Klinische Studien der Universität Bremen und des ifib – Institut für Informationsmanagement Bremen GmbH sowie die Firmen xCon/Ubimax und Westermann Verlag an dem interdisziplinären Projekt beteiligt. Das Bundesministerium für Bildung und Forschung förderte MAL im Rahmen des Förderschwerpunkts „Erfahrbares Lernen“ mit knapp 1,4 Millionen Euro; das gesamte Projektvolumen belief sich auf 1,8 Millionen Euro.

Weitere Informationen:
http://mal-projekt.de/ Projektwebsite

(nach oben)


Report: Energiewende-Projekt Ariadne diskutiert mit Menschen aus ganz Deutschland zur Strom- und Verkehrswende

Sarah Messina Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Welche Vorstellungen und Ziele haben Menschen bei der Energiewende und wie können ihre Perspektiven besser in der Politikberatung berücksichtigt werden? Quer durch die Bundesrepublik haben fast 90 Bürgerinnen und Bürger im Kopernikus-Projekt Ariadne über den Ausbau Erneuerbarer Energien und die Mobilität der Zukunft diskutiert. Vom öffentlichen Nahverkehr bis hin zum Netzausbau, von Stromkosten zu Jobs: Die Ergebnisse dieser Fokusgruppen legen jetzt den Grundstein für einen außergewöhnlichen Lernprozess zwischen Wissenschaft, Politik und Gesellschaft, der dazu beitragen soll, die verschiedenen Wertvorstellungen besser als bisher in Politikoptionen zu übertragen.

Bürgerbeteiligung startet mit Fokusgruppen und reicht bis zum großen Bürgergipfel
Die Energiewende betrifft im Alltag alle Menschen. Für die Politik ist das eine Herausforderung, denn in jeder Entscheidung drücken sich auch unterschwellig Werte und Prioritäten zu den Themen aus. In welcher Breite diese von den zufällig ausgewählten Teilnehmenden bei Strom- und Verkehrswende diskutiert wurden, aber auch welche Probleme und Bedürfnisse sie zu den Themen der Energiewende haben, zeigen die im neuen Ariadne-Report zusammengefassten Ergebnisse.

„Die Menschen hat zum Beispiel die Frage bewegt, wer sich dafür verantwortlich fühlen soll, dass wir das gesetzte Klimaziel erreichen und wie Belastungen sozial gerecht verteilt werden können“, erklärt Arwen Colell, Mit-Autorin des Berichts und Politik-Analystin am Mercator Research Institute on Global Commons and Climate Change (MCC Berlin), das Teil des Ariadne-Konsortiums ist. „In den Diskussionen wurden ganz unterschiedliche Ziele formuliert, welche die Rolle des Staates betreffen, aber auch das Spannungsfeld von individueller Verantwortung und persönlicher Freiheit.“ Mehr Mitspracherecht bei der Auswahl neuer Technologien und der Lastenverteilung erwarteten sich die Teilnehmenden zum Beispiel bei der Stromwende. Ging es dagegen um Mobilität, scheint aus ihrer Sicht eher die Politik dafür verantwortlich, dass Infrastrukturen geschaffen werden, damit etwa der Umstieg vom Auto auf öffentliche Verkehrsmittel attraktiver wird.

Bürger geben Empfehlungen? Ariadne verfolgt einen integrativen Ansatz
Anders als etwa beim Bürgerrat zur Rolle Deutschlands in der Welt oder dem französischen Klima-Bürgerrat, werden die Sichtweisen von Bürgerinnen und Bürgern und die wissenschaftliche Forschung zur Energiewende im Kopernikus-Projekt Ariadne schrittweise zusammengebracht. Die Ariadne-Fachleute haben damit ein ganz neues Vorgehen im Sinn: Kontinuierlich sollen Erkenntnisse zu Werten und Zielen der Bürgerinnen und Bürger in Forschung und Modellierung von Szenarien eingebunden und analysiert werden, um der politischen Entscheidungsebene gewissermaßen einen 360-Grad-Blick auf Auswirkungen von Optionen und Instrumente zu ermöglichen.

Dass dabei mehr als eine Lösung zielführend sein kann und auch Spannungsfelder offenbleiben, ist für die Forschenden in diesem Zusammenhang wichtig festzustellen. „Ariadne will niemanden überreden oder von einer bestimmten Option überzeugen, sondern vielmehr bei der Entwicklung von umsetzbaren Zukunftspfaden alle Perspektiven der Gesellschaft miteinfließen lassen“, erläutert Martin Kowarsch, Gruppenleiter am MCC Berlin und als Ariadne-Experte für die Bürgerdeliberation ebenfalls Autor des Berichts. „Wenn es unserem Forschungsprojekt gelingt, Menschen aus unterschiedlichen Hintergründen mit- und ernst zu nehmen, können Deliberationsprozesse am Ende einen Beitrag zu einer sachlichen, gemeinwohlorientierten Debatte leisten“, so Kowarsch.

Werte-Landkarten helfen bei der Orientierung der Handlungspfade
Die Ergebnisse der Fokusgruppenarbeit, die wegen der Corona-Pandemie in Videokonferenzen stattfand und gemeinsam mit Kolleginnen und Kollegen der Strategieberatung ifok organisiert und ausgewertet wurden, geben wichtige und richtungsweisende Hinweise für die weitere wissenschaftliche Auseinandersetzung. In verschiedenen Landkarten werden die Aussagen der Menschen nach Werten, Argumenten und Zusammenhängen geordnet, um anhand der so entstandene Kartierung von Handlungspfaden die Entwicklung von möglichen Klimaschutzinstrumenten in der Zukunft zu erleichtern.

Der Ariadne-Report bildet erst den Auftakt des Deliberationsprozesses, der sich durch den gesamten Projektzeitraum ziehen wird. Neben Workshops und Bürgerkonferenzen arbeitet Ariadne als Höhepunkt unter anderem auf einen großen Bürgergipfel zu, bei dem in etwa zwei Jahren Erkenntnisse des Projekts von Bürgerinnen und Bürgern im Dialog mit Politik, Wirtschaft und Wissenschaft diskutiert werden.

Weitere Informationen:
Mareike Blum, Arwen Colell, Julia Hoffmann, Karoline Karohs, Martin Kowarsch, Maren Krude, Miriam Saur, Holger Thiel (2021): Was ist uns wichtig bei Verkehrs- und Stromwende? Bürgerinnen und Bürger sprechen über Herausforderungen und Ziele. Ariadne-Report.

Weblink zum Report: https://ariadneprojekt.de/media/2021/02/2021_Februar_Ariadne-Report_Fokusgruppen…

Weblink zum Projekt Ariadne: https://ariadneprojekt.de/

Kontakt für weitere Informationen:
Sarah Messina
Leitung Kommunikation Ariadne
Potsdam-Institut für Klimafolgenforschung (PIK)
Telefon: +49 (0)331 288 2544
Email: ariadne-presse@pik-potsdam.de

Maria Bader
Kommunikationsmanagerin Ariadne
Mercator Research Institute on Global Commons and Climate Change (MCC)
Telefon: +49 (0)30 3385537 365
E-Mail: ariadne-presse@pik-potsdam.de

Wer ist Ariadne? In der griechischen Mythologie gelang Theseus durch den Faden der Ariadne die sichere Navigation durch das Labyrinth des Minotaurus. Dies ist die Leitidee für das Kopernikus-Projekt Ariadne. Im Konsortium von mehr als 25 wissenschaftlichen Partnerorganisationen führt Ariadne durch einen gemeinsamen Lernprozess mit Politik, Wirtschaft und Gesellschaft, erforscht Optionen zur Gestaltung der Energiewende und erarbeitet Orientierungswissen für Entscheider.

Wir sind Ariadne:
adelphi| Brandenburgische Technische Universität Cottbus – Senftenberg (BTU) | Deutsche Energie-Agentur (dena) | Deutsches Institut für Wirtschaftsforschung (DIW) | Deutsches Zentrum für Luft- und Raumfahrt (DLR) | Ecologic Institute | Fraunhofer Cluster of Excellence Integrated Energy Systems (CINES) | Guidehouse Germany | Helmholtz-Zentrum Geesthacht | Hertie School | Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen (HfWU) | ifok | Institut der deutschen Wirtschaft Köln | Institut für Klimaschutz, Energie und Mobilität | Institute For Advanced Sustainability Studies (IASS) | Mercator Research Institute on Global Commons and Climate Change (MCC) | Öko-Institut | Potsdam-Institut für Klimafolgenforschung (PIK) | RWI – Leibniz-Institut für Wirtschaftsforschung | Stiftung 2° – Deutsche Unternehmer für Klimaschutz | Stiftung Umweltenergierecht | Technische Universität Darmstadt | Technische Universität München | Universität Hamburg | Universität Münster | Universität Potsdam | Universität Stuttgart – Institut für Energiewirtschaft und Rationelle Energieanwendung (IER) | ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung

Über die Kopernikus-Projekte:
Die Kopernikus-Projekte bilden eine der größten deutschen Forschungsinitiativen zum Thema Energiewende. Ihr Ziel ist es, eine klimaneutrale Bundesrepublik mit einer sauberen, sicheren und bezahlbaren Stromversorgung im Jahr 2050 zu ermöglichen. Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) entwickeln sie ganzheitliche Lösungen zum Erreichen der Klimaziele: In den Projekten arbeiten Vertreter aus Wirtschaft, Wissenschaft und Zivilgesellschaft zusammen. Über zehn Jahre erarbeiten sie klimafreundliche Lösungen bis zur Anwendbarkeit im industriellen Maßstab und zur Umsetzung im politischen System.

Mehr zu den Kopernikus-Projekten auf http://www.kopernikus-projekte.de.

Wissenschaftliche Ansprechpartner:
Dorothe Ilskens
Leitung Ariadne-Geschäftsstelle
Potsdam-Institut für Klimafolgenforschung
E-Mail: ilskens@pik-potsdam.de
http://www.pik-potsdam.de

Originalpublikation:
https://ariadneprojekt.de/media/2021/02/2021_Februar_Ariadne-Report_Fokusgruppen…

Weitere Informationen:
https://ariadneprojekt.de/ Weblink zum Projekt Ariadne
http://www.kopernikus-projekte.de Mehr zu den Kopernikus-Projekten

(nach oben)


Cyanobakterien könnten die Plastikindustrie revolutionieren

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen
Klimaneutral und schnell abbaubar: Mikrobiologen der Universität Tübingen ermöglichen Produktion von klimafreundlichem Bioplastik

Als Nebenprodukt der Fotosynthese stellen Cyanobakterien Plastik auf natürlicher Basis her – und das nachhaltig und umweltschonend. Forscherinnen und Forschern der Universität Tübingen ist es nun erstmals gelungen, den Stoffwechsel der Bakterien so zu verändern, dass sie den Naturstoff in Mengen produzieren, die eine industrielle Nutzung ermöglichen. Das natürliche Plastik könnte dem umweltschädlichen Kunststoff auf Erdölbasis Konkurrenz machen. Die Forschungsgruppe unter Leitung von Professor Karl Forchhammer vom Interfakultären Institut für Mikrobiologie und Infektionsmedizin legte ihre Ergebnisse vor kurzem in mehreren Studien vor, die in den Fachjournals Microbial Cell Factories und PNAS erschienen.

„Die industrielle Relevanz dieser Form von Bioplastik kann kaum überschätzt werden“, sagte Forchhammer. Rund 370 Millionen Tonnen Kunststoffe werden derzeit pro Jahr produziert. Laut Prognosen wird die weltweite Plastikproduktion im nächsten Jahrzehnt um weitere 40 Prozent zunehmen. Zwar ist Kunststoff vielfältig einsetzbar und preisgünstig, beispielsweise als Verpackung von Lebensmitteln. Andererseits ist er Ursache für zunehmende Umweltprobleme. Immer mehr Plastikmüll landet in der Natur, wo die Kunststoffe zum Teil die Meere verschmutzen oder in Form von Mikroplastik in die Nahrungskette gelangen. Zudem wird Plastik überwiegend aus Erdöl hergestellt, was bei der Verbrennung zusätzliches CO2 in die Atmosphäre freisetzt.

Eine Lösung für diese Probleme könnte in einem Stamm von Cyanobakterien mit überraschenden Eigenschaften liegen. Cyanobakterien der Gattung Synechocystis stellen Polyhydroxybutyrat (PHB) her, eine natürliche Form von Plastik. PHB ist ähnlich einsetzbar wie der Kunststoff Polypropylen aber in der Umwelt schnell sowie schadstofffrei abbaubar. Allerdings ist die von diesen Bakterien produzierte Menge normalerweise sehr gering. Der Tübinger Forschungsgruppe gelang es, in den Bakterien ein Protein zu identifizieren, das den Kohlenstofffluss in Richtung PHB innerhalb der Bakterienzelle drosselt. Nach Entfernen des entsprechenden Regulators sowie weiteren genetischen Veränderungen stieg die von den Bakterien produzierte PHB-Menge enorm an und machte schließlich über 80 Prozent der Gesamtmasse der Zelle aus. „Wir haben regelrechte Plastikbakterien erschaffen“, sagt Dr. Moritz Koch, Erstautor der in Microbial Cell Factories veröffentlichten Studie.

Cyanobakterien, die auch als Mikroalgen oder Blaualgen bezeichnet werden, gehören zu den unscheinbarsten und doch mächtigsten Akteuren auf unserem Planeten. Es waren Blaualgen, die vor etwa 2,3 Milliarden Jahren durch Fotosynthese unsere Atmosphäre sowie die vor UV-Strahlung schützende Ozonschicht schufen. „Cyanobakterien sind gewissermaßen die Hidden Champions unseres Planeten“, betonte Koch: „Das unterstreicht das enorme Potenzial, das diese Lebewesen mitbringen.“ Da die blaugrünen Bakterien lediglich Wasser, CO2 und Sonnenlicht brauchen, sind sie nach Einschätzung der Forscherinnen und Forscher optimale Akteure für eine klimaschonende und nachhaltige Produktion. „Einmal in der Industrie etabliert könnte die gesamte Kunststoffproduktion revolutioniert werden“, sagte Koch. Langfristiges Ziel sei, den Einsatz der Bakterien zu optimieren und so weit zu skalieren, dass ein großtechnischer Einsatz möglich werde.

Weiteres Bildmaterial erhalten Sie unter: http://www.pressefotos.uni-tuebingen.de/20210202_Plastik_aus_Algen.zip.
Quellenangabe: Fotos: Karl Forchhammer / Universität Tübingen

Wissenschaftliche Ansprechpartner:
Professor Dr. Karl Forchhammer
Universität Tübingen
Interfakultäres Institut für Mikrobiologie und Infektionsmedizin
Telefon: +49 7071 29-72096
karl.forchhammer@uni-tuebingen.de

Originalpublikation:
Tim Orthwein, Jörg Scholl, Philipp Spät, Stefan Lucius, Moritz Koch, Boris Macek, Martin Hagemann, Karl Forchhammer. The novel PII-interactor PirC identifies phosphoglycerate mutase as key control point of carbon storage metabolism in cyanobacteria. PNAS February 9, 2021 118 (6) e2019988118; https://doi.org/10.1073/pnas.2019988118

Koch M., Bruckmoser J., Scholl J., Hauf W., Rieger B., Forchhammer K. Maximizing PHB content in Synechocystis sp. PCC 6803: a new metabolic engineering strategy based on the regulator PirC. Microb Cell Fact 19, 231 (2020). https://doi.org/10.1186/s12934-020-01491-1

(nach oben)


Klimawandel spielte womöglich wichtige Rolle bei der Entstehung vom SARS-CoV-2

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Globale Treibhausgasemissionen haben im Laufe des letzten Jahrhunderts den wahrscheinlichen Ursprungsort von SARS-CoV-2 in Südchina zu einem Hotspot für Coronaviren gemacht, die von Fledermäusen übertragen werden. Klimatische Veränderungen in dieser Region haben das Wachstum von Waldgebieten befördert, die Fledermäusen geeignete Habitate bieten. Dies ist das Ergebnis einer neuen Studie von Wissenschaftlern der Universität Cambridge, des Potsdam-Instituts für Klimafolgenforschung (PIK) und der Universität Hawai’i-Manoa.

Die heute in der Zeitschrift Science of the Total Environment veröffentlichte Studie liefert einen Mechanismus, der dem Klimawandel eine direkte Rolle bei der Entstehung von SARS-CoV-2 zuweisen könnte – dem Virus, das die COVID-19-Pandemie verursachte.
Die Studie beschreibt große klimawandelbedingte Veränderungen der natürlichen Vegetation in der südchinesischen Yunnan Provinz und benachbarten Gebieten in Myanmar und Laos im letzten Jahrhundert – weg von tropischem Buschland, hin zu tropischer Savanne und Laubwald. Dieser Prozess hat die Ausbreitung zahlreicher neuer Fledermausarten ermöglicht, durch die rund 100 neue Arten von Coronaviren in die Region kamen. Genetische Daten legen nahe, dass SARS-CoV-2 in genau dieser Region erstmals in Fledermäusen aufgetreten ist.

„Im letzten Jahrhundert hat der Klimawandel im wahrscheinlichen Ursprungsort von SARS-CoV-2 den Lebensraum für Fledermäuse deutlich attraktiver gemacht – und damit auch für die vielen Coronaviren, die diese Tiere in sich tragen,“, sagt Dr. Robert Beyer, der seit kurzem im Rahmen eines europäischen ‘Marie Curie’ Stipendiums am PIK tätig ist und zuvor an der Universität Cambridge geforscht hat. Im Zuge der Studie rekonstruierten die Forscher mittels klimatischer Daten die weltweite natürliche Vegetation am Beginn des letzten Jahrhunderts. Auf Grundlage davon ermittelten sie die damalige globale Verteilung von Fledermausarten. Ein Vergleich mit der heutigen Verteilung zeigte, wo sich die Anzahl der verschiedenen Fledermausarten weltweit verändert hat.

„Durch den Klimawandel haben sich die Lebensräume von Fledermäusen verschoben. Die Tiere breiteten sich in neue Gebiete aus – und brachten ihre Viren mit. Das veränderte nicht nur, wo die Viren vorkommen, sondern ermöglichte auch neue Interaktionen mit anderen Tieren, durch die schädliche Erreger übertragen wurden oder sich weiterentwickelten“, erklärt Beyer. Camilo Mora, Professor an der Universität Hawai’i-Manoa und Initiator der Studie, fügt hinzu: „Wir wissen, dass der Klimawandel die Übertragung von Viren in Wildtieren auf den Menschen beschleunigt. Das sollte uns dringend dazu veranlassen, Maßnahmen zur Reduktion von Emissionen zu verbessern“.

In der südchinesischen Yunnan Provinz sind auch sogenannte Schuppentiere heimisch, die wahrscheinlich als Zwischenwirte für SARS-CoV-2 fungierten. Man nimmt an, dass das Virus von Fledermäusen auf diese Tiere übergesprungen ist, die dann später auf einem Wildtiermarkt in Wuhan gehandelt wurden – wo sich erstmals Menschen mit SARS-CoV-2 infizierten. Weltweit tragen Fledermäuse schätzungsweise über 3.000 verschiedene Coronaviren in sich. Die meisten davon können nicht ohne weiteres auf Menschen überspringen. Andere hingegen schon – neben SARS-CoV-2 etwa auch SARS-CoV-1 und MERS, die ebenfalls große Epidemien verursachten.

Artikel: Beyer, Robert M., Manica Andrea, Mora Camilo (2021): ‘Shifts in global bat diversity suggest a possible role of climate change in the emergence of SARS-CoV-1 and SARS-CoV-2.’ Science of the Total Environment. [DOI: 10.1016/j.scitotenv.2021.145413]

Wissenschaftliche Ansprechpartner:
Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
http://www.pik-potsdam.de

Originalpublikation:
Weblink zum Artikel: https://doi.org/10.1016/j.scitotenv.2021.145413

(nach oben)


Erhöhter Wasserverbrauch in Zeiten des Lockdowns. Was bedeuten veränderte Routinen für die Versorgungssicherheit?

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
In der zweiten Märzhälfte 2020 kam es durch die Maßnahmen zur Bekämpfung der Covid-19-Pandemie in Deutschland zu ungekannten Veränderungen in nahezu allen Lebensbereichen. Mit dem Lockdown im Frühjahr standen auch die Wasserversorger vor einer neuen Situation: Der Wasserverbrauch veränderte sich, sowohl in öffentlichen und betrieblichen Einrichtungen als auch im häuslichen Wohnraum. In ihrer Studie zum Wasserbrauch in einer norddeutschen Versorgungsregion konnten Wasserexpert*innen des ISOE – Institut für sozial-ökologische Forschung einen Verbrauchsanstieg in Folge veränderter Alltagsroutinen im ersten Lockdown um mehr als 14 Prozent errechnen.

Für ihre Studie, die im Journal „Water“ in der Januarausgabe 2021 erschienen ist, haben Wasserexpert*innen des ISOE tägliche und stündliche Wasserverbrauchsmengen in der ersten Welle der Corona-Pandemie untersucht. Ziel war es, den Effekt der Lockdown-Maßnahmen auf den Wasserverbrauch wissenschaftlich fundiert zu analysieren und ihn in Abgrenzung zu anderen Einflüssen sichtbar zu machen. Hierfür werteten die Wissenschaftler*innen Daten aus dem knapp tausend Quadratkilometer großen Versorgungsgebiet des Wasserbeschaffungsverbands WBV Harburg aus. In diesem Gebiet am Rande der Metropolregion Hamburg südlich der Elbe werden mehr als 180.000 Menschen mit Trinkwasser versorgt.

Um die Wirkung der sozioökonomischen und soziokulturellen Restriktionen in der ersten Welle der Pandemie auf den Wasserverbrauch erfassen zu können, bereinigten die Wissenschaftler*innen die Verbrauchszahlen von anderen Effekten. Ein erhöhter Wasserkonsum infolge von Hitze etwa wurde mithilfe eines linearen gemischten Modells herausgerechnet. „Im Vergleich mit den Wasserverbrauchszahlen der Vorjahre in der suburbanen Untersuchungsregion nahe Hamburg ergab sich für das Jahr 2020 ein Anstieg von 14,3 Prozent. Wir führen diesen Anstieg auf veränderte Alltagsroutinen im Lockdown zurück“, sagt Deike Lüdtke, Erstautorin der Studie „Increase in Daily Household Water Demand during the First Wave of the Covid-19 Pandemic in Germany“. Auch veränderte Freizeitaktivitäten – etwa Baden in privaten Pools oder eine verstärkte Gartenpflege – seien als Ursachen für erhöhte Wasserverbräuche anzunehmen.

Alltagsroutinen verstehen, um Versorgungssicherheit zu gewährleisten 
Die veränderten Routinen während der ersten Welle der Corona-Pandemie machten sich vor allem am Morgen und am Abend bemerkbar. „Veränderungen im Tagesverbrauch sind für Wasserversorgungsbetriebe nicht trivial“, sagt Lüdtke. Die Wasserunternehmen seien auf präzise Vorhersagen angewiesen. „Plötzliche Verhaltensänderungen der Verbraucher*innen können die Versorgungssicherheit der Wasserbetriebe gefährden. Deshalb ist es entscheidend, dass Alltagsroutinen von Verbraucher*innen besser verstanden und in den Wasserbedarfsprognosen berücksichtigt werden.“ 

Die ISOE-Wissenschaftler*innen gehen davon aus, dass bestimmte Bedarfsmuster, die auf die Verhaltensveränderungen während des ersten Lockdowns zurückzuführen sind, auch für künftige Wasserbedarfsrechnungen relevant bleiben werden. „Die Nachfragemuster über den Tag hinweg mit einer zeitlichen Verschiebung der Nachfragespitzen am Morgen und höheren Verbräuchen am Abend lassen auf neue Alltagspraktiken zum Beispiel im Bereich des mobilen Arbeitens schließen, die über die Pandemie hinaus beibehalten werden könnten“, so Lüdtke. Wasserversorger sollten sich deshalb mithilfe möglichst präziser Bedarfsprognosen auf Anpassungen an den Wasserverbrauch einstellen – wobei sich Anpassungen an den künftigen Verbrauch darüber hinaus auch durch sich verändernde Nutzungsmuster in den hochsommerlichen Dürrezeiten ergeben. 

Wasserbedarfsprognosen gestalten sich immer schwieriger
„Eine realistische Planung des künftigen Wasserverbrauchs gestaltet sich immer schwieriger, weil sehr viele Einflüsse auf den Bedarf berücksichtigt werden müssen“, sagt Mitautor Stefan Liehr. Neben klimatischen Bedingungen seien auch demografische Entwicklungen entscheidend, ebenso wie Wirtschaftsstrukturen, die sich besonders in Krisenzeiten verändern. Dadurch kommt es immer auch zu räumlichen Bedarfsverschiebungen, etwa von Gewerbegebieten hin zu Wohngebieten. Für präzise Vorhersagen sei es darüber hinaus unerlässlich, die Gewohnheiten unterschiedlicher Nutzergruppen zu untersuchen. 

Die aktuelle Untersuchung des ISOE in einem Versorgungsgebiet bestätige das: „Je besser wir das Alltagsverhalten unterschiedlicher Nutzergruppen empirisch untersuchen, umso besser können wir vorhersagen, welche Konsequenzen Veränderungen in den Alltagsroutinen für die Versorgungssicherheit haben können“, so Liehr. Als Leiter des Forschungsschwerpunktes Wasserversorgung und Landnutzung hat Stefan Liehr am ISOE bereits mehrere Prognosemodelle für den Wasserbedarf mitentwickelt, die die komplexen Einflüsse in einem Versorgungsgebiet verlässlich und kleinräumig abbilden können.

Wissenschaftliche Ansprechpartner:
Dr. Stefan Liehr 
+49 69 707 6919-36
liehr@isoe.de
http://www.isoe.de

Originalpublikation:
Lüdtke, Deike U./Robert Lütkemeier/Michael Schneemann/Stefan Liehr (2021): Increase in Daily Household Water Demand during the First Wave of the Covid-19 Pandemic in Germany. Water 13 (3), 260
https://doi.org/10.3390/w13030260

Weitere Informationen:
http://www.isoe.de

(nach oben)


Der Meeresspiegel an Nord- und Ostseeküste steigt

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung
Weltweit steigt der Meeresspiegel durch den Klimawandel an. Oft werden damit Schicksale von Menschen weit entfernter Regionen assoziiert. Doch wie sieht es an unseren Küsten aus? Wie stark ist der Meeresspiegel in den letzten 100 Jahren an Nord- und Ostsee angestiegen? Steigt er immer schneller? Und was bringt die Zukunft? Diese Fragen beantwortet der neu entwickelte Meeresspiegel-Monitor (www.meeresspiegel-monitor.de) unter Berücksichtigung aktueller Wasserstandsdaten.

„Durch die regelmäßige Aktualisierung der Auswertungen können wir nun früh erkennen, ob der Meeresspiegelanstieg auch bei uns an Fahrt aufnimmt und wo uns ein ,Weiter so‘ hinführen könnte“, sagt Küstenforscherin Insa Meinke, die den Monitor zusammen mit ihren Kollegen am Helmholtz-Zentrum Geesthacht (HZG) entwickelt hat. Der Monitor ist frei verfügbar unter www.meeresspiegel-monitor.de. Er richtet sich an alle Menschen, die an der Küste wohnen, entscheiden und langfristig planen.

Anstieg ist auch bei uns feststellbar
In Norddeutschland ist der Anstieg des mittleren Meeresspiegels eine der deutlichsten bereits messbaren Folgen des Klimawandels. Er lässt sich an allen acht Pegeln nachvollziehen, die Gegenstand des Meeresspiegel-Monitorings sind. So zeigen die Auswertungen der Wasserstandsdaten, dass der mittlere Meeresspiegel an unseren Küsten in den letzten hundert Jahren (1921 bis 2020) um etwa 15 bis 20 Zentimeter gestiegen ist. Das entspricht ungefähr dem globalen mittleren Meeresspiegelanstieg im selben Zeitraum. An den meisten Pegeln zählt der aktuelle mittlere Meeresspiegel zu den höchsten seit Beginn der Datenverfügbarkeit.

Bei uns bisher keine ungewöhnliche Beschleunigung
Für die vergangenen Jahrzehnte dokumentiert der Weltklimarat (IPCC) eine Beschleunigung des globalen mittleren Meeresspiegelanstiegs. An den Pegeln der deutschen Küsten steigt der Meeresspiegel aktuell zwar schneller als im langjährigen Durchschnitt, eine systematische Beschleunigung lässt sich jedoch bisher nicht nachweisen. Als feste Standorte, deren frühere und aktuelle Pegelstände dem Meeresspiegel-Monitoring zu Grunde liegen, wählten die Wissenschaftler an der Nordsee Husum, Helgoland, Cuxhaven und Norderney sowie an der Ostsee Flensburg, Kiel, Travemünde und Warnemünde.

Früherkennung kritischer Entwicklungen
Die 2019 veröffentlichten Klimaszenarien des IPCC weisen darauf hin, dass der globale mittlere Meeresspiegel künftig immer schneller steigen kann. So ist bei anhaltend hohem Ausstoß von Treibhausgasen bis 2100 ein Anstieg von etwa 60 bis 110 Zentimetern plausibel. Gelingt es, Treibhausgasemissionen nennenswert zu reduzieren, muss bis 2100 trotzdem mit einem globalen mittleren Meeresspiegelanstieg von 30 bis 60 Zentimetern gerechnet werden. Da verschiedene Studien vermitteln, dass sich der Anstieg an unseren Küsten nur unwesentlich vom globalen Mittel unterscheiden wird, zeigt der Monitor an, ob die aktuellen Werte bereits Vorboten der IPCC-Szenarien sind: „Schreibt man den bisherigen Meeresspiegelanstieg an unseren Küsten bis 2100 fort, so zeichnet sich das beschriebene Worst Case Szenario des IPCC bisher bei uns nicht ab“, sagt Insa Meinke. Dies könnte sich aber ändern. Das fortlaufende Monitoring des aktuellen Meeresspiegelanstiegs im Hinblick auf die IPCC-Szenarien ermöglicht die Früherkennung kritischer Entwicklungen. So können rechtzeitig notwendige Maßnahmen ergriffen werden.

Wissenschaftliche Ansprechpartner:
Dr. Insa Meinke
Leiterin des Norddeutschen Küsten- und Klimabüros
Helmholtz-Zentrum Geesthacht
insa.meinke@hzg.de

Weitere Informationen:
https://www.meeresspiegel-monitor.de/ Der neue Meeresspiegel-Monitor des HZG

(nach oben)


Ein neuer Master-Studiengang Biotechnologie

Dr. Corinne Benzing Öffentlichkeitsarbeit
Technische Hochschule Bingen
Die TH Bingen möchte die Biotechnologie weiter ausbauen. Der SPD-Bundestagsabgeordnete Dr. Joe Weingarten informierte sich zu dem geplanten Master-Studiengang.

Der Bad Kreuznacher Bundestagsabgeordnete Dr. Joe Weingarten besuchte die Technische Hochschule (TH) Bingen. Mit Abstand und unter strengen Hygieneauflagen informierte sich der SPD-Politiker über die Biotechnologie an der Hochschule. Mit der Medizinischen Biotechnologie ist es der TH Bingen im vergangenen Jahr gelungen, einen zweiten Standort in Bad Kreuznach zu eröffnen. Die Bad Kreuznacher wiederum dürfen – dank der Stiftungsprofessur der Sparkasse und der Unterstützung der Stadt – ihre Stadt als Hochschulstandort bezeichnen.

Die Binger denken inzwischen schon weiter und wollen die Studierenden bis zum Master für die Biotech-Region Rhein-Nahe ausbilden. „Ich sehe hier große Entwicklungspotenziale“, betont der Präsident der Hochschule, Prof. Dr.-Ing. Klaus Becker. „Zwischen Rhein und Nahe siedeln bereits zahlreiche namhafte Firmen. Deren rasante Entwicklung während der Pandemie ist ein wichtiges Indiz, dass zukünftig gerade in unserer Region ein verstärkter und nachhaltiger Bedarf an Fachkräften zu erwarten ist.“

Weingarten besuchte die TH Bingen zum zweiten Mal und sagte: „Die Hochschule hat einen großen Einfluss auf die Biotechnologie an Rhein und Nahe. Wir möchten deshalb den Standort und seine Pläne unterstützen. Denn im internationalen Wettbewerb können wir nur mit exzellent ausgebildeten Fachkräften mithalten.“

Im Gespräch mit Prof. Dr. Maik Lehmann vom Studiengang Medizinische Biotechnologie erläutert dieser, wie sich die Binger die Zukunft auf dem Campus in Büdesheim vorstellen: „Der geplante Master ‚Synthetische Biotechnologie‘ ist eine hervorragende Ergänzung. Zwei große Schwerpunkte werden die Künstliche Intelligenz und die Bioprozesstechnik sein. Langfristig benötigen wir den Ausbau dieser Disziplin, damit die Bachelor-Studierenden eine weiterführende Perspektive an der Hochschule haben. Nur so können wir sie auch in der Region halten“, so Lehmann. „Wir haben bereits jetzt zahlreiche Kooperationspartner im Land und darüber hinaus. Sei es für die Medizinische Biotechnologie oder unseren Bachelor Biotechnologie. Sie alle sind sehr daran interesssiert, dass unsere Absolvent*innen den höherwertigen Master in der Tasche haben, wenn sie sich bei ihnen bewerben.“

Doch die Mittel sind wie immer knapp. „Wir hoffen bei dem Master Biotechnologie auf finanzielle Unterstützung“, sagt TH-Präsident Becker mit einem Blick in Richtung Landeshauptstadt. „Es stellt wohl niemand in Frage, dass man hier auf junge Menschen setzt, die eine Zukunftstechnologie studieren und die Innovationen in unserem Land vorantreiben. Es ist in diesen Zeiten sicher eine sehr gute Investition, die sich auszahlen wird.“

(nach oben)


Schnellere und richtigere Diagnosen

UR Präsidialabteilung, Bereich Kommunikation & Marketing
Universität Regensburg
Mathematikdidaktiker:innen aus Regensburg und Mediziner:innen des Klinikums der Ludwig-Maximilians-Universität München haben herausgefunden, dass diagnostische Urteile mithilfe von natürlichen Häufigkeiten und Häufigkeitsbäumen nicht nur öfter korrekt, sondern sogar schneller erfolgen können. Darüber informieren die Forscher:innen nun in einem Artikel in Advances in Health Sciences Education.

Statistische Aussagen korrekt zu lesen will gelernt sein. US-Präsident Trump verkündete etwa im Oktober 2020, dass sich 85% der Menschen, die eine Maske tragen, mit Corona infizieren. „Bei dieser Aussage handelte es sich um eine Verwechslung bedingter Wahrscheinlichkeiten“, sagt Mathematikdidaktikerin Dr. Karin Binder. Tatsächlich habe der frühere US-Präsident die beiden bedingten Wahrscheinlichkeiten „Wie wahrscheinlich ist es, dass ein Maskenträger Corona bekommt?“ vs. „Wie wahrscheinlich ist es, dass ein Corona-Infizierter Maske getragen hat?“ verwechselt. Ähnliche Verwechslungen passieren auch Medizinstudierenden und sogar Ärztinnen und Ärzten. Solche Verwechslungen – und wie man diesen vorbeugen kann – haben die Mathematikdidaktiker*innen Dr. Karin Binder und Professor Dr. Stefan Krauss von der Universität Regensburg zusammen mit den Ärzt:innen und Medizindidaktiker:innen Professor Dr. Ralf Schmidmaier und Dr. Leah Braun vom Klinikum der LMU München untersucht.

Hierzu legen sie Versuchspersonen beispielsweise die folgenden Informationen zum Mammographie-Screening zur Brustkrebsfrüherkennung vor: Eine Frau ist symptomfrei und möchte gerne am Screening teilnehmen. In ihrer Altersklasse liegt die Wahrscheinlichkeit für Brustkrebs bei einem Prozent. Durch das Screening wird die Erkrankung mit einer Wahrscheinlichkeit von 80 Prozent erkannt, wenn die Frau Brustkrebs hat. Wenn die Frau hingegen völlig gesund ist, erhält sie mit einer Wahrscheinlichkeit von etwa 9,6 Prozent fälschlicherweise ein positives Testergebnis. Nun sollten die Medizinstudierenden in der Studie die folgende Frage beantworten: Wie wahrscheinlich ist es, dass eine Frau tatsächlich an Brustkrebs erkrankt ist, wenn Sie ein positives Ergebnis in der Mammographie erhält? Die richtige Lösung kann beispielsweise mithilfe der Formel von Bayes errechnet werden und beträgt knapp 8 Prozent.
Wie bereits aus früheren Studien bekannt war, zeigte sich einerseits, dass Medizinstudierende die statistischen Informationen besser verstehen, wenn diese als sogenannte natürliche Häufigkeiten (z. B. „80 von 100 erkrankten Frauen erhalten ein positives Ergebnis in der Mammographie“) statt in Form von Wahrscheinlichkeiten (z. B. „80% der erkrankten Frauen erhalten ein positives Ergebnis in der Mammographie“) kommuniziert werden. Eine zusätzliche Visualisierung mit Häufigkeitsbäumen (siehe Abbildung) kann ebenfalls dazu beitragen, dass Medizinstudierende die korrekte Lösung finden: Insgesamt erhalten 80 Frauen mit Brustkrebs und 950 Frauen ohne Brustkrebs ein positives Testergebnis – das sind 1.030 Frauen mit einem positivem Testergebnis in der Mammographie. Von diesen 1.030 Frauen sind jedoch nur 80 erkrankt, was dem Prozentsatz von etwa acht Prozent entspricht.

In ihrem Artikel, der jetzt in Advances in Health Sciences Education publiziert wurde, zeigten die Forscher:innen nun, dass natürliche Häufigkeiten und Häufigkeitsbäume nicht nur zu einem höheren Anteil korrekter Diagnosen führen, sondern dass diese auch schneller erfolgten. Da sowohl Korrektheit als auch Schnelligkeit von Diagnosen im Alltag eines Arztes oder einer Ärztin äußerst wichtig sind, wurde der Anteil richtiger Antworten und die Zeitspanne, die für die Beantwortung jeder Aufgabe benötigt wird, zu einem gemeinsamen Maß, der „Diagnoseeffizienz“, zusammengefasst. Die berechnete Diagnoseeffizienz kann anschaulich wie folgt interpretiert werden:
„Stellen Sie sich zwei Schlangen von Medizinstudierenden vor“, sagt Karin Binder. In der linken Schlange müssen die Studierenden die Aufgabe in Wahrscheinlichkeiten und ohne Baum lösen. Die Studierenden rechts erhalten die Informationen in Form natürlicher Häufigkeiten und einem Baumdiagramm. Nun müssen die Studierenden nacheinander die Aufgabe lösen. Sobald sie eine Antwort niedergeschrieben haben, ist der nächste Student in der Schlange dran … so lange, bis die erste richtige Antwort kommt.
In der Variante mit Wahrscheinlichkeiten ohne Baum dauert das über eine Stunde und 16 Minuten, denn erst etwa der/die 17. Medizinstudierende kann für die Aufgabe eine korrekte Lösung angeben. In der Variante mit Häufigkeiten und Baum ist die erste richtige Antwort schon nach knapp fünf Minuten auf dem Tisch, denn hier lösen ca. 60% der Versuchspersonen die Aufgabe richtig und benötigen dafür durchschnittlich knapp drei Minuten. Die Erkenntnisse sollen bei der Weiterentwicklung medizinischer Curricula helfen und zur Verbesserung der Ausbildung von Medizinstudierenden führen.

Wissenschaftliche Ansprechpartner:
Dr. Karin Binder
Universität Regensburg
Fakultät für Mathematik
Telefon +49 941 943-2786
karin.binder@ur.de

Originalpublikation:
https://link.springer.com/article/10.1007/s10459-020-10025-8
https://doi.org/10.1007/s10459-020-10025-8

Weitere Informationen:
https://www.uni-regensburg.de/mathematik/didaktik-mathematik/team/karin-binder/i…

(nach oben)


Perspektiven-Papier zeigt Forschungsbedarf zur unterirdischen Wasserstoffspeicherung

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Team von GEO*8 und Uni Edinburgh analysiert Herausforderungen und Wissenslücken bei der Speicherung von Wasserstoff in porösen Gesteinsreservoiren – als Voraussetzung für eine globale Wasserstoffwirtschaft.

Grüner Wasserstoff, erzeugt mit regenerativen Energien, soll zu einer tragenden Säule werden, um die Klimaziele zu erreichen. So hat es die Bundesregierung in ihrer Nationalen Wasserstoffstrategie 2020 beschlossen. In dieser Woche wurde auf der Deutschen Wasserstoffvollversammlung der Entwicklungsstand von Technologie, Produkten und Projekten diskutiert. Ein jetzt im Journal Energy & Environmental Sciences erschienenes Perspektiven-Papier nimmt die Herausforderungen und Wissenslücken bei der unterirdischen Speicherung von Wasserstoff in großem Maßstab in den Blick. Sie ist nach Ansicht der Autor*innen unerlässlich, wenn Wasserstoff sein Potenzial zum Erreichen von Netto-Null-Emissionen voll ausschöpfen soll. Verfasst wurde das Papier in Kooperation von GEO*8, einem Zusammenschluss führender europäischer geowissenschaftlicher Forschungsorganisationen, darunter auch das Deutsche GeoForschungsZentrum Potsdam, mit dem schottischen Projekt HyStorPor. Die Autor*innen sehen einen dringenden Bedarf an disziplinenübergreifender Forschung, um die sichere und effiziente unterirdische Speicherung von Wasserstoff zu realisieren.

Potenzial von Wasserstoff
Wasserstoff steht international im Fokus der Aufmerksamkeit, weil er dazu beitragen kann, Bereiche wie Verkehr, Heizung und energieintensive Industrien wie die Chemie- und Stahlindustrie zu dekarbonisieren. Vor allem ist er ein Schlüssel, um einen entscheidenden Nachteil der erneuerbaren Energieerzeugung zu mildern: ihre Unbeständigkeit. Überschüssige erneuerbare Energie kann durch Elektrolyse in Wasserstoff umgewandelt (grüner Wasserstoff) und so für die Nutzung in Zeiten hohen Energiebedarfs gespeichert werden.

Speicherung in unterirdischen Reservoiren
Um die Versorgung mit Wasserstoff in einer Größenordnung zu ermöglichen, die für eine kohlenstofffreie Zukunft erforderlich ist, müsse er in unterirdischen porösen Gesteinsformationen gespeichert werden, etwa in salzhaltigen Aquiferen und erschöpften Öl- und Erdgasreservoiren, heißt es in dem Papier. Trotz der beträchtlichen Möglichkeiten, die eine solche Speicherung bietet, ist sie noch weitgehend unerprobt und mit zahlreichen Unsicherheiten und Herausforderungen verbunden. Das liege, so die Autor*innen der Studie, vor allem an einer bislang unzureichenden systematischen Erforschung.

Wichtige Fragen offen
„Das Papier wertet den aktuellen Stand der Forschung zur Wasserstoffspeicherung aus und identifiziert die wichtigsten Herausforderungen, die angegangen werden müssen, um einen globalen Einsatz zu ermöglichen“, sagt Niklas Heinemann, HyStorPor-Forscher an der Universität Edinburgh und Erstautor der Studie. Dazu gehören das Fließverhalten von Wasserstoff in unterirdischen Lagerstätten, geochemische Reaktionen, die durch das Einbringen von Wasserstoff ausgelöst werden, biotische Reaktionen, die durch das Vorhandensein von überschüssigem Wasserstoff ermöglicht werden, und die geomechanische Reaktion des Untergrunds auf die Wasserstoffspeicherung.

Die Risiken, die von diesen Prozessen ausgehen, können schwerwiegende wirtschaftliche und sicherheitstechnische Folgen für den Speicherbetrieb haben. Die diskutierten Prozesse und ihre gekoppelten Einflüsse bilden die grundlegende Basis für Modelle auf Reservoir-Skala, um die Auswirkungen der saisonalen Wasserstoffspeicherung genau zu bewerten und vorherzusagen. Diese Vorhersagen können den Weg zu einer fundierten Entscheidungsfindung in Bezug auf Betriebsstrategien weisen, um eine sichere und effiziente Implementierung solcher Lagerstätten zu gewährleisten.

Vielfältige Forschung nötig
„Wir brauchen multidisziplinäre Forschung, um den sicheren, effizienten und dringend benötigten großtechnischen Einsatz der unterirdischen Speicherung zu realisieren“, sagt Jens Kallmeyer, Leiter des Labors für Aquatische Geochemie und Mitarbeiter der Sektion Geomikrobiologie am GFZ. „Dazu gehören Lagerstättentechnik, Chemie, Geologie und Mikrobiologie. Die Erkenntnisse aus der Methan- oder CO2-Speicherung lassen sich nur zu einem sehr geringen Teil auf die Wasserstoffspeicherung übertragen.“

Die vorliegende Studie geht zurück auf einen GEO*8-Workshop, der 2019 am GFZ abgehalten wurde.

Link:
https://media.gfz-potsdam.de/gfz/wv/pm/21/11413_Skizze_Wasserstoffspeicherung_He…

Wissenschaftliche Ansprechpartner:
Dr. Jens Kallmeyer
Sektion Geomikrobiologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28785
E-Mail: jens.kallmeyer@gfz-potsdam.de

Originalpublikation:
N. Heinemann, J. Alcalde, J. M. Miocic, S. J. T. Hangx, J. Kallmeyer, C. Ostertag-Henning, A. Hassanpouryouzband, E. M. Thaysen, G. J. Strobel, M. Wilkinson, C. Schmidt-Hattenberger, K. Edlmann, M. Bentham, R. S. Haszeldine, R. Carbonell and A. Rudloff, Enabling large-scale hydrogen storage in porous media – the scientific challenges, Energy Environ. Sci., 2021. DOI: 10.1039/D0EE03536J

Weitere Informationen:
https://geo8.eu/
https://blogs.ed.ac.uk/hystorpor/

(nach oben)


BAuA-Arbeitszeitbefragung: Arbeitszeitgeschehen zeigt positive Trends bei hoher Stabilität

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Zwischen 2015 und 2019 haben sich Länge, Lage und Flexibilität der Arbeitszeit in Deutschland kaum verändert. Dies zeigt ein Vergleich der BAuA-Arbeitszeitbefragungen 2015, 2017 und 2019, den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jetzt veröffentlicht hat. Dennoch offenbart die Längsschnittstudie einige Trends, die auch vor dem Hintergrund der herrschenden Corona-Epidemie an Bedeutung gewinnen. So zeigt sich beispielsweise bereits im Zeitraum vor der Epidemie ein Anwachsen von Telearbeit und Homeoffice sowie ein Anstieg bei den Arbeitszeitkonten.

Die Befragten berichten insgesamt über einen größeren Einfluss auf ihre Arbeitszeit. Gleichzeitig wünschen immer mehr Beschäftigte in Vollzeit eine Verkürzung ihrer Arbeitszeit. Der Bericht „BAuA-Arbeitszeitbefragung: Vergleich 2015 – 2017 – 2019“ betrachtet dabei auch die versorgungsrelevanten Berufe, die im Schnitt ungünstigere Arbeitszeitbedingungen aufzeigen. Zudem werden auch erste Befunde und Hypothesen zu langfristigen Auswirkungen der Corona-Krise diskutiert

Die BAuA-Arbeitszeitbefragung ist als Panelstudie angelegt und begann 2015 mit der Befragung von rund 20.000 abhängig Beschäftigten. 2017 und 2019 folgten Befragungen von jeweils etwa 10.000 Beschäftigten. Dabei wurden Informationen unter anderem zur Arbeitszeit, zu Arbeitsbedingungen und zur Gesundheit abgefragt.

Während die vereinbarte Arbeitszeit in Vollzeit nahezu konstant bei 38,7 Stunden liegt, hat sich die Arbeitszeit der Teilzeitkräfte im Betrachtungszeitraum kontinuierlich verlängert (2015:22,4 h / 2019:23,8 h). Insgesamt nahm die Dauer der geleisteten Überstunden um etwa 30 Minuten auf 3,4 Stunden pro Woche in 2019 ab. Auch der Wunsch nach Verkürzung nahm bei den Befragten über die Jahre hinweg zu, insbesondere bei den vollzeitbeschäftigten Männern.

Rund 40 Prozent der Beschäftigten arbeiten am Wochenende, etwa jeder fünfte Befragte zu atypischen Arbeitszeiten, außerhalb des Zeitfensters von 7 bis 19 Uhr. Während die Beschäftigten durchschnittlich mehr Einfluss auf ihre Arbeitszeit, wie Beginn, Ende oder Pausengestaltung, gewonnen haben, gingen die Anforderungen an ihre Flexibilität, wie Rufbereitschaft oder Bereitschaftsdienst, zurück. Zudem stieg der Anteil der Beschäftigten mit Arbeitszeitkonten um fünf Prozentpunkte auf 66 Prozent in 2019. Seit 2015 nahm der Anteil der Telearbeit kontinuierlich zu. So hatten 2019 etwa 16 Prozent der Beschäftigten mit ihrem Arbeitgeber eine Vereinbarung zum Homeoffice getroffen.

In einem Exkurs befasst sich der Bericht mit den „versorgungsrelevanten Berufen“. Ein knappes Drittel (30,2 %) der Beschäftigten arbeitet in Bereichen, wie dem Gesundheitssystem, Transport und Verkehr oder in der Lebensmittelversorgung. Um Dienstleistungen oder die Betreuung von Infrastrukturen zu gewährleisten, ist hier die Arbeit zu atypischen Zeiten stark verbreitet. Unvorhergesehene Ereignisse fordern von den Beschäftigten häufig eine hohe Flexibilität. Zudem haben sie einen geringeren Einfluss auf die eigene Arbeitszeit und seltener die Möglichkeit zur Telearbeit. Häufigere verkürzte Ruhezeiten erschweren die Erholung. Insgesamt sind hier langfristig negative Auswirkungen auf Gesundheit und Work-Life-Balance deshalb wahrscheinlicher.

Der Bericht verdeutlich jedoch insgesamt eine hohe Stabilität des Arbeitszeitgeschehens in Deutschland. Mit der vierten Befragungswelle wird in diesem Jahr die Arbeitszeitberichterstattung der BAuA fortgesetzt. Dabei werden die Folgen der SARS-CoV-2-Epidemie auf die Arbeitszeitrealitäten besonders betrachtet werden.

„BAuA-Arbeitszeitbefragung: Vergleich 2015 – 2017 – 2019“; Nils Backhaus, Anne Marit Wöhrmann, Anita Tisch; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020; 105 Seiten; ISBN 978-3-88261-734-4; doi:10.21934/baua:bericht20201217. Den Bericht gibt es im PDF-Format im Internetangebot der BAuA unter http://www.baua.de/dok/8851216.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 750 Beschäftigte.
http://www.baua.de

(nach oben)


Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Saurer Regen gehört eigentlich der Vergangenheit an, doch noch immer steigen die Sulfatkonzentrationen in vielen Binnengewässern weltweit. Forschende unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der dänischen Universität Aarhus geben in einer neuen Studie einen Überblick, aus welchen Quellen das Sulfat heute stammt und welche Folgen es hat. Sie weisen darauf hin, dass die negativen Folgen für Ökosysteme und Trinkwassergewinnung bisher nur regional wahrgenommen werden und empfehlen, Sulfat stärker in rechtlichen Umweltstandards zu berücksichtigen.

„Saurer Regen“ war ein Phänomen der 1980er Jahre, als bei der Verbrennung fossiler Brennstoffe große Mengen an Schwefel in die Atmosphäre gelangten. Nachdem Kraftwerke in Nordamerika und Europa zur Rauchgasentschwefelung nachgerüstet wurden, schien die Gefahr zunächst gebannt. In Deutschland sanken die atmosphärischen Schwefeleinträge um 90 Prozent. In Binnengewässern blieben die Konzentrationen an Sulfat, das aus Schwefel gebildet wird, in den letzten Jahrzehnten dennoch nahezu unverändert; in einigen Regionen stiegen sie sogar. Für die Forschenden ein klares Zeichen dafür, dass andere Quellen an Bedeutung gewonnen haben.

Entwässerung, Kunstdünger und Braunkohletagebau zählen zu den Hauptursachen:
Gelöstes Sulfat entsteht in Binnengewässern natürlicherweise durch die Verwitterung von Mineralien, bei Vulkanismus oder beim Abbau von organischem Material. Doch vor allem menschliche Aktivitäten lassen die Konzentrationen von Sulfat im Wasser deutlich ansteigen. Neben den atmosphärischen Einträgen sind dafür insbesondere die Entwässerung von Mooren, die Absenkung des Grundwasserspiegels für den Braunkohletagebau, Düngerauswaschungen aus landwirtschaftlich genutzten Böden sowie Abwässer aus Landwirtschaft und Industrie verantwortlich. Weltweit macht der landwirtschaftliche Einsatz von schwefelhaltigen Substanzen rund 50 Prozent des jährlich in die Umwelt eingetragenen Schwefels aus. So gelangt in einigen Regionen der Welt heute mehr Schwefel in Böden und Gewässer als zum Höhepunkt des sauren Regens.

Der Klimawandel verschärft die Situation:
Die Folgen des Klimawandels tragen zu einer Verschärfung bei: „Zunehmender Starkregen spült schwefelhaltige Böden und Dünger in Gewässer; größere Flächen von Feuchtgebieten fallen trocken; durch steigende Meeresspiegel gelangt sulfatreiches Salzwasser ins Grundwasser und in Flüsse, wo es die Sulfatkonzentrationen erheblich erhöhen kann“, fasst Dr. Dominik Zak von der dänischen Universität Aarhus die Prognosen zusammen, die er und seine Mitautor*innen in der Übersichtsstudie zusammengetragen haben.

Negative Folgen für Mensch und Ökosysteme:
Die Spree ist ein Beispiel für Flüsse, in denen die Sulfatkonzentrationen als Folge des Braunkohletagebaus angestiegen sind. In einigen Abschnitten überschreitet sie schon heute den Trinkwassergrenzwert von 250 Milligramm pro Liter. „Das ist problematisch, da diese Gewässer als Trinkwasserquelle genutzt werden – typischerweise über Grundwasserentnahme und durch Uferfiltration. Nach wie vor spielt der Braunkohleabbau in vielen Regionen der Welt eine bedeutende Rolle, und überall dort sind Sulfatbelastungen in Gewässern und dem Trinkwasser ein Thema. Auch wenn wir in Deutschland den Ausstieg aus der Braunkohleförderung beschlossen haben, werden uns die Sulfateinträge in unsere Gewässer als Umweltproblem längerfristig erhalten bleiben“, prognostiziert IGB-Forscher Dr. Tobias Goldhammer, einer der Autoren der Studie.

Sulfat beeinträchtigt nicht nur die Trinkwasserqualität, es beeinflusst auch die Stoffkreisläufe von Kohlenstoff, Stickstoff und Phosphor. Das steigert unter anderem den Nährstoffgehalt in Gewässern und damit das Pflanzen- und Algenwachstum sowie das Nahrungsangebot für aquatische Organismen. Die Folge ist ein Sauerstoffmangel im Wasser, der die weitere Freisetzung von Phosphat aus dem Sediment fördert – ein Teufelskreis. Sulfat und seine Abbauprodukte – insbesondere Sulfid – können zudem giftig auf aquatische Lebewesen wirken.

Renaturierte Moorflächen binden Schwefel:
Die biologische Sanierung mithilfe lebender Organismen wie Prokaryonten, Pilzen oder Pflanzen ist eine Möglichkeit, um Schadstoffe aus Ökosystemen zu entfernen. Pflanzenkläranlagen, Bioreaktoren und durchlässige reaktive Barrieren können auch die Sulfatbelastungen in Gewässern mindern. Viel versprechen sich die Wissenschaftler*innen dabei von der Renaturierung von Mooren: Durch die flächendeckende Trockenlegung von Feuchtgebieten wurden Schwefel und schwefelhaltige Eisenverbindungen freigesetzt. Die Wiedervernässung dieser Flächen kann die Freisetzung stoppen und sogar Schwefel speichern: Gelangt dann mit Sulfat angereichertes Wasser über Grund- oder Oberflächenwasser in diese Feuchtgebiete, wird es dort gefiltert.

Sulfat ist ein globales Umweltproblem:
„Es besteht großer Handlungsbedarf, die Sulfatkonzentrationen in Gewässern zu verringern. Da die Probleme im Zusammenhang mit hohen Sulfateinträgen bisher vor allem regional wahrgenommen werden, sind die Auswirkungen auf Binnengewässer noch nicht als global aufkommendes Umweltproblem erkannt. So haben viele Länder dafür keine Umweltstandards definiert. Wir möchten mit unserer Studie auf die Problematik aufmerksam machen, den derzeitigen Stand zur Sulfatbelastung aufzeigen und gleichzeitig auf die noch zahlreichen Wissenslücken hinweisen“, fasst Dominik Zak zusammen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von sieben natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/

Wissenschaftliche Ansprechpartner:
Dr. Tobias Goldhammer
Leiter der IGB-Forschungsgruppe „Nährstoffkreisläufe und chemische Analytik“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: goldhammer@igb-berlin.de

Dr. Dominik Zak
Department of Bioscience
Aarhus University, Dänemark
Email: doz@bios.au.dk

Originalpublikation:
Zak D, Hupfer M, Cabezas A, Jurasinski G, Audet J, Kleeberg A, McInnes R, Munch Kristiansen S, Petersen RJ, Liu H, Goldhammer T (2020) Sulphate in freshwater ecosystems: A review of sources, biogeochemical cycles, ecotoxicological effects and bioremediation. Earth Science Reviews doi:10.1016/j.earscirev.2020.103446

Weitere Informationen:
https://www.igb-berlin.de/news/saurer-regen-war-gestern

(nach oben)


Wärmere Winter führen zu weniger Heringsnachwuchs in der westlichen Ostsee

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Forschende vom Thünen-Institut für Ostseefischerei zeigen, dass vor allem die Erwärmung des Meerwassers im Winter zu massivem Rückgang der Heringslarven führt / Veröffentlichung in Frontiers in Marine Science erschienen

Der Rückgang des Nachwuchses beim Hering der westlichen Ostsee ist eine direkte Folge der Erwärmung des Meeres und der Verschiebung der Jahreszeiten. Erstmals ist es Forschenden am Thünen-Institut für Ostseefischerei in Rostock gelungen, einen solchen Nachweis für eine kommerziell genutzte Fischart zu führen. Die Ergebnisse der Forschergruppe um Dr. Patrick Polte, Leiter der Arbeitsgruppe Heringsrekrutierung am Thünen-Institut, sind jetzt in einem Fachartikel in der Zeitschrift Frontiers in Marine Science publiziert worden.

„Wir beobachten die Laichtätigkeit des Herings im Greifswalder Bodden und Strelasund seit fast 30 Jahren, nehmen jede Woche über den gesamten Laichzeitraum an vielen Stellen Proben. Der sogenannte Rügen-Heringslarvensurvey ist damit die längste zusammenhängende und hochaufgelöste Datenserie zur frühen Lebensgeschichte eines kommerziell genutzten Fischbestands“, sagt Patrick Polte.

Der Greifswalder Bodden ist so etwas wie die Kinderstube des Heringsbestandes der westlichen Ostsee. Im Winter sammeln sich die Tiere, von ihren Sommergründen in Kattegat und Skagerrak kommend, im Öresund zwischen Dänemark und Schweden. Von dort aus machen sie sich auf den Weg in ihre Laichgebiete an der Südküste der westlichen Ostsee und laichen im Frühjahr an Wasserpflanzen im Flachwasser – ein Automatismus, der seit Jahrtausenden funktioniert. Doch seit 15 Jahren geht die Anzahl der Jungheringe signifikant zurück.

Das Rostocker Team hat seither systematisch nach den Ursachen gesucht. In einer Kombination aus Feldforschung und Zeitreihenanalyse habe sich schließlich gezeigt, dass die Heringe früher in den Bodden schwimmen als noch vor 15 Jahren, so Polte. Die Wissenschaftler können dies auf die schwächeren und verspäteten Kälteperioden in der Ostsee zurückführen. Außerdem entwickeln sich die Eier bei höheren Temperaturen schneller. „Daher schlüpfen die Larven rund 14 Tage früher als noch vor 30 Jahren“, erläutert Patrick Polte. Das Problem: Nach wenigen Tagen haben die Heringslarven ihren Dottersack aufgezehrt und brauchen dann winzigen Zooplankton-Nachwuchs als Futter. Das allerdings, so erste Ergebnisse weiterer Studien, scheint zu diesem frühen Zeitpunkt noch nicht in ausreichendem Maße vorhanden zu sein, weil es – anders als die Heringslarven – lichtgesteuert entsteht. Die Folge: Die Larven verhungern, die Zahl erwachsener und damit laichbereiter Heringe geht von Jahr zu Jahr zurück.

Aufgrund des kleiner werdenden Bestandes wurde die von den EU-Fischereiministern festgesetzte Fangmenge für Hering in der westlichen Ostsee immer weiter reduziert, allein seit 2017 um 94 Prozent. In diesem Jahr dürfen nur noch 1.575 Tonnen Hering gefangen werden. „Das kommt einer Schließung der Heringsfischerei sehr nahe“, sagt Dr. Christopher Zimmermann, Leiter des Thünen-Instituts für Ostseefischerei. „Mit unserer Studie wird auch klar, dass der Klimawandel bereits heute wirtschaftlich erhebliche Auswirkungen hat, nicht erst in 30 Jahren: Der Bestand ist nur noch halb so produktiv wie vor 30 Jahren. Trotzdem könnten noch 20.000 Tonnen Hering aus der westlichen Ostsee gefischt werden, wenn der Bestand in gutem Zustand wäre“, so Zimmermann weiter. Eine Erholung und nachhaltige Nutzung sei jedoch innerhalb von 5-6 Jahren möglich, wenn die Fangmengen niedrig blieben. Ein kalter Winter könnte die Erholung zudem beschleunigen – der ist aber nicht in Sicht.

Wissenschaftliche Ansprechpartner:
Dr. Patrick Polte
Thünen-Institut für Ostseefischerei, Rostock
Tel.: +49 381 66099 103
E-Mail: patrick.polte@thuenen.de

Originalpublikation:
Reduced Reproductive Success of Western Baltic Herring (Clupea harengus) as a Response to Warming Winters. Front. Mar. Sci., 2021
http://www.frontiersin.org/articles/10.3389/fmars.2021.589242/full?&utm_source=Email_to_authors_&utm_medium=Email&utm_content=T1_11.5e1_author&utm_campaign=Email_publication&field=&journalName=Frontiers_in_Marine_Science&id=589242
https://doi.org/10.3389/fmars.2021.589242

(nach oben)


Ganzheitliches Aktivkohleverfahren beseitigt Spurenstoffe in Kläranlagen

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Kläranlagen greifen zur Reinigung unseres Abwassers auf eine Reihe von wirk-samen und etablierten Verfahren zurück, doch eine einheitlich anerkannte, ideale Methode zur Entfernung von Spurenstoffen gibt es bisher nicht. Forschende des Fraunhofer-Instituts für Umwelt-, Sicherheits- und Energietechnik UMSICHT wollen dies ändern. Mit »ZeroTrace« haben sie einen ganzheitlichen Ansatz mit selbstentwickelten Komposit-Aktivkohlen und einem neuen elektrischen Regenerationsverfahren geschaffen, der Effizienz, Massentauglichkeit und Nachhaltigkeit verspricht.

Öffnet man in Deutschland den Wasserhahn, hat das herausströmende Wasser in der Regel beste Trinkwasserqualität. Dies liegt nicht zuletzt an den vielen Kläranlagen, die unser Abwasser mit mechanischen, biologischen und chemischen Verfahren erfolgreich säubern und verunreinigende Bestandteile wirksam entfernen. Spurenstoffe, wie Arzneimittelrückstände, Haushaltschemikalien oder Röntgenkontrastmittel lassen sich damit bisher jedoch kaum entfernen. Doch gerade diese können Mensch und Tier bereits in sehr geringen Mengen gefährlich werden.

Um diesem Problem zu begegnen, werden Kläranlagen zunehmend mit einer weiteren Reinigungsstufe nachgerüstet, die Spurenstoffe entfernen soll. Neben chemisch-oxidativen Maßnahmen, bei denen problematische Beiprodukte entstehen können, wird hierbei vor allem auf Aktivkohlen gesetzt. Diese haben wegen ihrer porösen Grundstruktur eine enorm große innere Oberfläche – schon bei vier Gramm Aktivkohle entspricht sie in etwa der Fläche eines Fußballfeldes – und können andere Stoffe in Abhängigkeit von deren Ladung adsorbieren, also ähnlich wie ein Schwamm in sich aufsaugen.

Stärkere Berücksichtigung von Nachhaltigkeitsaspekten
Doch obwohl Spurenstoffe so in der Regel wirksam aus dem Ablauf entfernt werden können, hat das Verfahren in der Praxis häufig einen Haken, erklärt Ilka Gehrke, Abteilungsleiterin Umwelt und Ressourcennutzung am Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT in Oberhausen: »Bisher wird meist pulvrige Aktivkohle eingesetzt. Sobald diese voll beladen ist und keine Stoffe mehr adsorbieren kann, wird sie schlichtweg verbrannt. Unter Nachhaltigkeitsaspekten ist das sehr problematisch, zumal Aktivkohle häufig aus nicht-nachwachsenden Rohstoffen, nämlich ganz normaler Steinkohle, hergestellt wird.«

Forschende des Fraunhofer UMSICHT haben es sich daher in Zusammenarbeit mit mehreren Industriepartnern im vom Bundesministerium für Bildung und Forschung geförderten Projekt »ZeroTrace« zum Ziel gesetzt, den Einsatz von Aktivkohlen zur Beseitigung von Spurenstoffen im Abwasser zu optimieren und haben hierfür einen ganzheitlichen Ansatz entwickelt. Begleitet wurde der Prozess durch Forschung im Innovations- und Ressourcenmanagement, die es ermöglichte, sozio-ökonomische sowie ökologische Innovationstreiber und -bremser von Anfang an mit zu berücksichtigen.

Als Ausgangsstoff für ihr Verfahren setzen Gehrke und ihr Team auf Aktivkohlen aus nachwachsenden Materialien wie Holz oder Kokosnuss in granulierter Form. Derartige Pellets können im Gegensatz zu Aktivkohlepulver bei sehr hohen Temperaturen reaktiviert, dadurch von den adsorbierten Stoffen befreit und wiederverwendet werden. Derzeit müssen die Aktivkohlen hierfür jedoch meist erst weit transportiert werden und weil sich die Kohlen beim Durchmischen im Wirbelbett gegenseitig abreiben, gibt es hohe Materialverluste.

Von der passenden Regenerationsmethode zum benötigten Ausgangsprodukt
Ziel der Forschenden war es daher ein Regenerationsverfahren zu entwickeln, das direkt vor Ort am jeweiligen Kläranlagengelände durchgeführt werden kann. »Hierfür nutzen wir die physikalische Wirkung von elektrischen Feldern aus«, erklärt Gehrke. »Diesen Gedanken hatten vor uns bereits andere für den Bereich der Gasreinigung und viele dieser Grundlagen konnten wir für unser Vorhaben auf den Flüssigbereich übertragen. Zu der Zeit waren elektrisch betriebene Verfahren aber sehr teuer und derartige Forschungsprojekte wurden nicht weiter verfolgt. Heute dagegen werden wir uns zunehmend den fluktuierenden Stromanfall von regenerativen Energien zunutze machen können. Hier wird in Zukunft erwartet, dass bei Stromspitzen Strom zu niedrigen Kosten verfügbar ist.«

Die Idee hinter dem neuen Verfahren, basierend auf der sogenannten Electric Field Swing Adsorption (EFSA), ist es, die Kohlen elektrisch so zu erhitzen, dass die Schadstoffe auf den Kohlen desorbieren oder schlichtweg verbrennen. Damit dies funktioniert, müssen sowohl die Aktivkohlen als auch der Reaktor bestimmte Voraussetzungen erfüllen. So müssen die verwendeten Aktivkohlen eine hohe elektrische Leitfähigkeit aufweisen, damit genug Strom durch sie hindurchfließen kann. Trotzdem muss der Materialwiderstand groß genug sein, dass sie sich dabei ausreichend erhitzen. Gehrke und ihr Team entwickelten hierfür eigene Komposit-Aktivkohlen. Dem Grundmaterial Holzkohlenmehl mischten sie Grafit bei und erzielten dadurch eine elektrische Leitfähigkeit, die bei gleichbleibender Adsorptionsfähigkeit dreimal so hoch ist wie bei herkömmlichen Aktivkohlen. Bei der Reaktorkonstruktion bestand die Schwierigkeit darin, diesen so zu bauen, dass er auch hohen Temperaturen von bis zu 650 Grad standhält. In Bezug auf die Funktionsweise setzen Gehrke und ihre Kollegen auf eine kontinuierliche Regeneration: »Die Idee ist, dem Becken laufend über ein Förderband kleine Aktivkohlemengen zu entnehmen, diese zu regenerieren und wieder zurückzuführen. Dazu reicht dann ein verhältnismäßig kleiner Reaktor aus, weil sich nie alle Aktivkohlen gleichzeitig darin befinden und der Regenerationsprozess nur ein paar Minuten dauert. Da sich die Aktivkohlen im Reaktor selbst nicht bewegen, ist der Verschleiß gering und wir rechnen damit, dass wir pro Durchgang mit maximal zehn Prozent neuen Aktivkohlen auffrischen müssen.«

Vielversprechende und anschlussfähige Ergebnisse
Die selbst hergestellten Komposit-Aktivkohlen konnten bei Tests auf der Partnerkläranlage Wuppertal-Buchenhofen bereits erfolgreich mit Spurenstoffen beladen werden. Das Regenerationsverfahren führten die Forschenden an einem Protypenreaktor mit einem Fassungsvermögen von 40 bis 50 Litern außerhalb des Kläranlagengeländes durch und erzielten dabei erfreuliche Ergebnisse. Nach einer fast dreijährigen Projektphase zieht Ilka Gehrke daher ein positives Fazit: »Unsere Tests haben gezeigt, dass unser Verfahren ressourcenschonend und dabei gleichzeitig wirtschaftlich und konkurrenzfähig ist.« Aktuell diskutieren die Beteiligten über mögliche Nachfolgeprojekte mit Umsetzungen im größeren Maßstab direkt vor Ort.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/februar-2021/ganzhe…

(nach oben)


Verborgenes Wissen heben, um Ökovielfalt der Meere zu retten

Sandra Sieraad Medien und News
Universität Bielefeld
Den Schutz der Lebensräume und der Artenvielfalt in den Meeren und an den Küsten in Zukunft effizienter gestalten: Ein neues Verbundprojekt forscht an den Grundlagen dafür. In dem Projekt arbeiten Wissenschaftler*innen aus der Ökonomie und der Ökologie zusammen. Sie beschäftigen sich mit der Frage, wie bessere Entscheidungen im Umwelt- und Artenschutz gefällt werden können, auch unter den Bedingungen von Unsicherheit und unvollständigen Informationen. Für das Forschungsprojekt „Value of Information“ (Informationswerte) kooperiert die Universität Bielefeld mit dem Helmholtz-Institut für Funktionelle Marine Biodiversität an der Universität Oldenburg (HIFMB).

„Der Umwelt- und Artenschutz gehören zu den zentralen Herausforderungen der heutigen Zeit“, sagt Privatdozent Dr. Thorsten Upmann. Der Wirtschaftswissenschaftler forscht sowohl an der Universität Bielefeld als auch am HIFMB und leitet das neue Projekt. „Um die Erderwärmung zu begrenzen und Tier- und Pflanzenarten zu schützen, ist rasches Handeln erforderlich – auf Basis wissenschaftlicher Daten“, sagt Upmann. Um beispielsweise gefährdete Tierarten schützen zu können, ist es nötig, den Lebensraum der jeweiligen Population genau zu kennen und die Zusammenhänge innerhalb dieses Ökosystems zu verstehen. Die Forschung und Datengewinnung ist gerade im Kontext mariner Lebensräume sehr kosten- und zeitintensiv. „Durch den voranschreitenden Klimawandel und das Artensterben steht die Suche nach den besten Lösungen zusätzlich unter Zeitdruck“, sagt Upmann. An dieser Stelle setzt das neue Forschungsprojekt an.

Die richtigen Informationen für zielführende Entscheidungen
Täglich fällen Menschen Entscheidungen. Dabei ist der Ablauf bei den meisten Personen wahrscheinlich ähnlich: Eine Person informiert sich, vergleicht und fragt andere Personen nach ihrer Erfahrung oder Meinung. Anschließend wägt sie die gewonnenen Informationen ab und fällt eine Entscheidung. „Die Frage, welche Informationen als Grundlage für die Entscheidung zur Verfügung stehen, ist für den Entscheidungsprozess von zentraler Bedeutung“, erklärt Thorsten Upmann. Oft fehlen im Alltag jedoch relevante Informationen. Das kann am Zeitdruck liegen oder daran, dass Informationen zunächst nicht verfügbar sind.

Ökosysteme in den Meeren sind komplexe Systeme von Lebewesen
Trotz solcher Beschränkungen treffen Menschen Entscheidungen auf Basis der Informationen und der Wissenslücken, die zum jeweiligen Zeitpunkt bestehen. „Beim Schutz der marinen Biodiversität – also der biologischen Vielfalt in den Meeren und an den Küsten – ist die Situation ähnlich“, sagt Thorsten Upmann. „Wissenschaftler*innen, die die dortigen Ökosysteme erforschen, haben es mit komplexen Systeme zu tun, in denen es zu vielseitigen Wechselwirkungen kommt. Die Forschung kann lediglich eine Momentaufnahme in solch einem dynamischen System festhalten. Die Beobachtungen und damit die gewonnen Daten sind also immer selektiv und unvollständig.“ Zusätzlich sei die Forschung zu den Ökosystemen langwierig und aufwändig. Deswegen könne lediglich eine Auswahl von Forschungsprojekten realisiert werden.

Doch welche Wissenslücken müssen gefüllt werden, um sinnvolle Entscheidungen im Umwelt- und Artenschutz fällen zu können? Welche Forschungsprojekte sind am geeignetsten, um diese Lücken zu füllen? Und in welchen Fällen ist schon genug Wissen vorhanden, um erfolgsversprechende Maßnahmen in der Politik einzuleiten? „Unser Projekt soll dazu beitragen, zielführende Entscheidungen trotz Ungewissheit treffen zu können“, sagt Upmann. Dazu arbeiten Forschende sowohl mit den Methoden der Datenwissenschaft als auch der Modellierung. Durch die Datenwissenschaft können die Forschenden große Datenmengen automatisiert auswerten, während sie durch die Modellierung der Daten die chancenreichsten Maßnahmen zum Schutz der natürlichen Lebensräume und der Artenvielfalt ableiten können. „Auf diese Weise können wir zum Beispiel ermitteln, zu welchen gefährdeten Tierarten umfassend geforscht werden sollte.“

Handlungsempfehlungen für den Schutz der Arten
Thorsten Upmann forscht als Ökonom schon seit Jahren dazu, wie sich die Akteur*innen in einem Wirtschaftssystem regional oder überregional gegenseitig beeinflussen. „Auf die gleiche Art können wir auch modellieren, wie die Lebewesen in maritimen Regionen miteinander interagieren.“ So profitieren die Umweltwissenschaften von den Wirtschaftswissenschaften. In dem Projekt erstellen die Forschenden Modelle, mit denen sie etwa nachvollziehbar machen, wie Pflanzen- und Tierpopulationen in einem bestimmten Küstengebiet zusammenhängen. Aus solchen Modellen der marinen Biodiversität lassen sich Handlungsempfehlungen für den Schutz der jeweiligen Arten ableiten.

Das Projekt „Value of Information“ läuft von Januar 2021 bis Dezember 2023. Auf lange Sicht hoffen die beteiligten Wirtschafts- und Umweltwissenschaftler*innen, ihre Forschung zur marinen Biodiversität auch auf andere Bereiche des Naturschutzes und der Biodiversität ausweiten zu können. Mit dem Projekt startet eine langfristige Zusammenarbeit der Fakultät für Wirtschaftswissenschaften der Universität Bielefeld mit der Universität Oldenburg sowie dem Helmholtz-Instituts für Funktionelle Marine Biodiversität an der Universität Oldenburg (HIFMB). Die Kooperation soll die Stärken beider Partner verbinden: die Expertise der Bielefelder Forschenden in der Modellierung und den Datenwissenschaften mit der Expertise der Forschenden in Oldenburg in der Ökologie, dem Ökosystemmanagement und dem Schutz mariner Lebensräume.

Wissenschaftliche Ansprechpartner:
PD Dr. Thorsten Upmann, Universität Bielefeld
Fakultät für Wirtschaftswissenschaften
Telefon: 0521 106-4862
E-Mail: tupmann@wiwi.uni-bielefeld.de

Weitere Informationen:
https://www.uni-bielefeld.de/fakultaeten/wirtschaftswissenschaften/einrichtungen… Steckbrief des Projekts „Value of Information“

(nach oben)


Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit

Dr. Andreas Bohlen UP Transfer GmbH an der Universität Potsdam
Universität Potsdam
Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit.
Ergebnisse aus Potsdam unterstützen zuverlässigen Test auf SARS-CoV-2.

Am Forschungsstandort Potsdam Science Park in Golm haben die Wissenschaftler Frank Sellrie und Jörg Schenk von der Arbeitsgruppe Immuntechnologie der UP Transfer GmbH an der Universität Potsdam jetzt monoklonale Antikörper zum Nachweis des Coronavirus SARS-CoV-2 einsatzbereit.

Am Forschungsstandort Potsdam Science Park in Golm haben die Wissenschaftler Frank Sellrie und Jörg Schenk von der Arbeitsgruppe Immuntechnologie der UP Transfer GmbH an der Universität Potsdam jetzt monoklonale Antikörper zum Nachweis des Coronavirus SARS-CoV-2 einsatzbereit.

Seit gut einem halben Jahr arbeiten die Wissenschaftler Frank Sellrie und Jörg Schenk von der Arbeitsgruppe Immuntechnologie der UP Transfer GmbH an der Universität Potsdam an einem Projekt zur Generierung monoklonaler Antikörper gegen das Coronavirus SARS-CoV-2. In diesem vom Bundesministerium für Bildung und Forschung im Rahmen des Förderaufrufs zur Erforschung von COVID-19 geförderten Projekt können nun erste Ergebnisse präsentiert werden.

Der Bedarf an SARS-CoV-2 bindenden Antikörpern zum schnellen und sicheren Nachweis der Infektion ist noch immer sehr hoch. Die Wissenschaftler haben einige neue monoklonale Antikörper gegen das Capsidprotein (Hüllprotein) des Virus entwickelt, die inzwischen auch in einem industriellen Maßstab produziert werden können. Am Standort Potsdam-Golm wurde damit bereits ein einfacher Labortest aufgebaut, mit dem Corona-Viruspartikel nachgewiesen werden können.

Auf Basis dieser Daten entwickeln nun die Kooperationspartner der Firma ImmoGnost GmbH aus Göttingen Schnelltests, die in Zukunft auch für den Hausgebrauch einsetzbar sein sollen. Damit könnten dann Besucher und Personal in Pflegeeinrichtungen und Kliniken, Teilnehmer von Veranstaltungen oder Besucher in Kinos, Theatern oder Museen getestet werden oder sich selbst testen, um Ansteckungen mit großer Wahrscheinlichkeit auszuschließen. Durch die geschickte Auswahl des Zielproteins besteht auch keine Gefahr, dass Virusmutationen wie z.B. die Mutanten B.1.1.7. aus Großbritannien oder B1.351 aus Südafrika von den neuen Antikörpern übersehen werden.

Die Entwicklung monoklonaler Antikörper ist in der Regel ein langwieriger Prozess, der durch die Expertise der beiden Potsdamer Immunologen und die enge Zusammenarbeit mit dem Institut für Virologie der Charité beschleunigt werden konnte. So ist die Charakterisierung der Antikörper schon weit fortgeschritten und z.B. eine unerwünschte Kreuzreaktivität mit den bekannten endemischen Coronaviren ausgeschlossen. Projektleiter Frank Sellrie lobt ausdrücklich die Kooperation mit der Charité: „Die Kooperation funktioniert ausgezeichnet, immer wenn wir neue Antikörperkandidaten in der Pipeline hatten, wurden diese unverzüglich auf Realproben getestet und uns somit Entscheidungshilfen geliefert. So wünscht man sich eine vertrauensvolle Zusammenarbeit!“

Auch wissenschaftlich wird das Projekt weitergeführt, indem zusätzliche Informationen über die Antikörper erhoben werden. Hierbei werden die beiden Wissenschaftler durch Forschungsgruppen des Fraunhofer-Instituts für Zelltherapie und Immunologie, Institutsteil Bioanalytik und Bioprozesse (IZI-BB) unterstützt. Analysen zum Bindungsverhalten der Antikörper werden durch die Arbeitsgruppe „Biomolekulare Nanostrukturen und Messtechnik“ durchgeführt und somit wichtige Charakteristika der Moleküle bestimmt.

Sellrie und Schenk sind keine Unbekannten auf dem Gebiet der Antikörperforschung. Seit über 20 Jahren arbeiten sie an der Entwicklung neuer monoklonaler Antikörper und sind mit ihrer vor 10 Jahren gegründeten Firma Hybrotec GmbH auch im Diagnostik Netzwerk Berlin-Brandenburg gut in der Region vernetzt. „Wir freuen uns, neben den Testentwicklungen in der Umwelt- und Lebensmittelanalytik, auch wieder an einem so wichtigen Projekt der Humandiagnostik zu arbeiten“, ergänzt Jörg Schenk. „In der Infektionsdiagnostik waren wir in den letzten Jahren zu Hepatitis E und MERS-CoV, einem anderen Coronavirus, aktiv.“

Selbstverständlich stehen die Antikörper nun auch für weitere interessierte Kooperationspartner zur Verfügung.

Wissenschaftliche Ansprechpartner:
Dr. Frank Sellrie,
UP Transfer GmbH an der Universität Potsdam
Am Neuen Palais 10
14469 Potsdam
Tel.: +49 331 58187231
frank.sellrie@up-transfer.de

Weitere Informationen:
http://www.up-transfer.de

(nach oben)


Studie in Tansania: Traditionelle Ernährung verursacht weniger Entzündungen

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
In den Städten Afrikas ernähren sich die Menschen eher nach westlicher Art, während in ländlichen Gebieten eher eine traditionelle Ernährung üblich ist. Das hat Folgen: Tansanier, die in Städten leben, haben ein stärker aktiviertes Immunsystem im Vergleich zu ihren Mitmenschen auf dem Land. Ein internationales Forscherteam betont in einer aktuellen Studie, dass diese erhöhte Aktivität des Immunsystems zum raschen Anstieg der nicht übertragbaren Krankheiten in städtischen Gebieten in Afrika beitragen könnte. Erkenntnisse, aus denen auch die westliche Welt lernen könnte.

Tansanier, die in Städten leben, haben ein stärker aktiviertes Immunsystem im Vergleich zu ihren Mitmenschen auf dem Land. Eine Erklärung dafür scheint die unterschiedliche Ernährung zu sein: In den Städten ernähren sich die Menschen eher nach westlicher Art, während in ländlichen Gebieten eher eine traditionelle Ernährung üblich ist. Ein Team von Forschern des Radboud university medical center in den Niederlanden, des LIMES-Instituts der Universität Bonn, des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) und des Kilimanjaro Clinic Research Centers in Tansania betont in einer aktuellen Studie, dass diese erhöhte Aktivität des Immunsystems zum raschen Anstieg der nicht übertragbaren Krankheiten in städtischen Gebieten in Afrika beitragen könnte. Die Studie ist in der Fachzeitschrift Nature Immunology erschienen.

Die Untersuchung wurde unter mehr als 300 Tansaniern durchgeführt, von denen einige in der Stadt Moshi und einige auf dem Land leben. Das Team fand heraus, dass die Immunzellen der Teilnehmer aus Moshi mehr entzündliche Proteine produzierten. Die untersuchten Personen hatten keine gesundheitlichen Probleme und waren nicht krank, aber ein aktiviertes Immunsystem kann das Risiko für Zivilisationskrankheiten wie Herz-Kreislauf-Erkrankungen erhöhen.

Die Wissenschaftler nutzten neue Techniken, um die Funktion des Immunsystems und die Faktoren, die seine Aktivität beeinflussen, zu untersuchen. Sie sahen sich aktive RNA-Moleküle im Blut – das sogenannte Transkriptom – und die Zusammensetzung von Stoffwechselprodukten im Blut an.

Große Unterschiede in der Ernährung
Die Analysen zeigten, dass Stoffwechselprodukte aus der Nahrung einen Einfluss auf das Immunsystem haben. Teilnehmer aus ländlichen Gebieten hatten höhere Werte an Flavonoiden und anderen entzündungshemmenden Substanzen im Blut. Die traditionelle ländliche tansanische Ernährung, die reich an Vollkorn, Ballaststoffen, Obst und Gemüse ist, enthält hohe Mengen dieser Substanzen.

„Bei Menschen mit einer städtischen Ernährung, die mehr gesättigte Fette und verarbeitete Lebensmittel enthält, wurden erhöhte Werte von Metaboliten gefunden, die am Cholesterinstoffwechsel beteiligt sind“, sagt Prof. Dr. Mihai Netea, Forscher am LIMES-Institut und Exzellenzcluster ImmunoSensation2 der Universität Bonn und am Radboud university medical center in den Niederlanden. Er und seine Kollegen fanden auch eine saisonale Veränderung in der Aktivität des Immunsystems. In der Trockenzeit, die im Untersuchungsgebiet die Zeit der Ernte ist, hatten die Stadtbewohner ein weniger aktiviertes Immunsystem.

Westliche Länder können von den Ergebnissen lernen
Es ist schon länger bekannt, dass ein westlicher Lebensstil und westliche Ernährungsgewohnheiten zu chronischen Krankheiten führen. Prof. Dr. Joachim Schultze vom DZNE und LIMES-Institut unterstreicht: „Wir haben gezeigt, dass eine traditionelle tansanische Ernährung einen positiven Effekt auf Entzündungen und die Funktion des Immunsystems hat. Das ist wichtig, weil nicht nur in Tansania, sondern auch in anderen Teilen Afrikas eine rasante Verstädterung im Gange ist.“ Die Migration vom Land in die Stadt führe zu Veränderungen in der Ernährung und gehe mit einem rasanten Anstieg von Zivilisationskrankheiten einher, was die lokalen Gesundheitssysteme stark belastet. Die Forscher betonen, dass Prävention wichtig sei, und die Ernährung dabei eine wichtige Rolle spielen könne.

Darüber hinaus sind diese Erkenntnisse aus Afrika auch für westliche Länder relevant. Die Urbanisierung hat in den meisten westlichen Ländern schon vor langer Zeit stattgefunden. Durch die Untersuchung von Populationen in verschiedenen Stadien der Urbanisierung haben die Forscher daher einzigartige Möglichkeiten, ihr Verständnis darüber zu verbessern, wie Ernährung und Lebensstil das menschliche Immunsystem beeinflussen.

Beteiligte Institutionen und Förderung:
Die Studie wurde durch das EU-Rahmenprogramm „Horizon 2020“ über die sogenannte Joint Programming Initiative „A healthy diet for a healthy life“ (JPI-HDHL), den niederländischen Zuschussgeber ZonMw, die Deutsche Forschungsgemeinschaft und die Radboud University gefördert. Die Forschung ist Teil der TransMic-Studie, einem internationalen Projekt über die „Verwestlichung“ der Ernährung und ihre gesundheitlichen Folgen. In diesem Projekt arbeiten die Forscher des Radboud university medical center und des LIMES-Instituts der Universität Bonn mit Kollegen von Universitäten in Italien, Tansania und Burkina Faso zusammen, um die Auswirkungen der Ernährung auf das Immunsystem in verschiedenen Stadien des demografischen Übergangs und der Urbanisierung zu untersuchen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mihai G. Netea
LIMES-Institut der Universität Bonn, Radboud university medical center
Tel.: +31 243618819
E-Mail: Mihai.Netea@radboudumc.nl

Prof. Dr. Joachim L. Schultze
Deutsches Zentrum für Neurogenerative Erkrankungen; LIMES-Institut der Universität Bonn
Tel.: +49 228 43302-410
E-Mail: joachim.schultze@dzne.de

Originalpublikation:
Godfrey S. Temba, Vesla Kullaya, Tal Pecht, Blandina T. Mmbaga, Anna C. Aschenbrenner, Thomas Ulas, Gibson Kibiki, Furaha Lyamuya, Collins K. Boahen, Vinod Kumar, Leo A.B. Joosten, Joachim L. Schultze, Andre J. van der Ven, Mihai G. Netea, Quirijn de Mast: Urban living in healthy Tanzanians is associated with an inflammatory status driven by dietary and metabolic changes. Nature Immunology, DOI: 10.1038/s41590-021-00867-8

Weitere Informationen:
https://www.nature.com/articles/s41590-021-00867-8 Original publication in Nature Immunology

(nach oben)


ACHEMA Pulse – das neue digitale Flagschiff für die Prozessindustrie setzt Segel

Marina Korogodska Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
Die ACHEMA Pulse am 15. und 16. Juni 2021 ist die Premiere für ein brandneues Veranstaltungsformat. Hauptziel der weltweiten virtuellen Live-Veranstaltung ist es, Menschen, Ideen und Technologien zusammenzubringen, um Möglichkeiten der Zusammenarbeit zu erkunden und neue Kontakte zu knüpfen. Ein starker Fokus liegt dabei auf innovativen Matchmaking-Gelegenheiten.

Neue Geschäftskontakte zu knüpfen und aktuelle Entwicklungen mit Industrieexperten aus aller Welt zu diskutieren, wurde in den letzten Monaten schmerzlich vermisst. Die ACHEMA Pulse ist ein neues digitales Format, das ACHEMA und AchemAsia ergänzt und sich an die globale Prozessindustrie richtet. Die zweitägige Veranstaltung bietet das, was Industrieexperten und Entscheidungsträger suchen: Inspirierende Vorträge und Diskussionsrunden, die von Live-Bühnen aus Frankfurt übertragen werden; außerdem ein kompaktes Kongressprogramm, das Trends und Entwicklungen aus allen Bereichen der chemischen und pharmazeutischen Industrie umfassst. Aussteller präsentieren ihre Technologien und Lösungen auf der digitalen Plattform, ergänzt um Videos, Vorträge und Workshops. Das Algorithmen-gestützte Matchmaking ermöglicht den Teilnehmern sowohl, gezielt Experten anzusprechen und zu treffen als auch neue Kontakte auf Basis ihres Profils zu knüpfen. Dank integrierter Kommunikationswerkzeuge lassen sich gemeinsame Interessen einfach, bequem und schnell eruieren. Die Organisatoren möchten mit der ACHEMA Pulse das interaktivste Digital-Event schaffen, das die Prozessindustrie bisher erlebt hat.

Der Geschäftsführer der DECHEMA Ausstellungs-GmbH Dr. Thomas Scheuring ist optimistisch, dass die ACHEMA Pulse einen wertvollen Beitrag zum diesjährigen digitalen Veranstaltungskalender darstellt: „Die ACHEMA Pulse wird getreu dem ganz speziellen Charakter der ACHEMA den treibenden Kräften und Impulsgebern der weltweiten Prozessindustrie innovative Ideen und ein sehr breites Technologie- und Dienstleistungsspektrum vorstellen.“ ACHEMA Pulse ist dank der großen Erfahrung der Organisatoren auf die virtuelle Umgebung zugeschnitten. Der stellvertretende Geschäftsführer und Verantwortliche für die ACHEMA Pulse Dr. Björn Mathes ergänzt: „Die Pulse-Plattform geht weit über die üblichen Limitierungen digitaler Messen hinaus. Unser Ziel ist es, eine einzigartige Lern- und Networking-Umgebung zu schaffen, auf der man gerne und einfach Geschäftsbeziehungen knüpfen kann.“ ACHEMA Pulse setzt besonders auf die Stärken eines Online-Formats. Die zeitlichen Abläufe sind so gestaltet, dass hochrangige Sprecher aus aller Welt ebenso dabei sein können wir ein globales Publikum.

Ungewöhnliche Ansätze sind dabei ausdrücklich willkommen, besonders in den Sessions, die der Innovation gewidmet sind. Dazu gehören das Finale der ACHEMA Innovation Challenge, aber auch die Vorstellung der Finalisten des ACHEMA Gründerpreises.
Die Plattform und ihre Möglichkeiten werden in den nächsten Wochen in mehreren Webcasts vorgestellt. „Eine Woche nach dem offiziellen Auftakt sieht es so aus, als seien wir auf einem guten Weg“, sagt Andreas Konert, Leiter Business Development und Vertrieb.“Die ersten Rückmeldungen von Ausstellern sind sehr ermutigend, und die Plätze in den Informationswebinaren für interessierte Aussteller füllen sich schnell.“
Alle Informationen zu Daten, Anmeldung und sonstigen Fragen unter www.achema.de

Weitere Informationen:
http://www.achema.de

(nach oben)


Wie beeinträchtigt der Biokraftstoff E10 Filtersysteme im Auto?

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Seit rund zehn Jahren können Autofahrer den Biokraftstoff E10 tanken. In ihm sind circa 5 bis 10 Prozent Bioethanol enthalten. Dieser teilweise Ersatz fossiler Kraftstoffe durch Bioethanol verändert die Verhältnisse für die Kraftstoffdampfrückhaltesysteme (KDRS) in den Autos. Welchen Einfluss dies genau hat, untersuchten Forscher*innen des Fraunhofer UMSICHT und der Universität Siegen. Ein wichtiges Ergebnis lautet: Langfristig reduziert E10 die Funktionstüchtigkeit der Filter. Somit müssen diese über den Lebenszyklus eines Fahrzeugs hinweg kontinuierlich überwacht werden.

Für Kraftfahrzeuge mit Ottomotor sind Aktivkohlefilter (sog. Kraftstoffdampfrückhalte-systeme/KDRS) gesetzlich vorgeschrieben, um Benzindämpfe, die beim Stillstand oder während des Betriebes eines Fahrzeugs aus dem Tank entweichen, aufzufangen und in den Motor zu leiten. Die Funktionsweise der Aktivkohlefilter lässt sich vereinfacht in zwei Prozesse unterteilen: Beim Stillstand des Motors verdampft der Kraftstoff und wird mittels Adsorption an der Aktivkohle angelagert, Emissionen werden somit reduziert. Beim laufenden Motor wird die Umgebungsluft vom Motor angesaugt und über die Aktivkohle geführt. Dadurch werden die Kraftstoffkomponenten wieder freigesetzt – Desorption – und dem Motor zugeführt und dort verbrannt.

KDRS-Testanlage beim Fraunhofer UMSICHT
Im Rahmen des Kooperationsprojektes des Fraunhofer UMSICHT und der Universität Siegen wurde eine Anlage (genaue Beschreibung des Aufbaus siehe Fachartikel) entwickelt, mit der das Adsorptionsverhalten der Aktivkohle über viele Zyklen – bestehend aus Ad- und Desorption – messtechnisch begleitet werden kann. Ein Ausschuss aus Automobil-, Aktivkohle-, Aktivkohlefilter-, Bioethanol-Herstellern und Analyselabors begleitete das Projekt.

»Diese Anlage ermöglicht es nun, entsprechend der ‚Lebensdauer‘ eines PKW bis zu 300 Zyklen an kontrolliert konditionierten Aktivkohlen zu untersuchen. Wir analysierten insbesondere den Einfluss von Wasser in der Spül- bzw. Umgebungsluft auf den Filter. Dabei setzten wir einfaches ‚Modell-Benzin‘ (n-Pentan mit einem 10-prozentigen Ethanol-Anteil) ein«, erläutert Eva Schieferstein, Projektleiterin des Fraunhofer UMSICHT.

Regelmäßige Untersuchungen der Filter erforderlich
Derzeit werden KDRS im Rahmen der gesetzlichen Vorschriften mit Modellbenzinen (u.a. E10) bei einer relativen Luftfeuchtigkeit von 50 plus/minus 10 Prozent getestet. Dieser Test wird bisher nur einmalig vor dem Einbau der Systeme durchgeführt. Im Rahmen des Projektes haben vergleichende Versuche ergeben, dass ein Zusatz von Ethanol zu Benzin (hier: E10) in Gegenwart von höheren, realitätsnäheren Luftfeuchtigkeitswerten das Langfrist-Adsorptionsverhaltens der Aktivkohle verschlechtert. Bei steigender Zyklenzahl bzw. zunehmender Einsatzdauer des KDRS nimmt daher dessen Kapazität deutlich ab.

Dieser Effekt kann ohne Ethanol-Zusatz nicht in demselben Maße beobachtet werden. Somit besteht also die Gefahr, dass Biokraftstoff mehr Emissionen verursacht, wenn die Aktivkohlefilter nach langfristigem Einsatz nicht mehr ausreichend adsorbieren. Mit dem zurzeit für KDR-Systeme vorgeschriebenen Prüfverfahren werden deutlich längere Lebensdauern erreicht, da sie den Einfluss der Luftfeuchtigkeit auf das Abscheideverhalten der Aktivkohle nicht realitätsnah abbilden. Dies steht im Einklang mit Untersuchungen des TÜV Nord und des schwedischen TÜV, die gezeigt haben, dass es nach langfristigem Einsatz der Kraftstoffdampfrückhaltesysteme (KDRS) mit Biokraftstoffen vermehrt zu Ausfällen kommen kann.

Das Forschungsteam empfiehlt nun dringend, die Funktionstüchtigkeit der Aktivkohlefilter – beispielsweise im Rahmen der TÜV-Untersuchungen – regelmäßig zu untersuchen. Wichtig wäre zudem, im Prüfprozess die Rahmenbedingungen anzupassen und die relative Feuchtigkeit der Spülluft zu erhöhen. Die Testanlage des Fraunhofer UMSICHT steht nach Projektabschluss auch für externe Untersuchungen zur Verfügung.

Förderhinweis
Das Projekt wurde vom Bundesministerium für Ernährung und Landwirtschaft (BMEL), vertreten durch die Fachagentur Nachwachsende Rohstoffe e.V. (FNR), unter den Förderkennzeichen 22403015 und 22403115 gefördert.

Wissenschaftliche Ansprechpartner:
Eva Schieferstein
eva.schieferstein@umsicht.fraunhofer.de

Weitere Informationen:
https://doi.org/10.1515/teme-2019-0119 Fachartikel
https://www.umsicht.fraunhofer.de/de/kompetenzen/produktentwicklung.html Abteilung Produktentwicklung

(nach oben)


Mit KI den Parkdruck auf der Straße messen

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Wie viele Autos sind auf der Straße geparkt? Reicht der Platz für alle Autos, die dort abgestellt werden, oder wäre es sinnvoll, eine Bewohner-Parkzone einzurichten? Um diese Frage zu beantworten, muss die Kommune viel Zeit in manuelle Zählungen und Beobachtungen vor Ort investieren. In Kooperation mit der Stadt Karlsruhe untersucht das Fraunhofer IAO, wie man mit KI den Parkdruck messen und gestalten kann.

Die Anzahl von parkenden PKWs in Städten steigt und dies hat Auswirkungen auf den öffentlichen Raum. Die Parksituation kann sowohl in Innenstädten wie auch in ruhigeren Wohngebieten für die Bewohner*innen unüberschaubar werden: Immer mehr Fahrzeuge werden auf der Straße abgestellt und es kostet oft Zeit und Nerven, einen Parkplatz zu finden. In solchen Fällen kann die Kommune z.B. Bewohnerparken anordnen, muss dafür aber den Parkdruck durch Gutachten und Parkraumerhebungen nachweisen. Um Aufwand und Kosten in diesem Prozess zu reduzieren, startete das Forschungs- und Innovationszentrum Kognitive Dienstleistungssysteme (KODIS) des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO mit Unterstützung der Stadt Karlsruhe ein Pilotprojekt zur KI-gestützten Analyse des Parkdrucks.

Ein vielversprechendes Tandem aus Drohnen und KI
Bereits die ersten Phasen in der Parkdruckmessung werden erheblich optimiert: Die aufwändige manuelle Datenerfassung wird durch Videoaufnahmen per Drohne ersetzt. Während des Flugs werden mehrere Kamerabilder erstellt, aus denen die Gesamtübersicht des Testgebiets entsteht.
Im nächsten Schritt erfolgt eine Optimierung in der Auswertung der Daten: Statt die Daten mühsam manuell zu analysieren, wird KI eingesetzt. Hierfür wird ein Deep Learning-Algorithmus entwickelt und ein künstliches neuronales Netz trainiert, um alle Fahrzeuge auf den Bildern finden und pixelgenau lokalisieren zu können. Damit der Algorithmus abgestellte Fahrzeuge von fahrenden Autos unterscheiden kann, wird das Testgebiet in bestimmte Parkzonen aufgeteilt und diese mit Geodaten verknüpft. Die KI analysiert nur Bildinhalte in diesem Bereich und markiert anschließend die dort abgestellten Fahrzeuge. Als Ergebnis wird die Anzahl von abgestellten Fahrzeugen zu jeweiligem Zeitpunkt ausgegeben und die Daten über die Auslastung von jeder Parkzone werden berechnet.

Von KI auch im öffentlichen Leben profitieren
Der Einsatz von KI im industriellen Umfeld ist mittlerweile weit verbreitet und allgemein akzeptiert. Die Parkdruckanalyse mit KI ist ein schönes Beispiel dafür, dass Künstliche Intelligenz (KI) auch für Kommunen einen großen Nutzen bringen kann: Dank dem entwickelten Algorithmus kann die Auslastung von Stellplätzen automatisch ausgewertet werden. So werden Zeit und Kosten der manuellen Datenerhebung erheblich reduziert und Parkprobleme in ausgewählten Stadtgebieten können dementsprechend schneller gelöst werden.

Perspektivisch möchte das Fraunhofer IAO die KI-gestützte Parkdruckanalyse als digitalen Cloud-Service für Kommunen anbieten. »Mit unserer automatisierten Analyse von Luftbildern werden Kommunen einen raschen und kostengünstigen Überblick über das Straßenparkverhalten im gesamten Stadtgebiet erhalten«, sagt Dr. Bernd Bienzeisler, Leiter des Forschungs- und Innovationszentrums Kognitive Dienstleistungssysteme am Fraunhofer IAO.

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/mit-ki-den-parkdruc…

(nach oben)


MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich

Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH
Ergänzung vom 27.01.2021
Dass Fachleute in der Corona-Krise eine so starke Rolle spielen und ihre Expertise von der Politik so intensiv nachgefragt wird, hat viel mit der Struktur des Erkenntnisprozesses zu tun: Die Forschungssynthese, die Ergebnisse aus Einzelstudien zusammenträgt, bewertet, resümiert und für Politikberatung verfügbar macht, ist in den Gesundheitswissenschaften besonders gut organisiert; eine Schlüsselrolle spielt hier das 1993 gegründete globale Wissensnetzwerk Cochrane mit Sitz in London. Dieses Erfolgsmodell soll jetzt vom Gesundheitsbereich auf den Bereich der Klimapolitik-Beratung übertragen werden.

Ein Motor dieser Modernisierung ist das Berliner Klimaforschungsinstitut MCC (Mercator Research Institute on Global Commons and Climate Change). „Im Kampf gegen die Klimakrise ist es enorm wichtig, dass sich die Politik auf optimal aufbereitetes Wissen zu Handlungsoptionen stützen kann“, sagt Jan Minx, Leiter der MCC-Arbeitsgruppe Angewandte Nachhaltigkeitsforschung. „Politikberatung sollte so wenig wie möglich auf Basis von Einzelstudien erfolgen – sondern auf Basis von gesicherten Einsichten aus mehreren, unabhängig voneinander erstellten Studien. Wie in der Primärforschung hängt auch bei Forschungssynthese viel an der Nutzung und Weiterentwicklung von leistungsfähigen Methoden. Diesen Prozess wollen wir jetzt für das Feld der Klimapolitik-Lösungen mit der Gründung eines neuen internationalen Netzwerks unter dem Dach der Campbell Collaboration unterstützen.“

Die Campbell Collaboration mit dem Hauptstandort Oslo organisiert die Forschungssynthese im Bereich der Sozialwissenschaften. Minx ist nun Co-Vorsitzender der „Campbell Climate Solutions Coordinating Group“, die sich im vergangenen Jahr formal konstituierte und jetzt ihre Arbeit aufnimmt. Schon länger gibt es Campbell-Koordinierungsgruppen etwa zu Unternehmensführung, Bildung und Kriminalitätsbekämpfung; eine Liste mit 50 frei verfügbaren Forschungssynthesen, die angesichts der Corona-Pandemie für Entscheidungen im Sozialwesen relevant sind, findet sich hier. Die neue Gruppe zu Klimalösungen wird in erster Linie Orientierung schaffen durch die internationale Koordination relevanter Metastudien. Zudem wird sie wissenschaftliche Symposien organisieren und erstmals einen formalen Rahmen für globalen fachlichen Austausch bieten.

„Mit der Errichtung eines solchen Netzwerks wollen wir den Stand der Forschung zu Klima-Lösungen beleuchten“, erklärt Neal Haddaway, Senior Researcher am MCC und ebenfalls Co-Vorsitzender der neuen Gruppe. „Viele Akteure werden davon profitieren, wenn wir sozusagen Landkarten des Forschungswissens erstellen – und dadurch auch Wissenslücken besser erkennbar machen. Zum Beispiel brauchen wir noch besser gesicherte Einsichten darüber, wie gut verschiedene Instrumente der Klimapolitik unter unterschiedlichen ökologischen, sozialen und politischen Rahmenbedingungen jeweils funktionieren.“

Die Literatur zur Klimaforschung wächst rasant, mit aktuell mehreren Zehntausend Studien pro Jahr. Für das MCC als wissenschaftlichen Thinktank ist die Kompetenz zu Forschungssynthese ein zentraler Baustein, wenn es darum geht, der Politik evidenzbasiert Handlungsoptionen aufzuzeigen. Das wird ergänzt durch die ausgeprägte Kompetenz zur wissenschaftlichen Bewertung von konkreten Maßnahmen der Vergangenheit (im Policy Evaluation Lab), und von der Policy Unit wird die Schnittstelle des Instituts zu Politik und Gesellschaft konzeptionell und inhaltlich gestaltet.

Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/minx-jan.html

Originalpublikation:
• Leitartikel zur Gründung der Campbell Climate Solutions Coordinating Group (CSSG):
Berrang-Ford, L., Döbbe, F., Garside, R., Haddaway, N., Lamb, W., Minx, C., Viechtbauer, W., Welch, V., White, H., Editorial: Evidence synthesis for accelerated learning on climate solutions, 2021, Campbell Systematic Reviews
https://doi.org/10.1002/cl2.1128
• Website der CSCG:
https://campbellcollaboration.org/contact/coordinating-groups/climate-solutions….

Weitere Informationen:
https://www.mcc-berlin.net/
https://www.mcc-berlin.net/forschung/policy-evaluation-lab.html
https://www.mcc-berlin.net/politik-dialog/policy-analysis-unit.html

Anhang
MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich

Ergänzung vom 27.01.2021
Die in der PM erwähnte Liste mit 50 frei verfügbaren Campbell-Forschungssynthesen, die angesichts der Corona-Pandemie für Entscheidungen im Sozialwesen relevant sind, findet sich hier: https://onlinelibrary.wiley.com/doi/toc/10.1002/1891-1803.covid-19-reviews

(nach oben)


Wie beeinflusst die Pandemie unser Denken und Fühlen?

Stefan Zorn Stabsstelle Kommunikation
Medizinische Hochschule Hannover
MHH-Forschungsgruppe will mit zweiter deutschlandweiter Corona-Umfrage die Auswirkungen des Lockdowns erfassen

Die Corona-Pandemie dauert an und mit ihr die immer stärkeren Einschränkungen in Berufs- und Privatleben. Bereits zu Beginn der ersten Infektionswelle im vergangenen Jahr haben Wissenschaftlerinnen und Wissenschaftler des Zentrums für Seelische Gesundheit der Medizinischen Hochschule Hannover (MHH) eine der ersten und größten Umfragen zu den Auswirkungen der Krise auf die Psyche erstellt. Dabei konnten sie zeigen, dass das Auftreten der Corona-Pandemie und die zu ihrer Eindämmung getroffenen Maßnahmen vermehrt zu Stress, Angst, depressiven Symptomen, Schlafproblemen, Reizbarkeit, Aggression und häuslicher Gewalt führten. Nun geht die webbasierte Studie in eine zweite Erhebungsphase. Neben dem psychischen Befinden nehmen die Wissenschaftler jetzt verstärkt auch die persönliche Haltung der Menschen in Deutschland in den Blick.

Schwindende Akzeptanz erwartet
„Wir möchten wissen, wie es den Bürgerinnen und Bürgern dieses Landes geht und was sie bewegt“, sagt Professor Dr. Tillmann Krüger, Leiter der Studie. „Außerdem geht es uns darum, die individuellen Hintergründe und Positionen der Menschen in Bezug auf die Pandemie und die getroffenen Maßnahmen zu erfassen.“ Dies sei eine Möglichkeit, die unterschiedlichen Reaktionen besser zu verstehen. Die Wissenschaftler erwarten eine anhaltende psychosoziale Belastung und – abhängig von der individuellen Situation – eine schwindende Akzeptanz der Anordnungen, die den Alltag der Bürger einschneidend verändert haben. Noch in der ersten Erhebung im April vergangenen Jahres gaben 60 Prozent der mehr als 3500 Teilnehmenden an, sehr gut oder gut mit der veränderten Situation und den entsprechenden Maßnahmen klarzukommen. Knapp ein Drittel der Befragten hingegen erklärten, schlecht oder sehr schlecht mit der Situation umgehen zu können. Dabei wiesen Frauen signifikant höhere Depressions- und Angstwerte auf als Männer.

Wie schon die erste Erhebung, beinhaltet auch die aktuelle Umfrage unterschiedliche Fragen zu aktuellem Befinden, Erleben und der jeweiligen Lebenssituation. Die webbasierte systematische Erfassung erfolgt anonym mit Hilfe von Selbstbeurteilungsskalen. Alle Bürgerinnen und Bürger ab 18 Jahren sind unter folgendem Link eingeladen, an der Erhebung teilzunehmen: https://ww2.unipark.de/uc/mhh_covid2021.

Weitere Informationen erhalten Sie bei Professor Dr. Tillmann Krüger, krueger.tillmann@mh-hannover.de, Telefon (0511) 532-3171.

Die Originalarbeit zur ersten Studie „Mental Health, Sense of Coherence, and Interpersonal Violence During the COVID-19 Pandemic Lockdown in Germany” finden Sie unter: https://www.mdpi.com/2077-0383/9/11/3708

Informationen zu den Ergebnissen einer ersten Auswertung der bisher erhobenen Daten finden Sie unter https://corona.mhh.de/corona-news-aus-der-mhh#c22157

(nach oben)


CO2 ist nicht alles: Klimapolitik braucht stärkeren Fokus auf kurzlebige Schadstoffe

Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Bei der Begrenzung des Klimawandels geht nicht nur um CO2. Auch die sogenannten kurzlebigen klimawirksamen Schadstoffe wie Ruß, Methan und bodennahes Ozon haben einen erheblichen Einfluss. Um sie stärker zu regulieren, ist eine bessere Kommunikation über ihre Auswirkungen notwendig.

In der Klimapolitik ist es üblich, alle wärmenden Schadstoffe zusammenzufassen und ihre Gesamtwirkung in Form von CO2-Äquivalenten auszudrücken. Die „Äquivalenz“ basiert dabei auf dem Vergleich der Klimawirkung auf einer 100-Jahres-Zeitskala. Das ist problematisch, wie IASS-Wissenschaftlerin Kathleen Mar in einem neuen Forschungsartikel erläutert: „Tatsächlich sind Klimatreiber nicht einfach ‚äquivalent‘ – ihre Auswirkungen auf das Klima und die Ökosysteme unterscheiden sich. Kurzlebige klimawirksame Schadstoffe haben einen großen Einfluss auf kurzfristige Klimaänderungen, während CO2 das langfristige Klima stärker beeinflusst.“ Die 100-Jahres-Skala führe dazu, dass die Wirkungen der kurzfristigen klimawirksamen Schadstoffe (SLCPs) unterschätzt werden – und in der Folge auch die positiven Auswirkungen ihrer Reduzierung.

Reduzierung von SLCPS bringt Vorteile für Klima, Gesundheit und Ernte
Eine der schädlichsten Eigenschaften von CO2 ist, dass es sich langfristig in der Atmosphäre anreichert. SLCPS haben im Vergleich zu CO2 nur eine kurze Verweildauer. Auf eine Reduzierung reagieren die Atmosphäre und das Klimasystem daher viel schneller.

Aus politischer Sicht sei das ein Vorteil, argumentiert Mar: „Die kurzfristige Klimaerwärmung wird verlangsamt, die Luftverschmutzung reduziert, die Ernteerträge verbessern sich – das sind positive Auswirkungen, die die Bürgerinnen und Bürger heute und in naher Zukunft erfahren können.“ Es gebe auch Hinweise, dass eine rasche Reduzierung der SLCP-Emissionen das Risiko verringere, an kritische Schwellen im Klimasystem zu gelangen – die so genannten Kipppunkte, die zu unumkehrbaren Veränderungen führen. Engagiertes Handeln würde also auch mehr Zeit für Anpassungsmaßnahmen an den Klimawandel gewähren.

Technologien und Praktiken zur Reduzierung von SLCP-Emissionen gibt es bereits, viele sind auch wirtschaftlich, zum Beispiel die Verwertung von Deponiegas zur Energiegewinnung. Um SLCPs weiter zu reduzieren, müssten sich aber auch andere Sektoren umstellen. Die Landwirtschaft und die Abfallwirtschaft müssen ihre Methan- und Rußemissionen reduzieren, die Industrie ihre Verwendung von Fluorkohlenwasserstoffen (HFKWs) als Kältemittel.

Wirksamer Klimaschutz darf SLCPS nicht ignorieren
Als Grundlage für eine engagiertere SLCP-Politik sieht Mar eine klare Kommunikation über die unterschiedlichen Zeithorizonte, die für die CO2- und SLCP-Minderung relevant sind: „Um die Folgen des Klimawandels abzumildern, müssen wir sowohl die kurzfristigen als auch die langfristigen Klimaauswirkungen minimieren. Die Vorteile der Reduzierung von kurzfristigen klimawirksamen Schadstoffen werden aber einfach nicht erfasst, wenn man die 100-Jahre-Zeitskala als einzigen Maßstab für die Bewertung der Klimaauswirkungen verwendet.“

Mehrere Länder haben die Vorteile der SLCP-Reduzierung erkannt und sie zu einem zentralen Element ihrer nationalen Klimastrategien gemacht. Einige, zum Beispiel Chile, Mexiko und Nigeria, haben SLCPs bereits in ihre nationalen Verpflichtungen unter dem Pariser Abkommen aufgenommen. Wenn weitere Regierungen diesem ganzheitlichen Ansatz des Klimaschutzes folgen, so Mar, werde dies ein Gewinn nicht nur für das Klima, sondern auch für Luftqualität, Gesundheit und nachhaltige Entwicklung insgesamt sein.

Wissenschaftliche Ansprechpartner:
Dr. Kathleen Mar
Kathleen.Mar@iass-potsdam.de

Originalpublikation:
Kathleen A. Mar, Putting the brakes on climate change – it’s about more than just CO2, Climanosco Research Articles 3, 14 Jan 2021, https://doi.org/10.37207/CRA.3.1

(nach oben)


Plastik in der Umwelt finden und vermeiden

Alexander Knebel Presse- und Öffentlichkeitsarbeit
Zuse-Gemeinschaft
In der Corona-Krise zeigen Kunststoffe ihren Mehrwert und zugleich auf den Handlungsbedarf beim Kampf gegen Umweltverschmutzung. Denn während Kunststoffe z.B. in Medizinprodukten oder Lebensmittelverpackungen der Gesundheit dienen, werden sie falsch entsorgt als Makro- und Mikroplastik zur Gefahr. Forschende aus der Zuse-Gemeinschaft beschreiten mit innovativen Monitoring- und Analysetools neue Wege bei der Erfassung und Bestimmung solcher Stoffe. Teil 1 unserer Serie zur Vermeidung von Plastik in der Umwelt fokussiert auf großes Mikro- und auf Makroplastik.

Welch große Verantwortung sowohl Verbraucher als auch Handel und Industrie tragen, damit weniger Kunststoff in die Umwelt gelangt, zeigt das aktuelle, vom Bundesforschungsministerium geförderte Projekt InRePlast. In dem Verbundprojekt hat das Forschungsinstitut für Wasser- und Abfallwirtschaft (FiW) in vier Gemeinden im Raum Aachen, vom Dorf bis zur Großstadt, Plastikreste systematisch gesammelt, katalogisiert und klassifiziert. Die Forschenden erfassten Partikel aus großem Mikroplastik (1-5 mm) ebenso wie Makroplastik mit noch sichtbarem ebenso wie mit nicht mehr erkennbarem Produktursprung. „Nach einjähriger Arbeit mit einem Stab von acht Forschenden haben wir rund 165 verschiedene Produkte und Vor-Produkte aus Makro- und großem Mikroplastik im Abwasser identifiziert“, erklärt FiW-Projektleiter Dr. Marco Breitbarth. Untersuchungsorte waren die Kläranlagen der Gemeinden, aber auch Niederschlagsabläufe auf Verkehrswegen. Von den Straßen bringt Niederschlagswasser Fremdstoffe häufig in Gewässer.

In den Kläranlagen überall unter den „Top5“ bei den Kunststoffprodukten zu finden: Zigarettenfilter. Ihr Anteil am vom FiW erfassten Mikro- und Makroplastik reichte dort je nach Standort von 9 bis 28 Prozent. Eine weitere Problemkategorie sind Bestandteile von Hygieneartikeln. Tampon- und Bindenverpackung ebenso wie Wattestäbchen waren an allen vier Kläranlagen unter den „Top20“ der gefundenen und katalogisierten Kunststoffprodukte. Bei den Verbundmaterialien wie auch insgesamt nahm die Kategorie Feucht-/Desinfektionstücher/Küchenpapier die traurige Spitzenposition ein.

Was die Kläranlage nicht stoppt
„All diese Dinge gehören nicht in die Toilette, zumal je nach Wetterlage erhebliche Mengen Schmutzwasser aus der Kanalisation zuweilen nicht in die Klärwerke gelangen. Bei Starkregen werden z.B. häufig Abwasserströme in Überlaufbecken gelenkt, die bei Überschreitung der Kapazitätsgrenzen ungeklärtes Abwasser in die Gewässer einleiten – so dass achtlos weggeworfene Verpackungen und Kunststoffprodukte zum großen Umweltproblem geworden sind“, warnt Breitbarth. Laut Schätzungen des Umweltbundesamtes (UBA) erreichen die nicht in Klärwerken behandelten Abschläge aus der Mischkanalisation in Deutschland jährlich ein Volumen von rd. 1,3 Mrd. Kubikmeter (cbm), während sich die ebenfalls nicht von Klärwerken erfasste Einleitung von Niederschlagswasser auf eine Menge von knapp 4 Mrd. cbm beläuft. Die hingegen in Kläranlagen erfasste Abwassermenge erreicht rd. 9,9 Mrd cbm.

Verhaltensänderung nicht nur bei Verbrauchern notwendig
Nicht nur die Verbraucher müssen ihr Verhalten ändern, wie die Zwischenergebnisse des bis Ende 2021 zusammen mit Verbundpartnern laufenden Projekts deutlich machen. So waren Kügelchen aus der Kunststoffindustrie, so genannte Pellets, an drei der vier Klärwerks-Standorte des Projekts unter den „Top 10“ der vom FiW gefundenen Produkte. Auch an Straßenrändern fanden die Forschenden laut Breitbarth immer wieder Kunststoff-Pellets, die genaue Auswertung steht noch bevor. „Zwar hat die Kunststoffindustrie immer wieder Info-Kampagnen zur Vermeidung von Produktausträgen aufgelegt, doch müssen die Gefahren offenbar noch deutlicher gemacht werden. Angesichts von rund 3.000 klassischen Kunststoffverarbeitern in Deutschland und vielen weiteren Unternehmen, die Kunststoffe nutzen, ist das eine zentrale Aufgabe“, betont der Forscher des FiW, einem Mitglied der Zuse-Gemeinschaft. Eine weitere wichtige Zielbranche zur Vermeidung von Kunststoffeinträgen in die Umwelt ist für ihn die Baubranche, die u.a. beim Umgang mit Dämmmaterialien an Häusern besonders umsichtig sein muss, so bei der Verwendung von Styropor. Bei InRePlast geht es nach der Umwelt-Analyse nun im letzten Projektabschnitt an die Formulierung von Handlungsempfehlungen, u.a. für Kommunen.

Weitere Informationen:
https://www.zuse-gemeinschaft.de/presse/pressemitteilungen

Anhang
PM der Zuse-Gemeinschaft: Mikroplastik finden und vermeiden

(nach oben)


Folgen des Klimawandels an der Küste

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
Forschungsergebnisse aus dem BMVI-Expertennetzwerk zum Einfluss
des Klimawandels auf Seeschifffahrtstraßen – Durch den Klimawandel werden sich äußere Einflüsse auf den Betrieb und die Unterhaltung der Seehafenzufahrten und Seehäfen, wie zum Beispiel der Meeresspiegel oder der binnenseitige Abfluss, ändern. Für strategische und langfristige Investitionsentscheidungen hinsichtlich der Wasserstraßen- und Hafeninfrastruktur entstehen dadurch wichtige Fragen.

Wie werden sich Meeresspiegelanstieg, Abflussänderung und andere klimawandelbedingte Veränderungen auf die Seehäfen auswirken? Kann die Sicherheit und Leichtigkeit des Schiffsverkehrs sowie die Erreichbarkeit der Häfen in Zukunft gewährleistet werden? Welche Anpassungsmaßnahmen sind gegebenenfalls notwendig und nachhaltig?

Auch im Hinblick auf die Umweltverträglichkeitsprüfung geplanter Maßnahmen an den Bundeswasserstraßen ist die Forschung zu Fragen des Klimawandels bedeutend. Im Rahmen der Umweltverträglichkeitsprüfung muss sowohl die Widerstandsfähigkeit des geplanten Vorhabens gegenüber den Folgen des Klimawandels als auch die Rückwirkungen des Vorhabens auf das Klima auf Basis wissenschaftlicher Erkenntnisse untersucht werden. Diese Fragestellungen können nur in interdisziplinärer Zusammenarbeit beantwortet werden. Hierfür bietet das behördenübergreifend angelegte BMVI-Expertennetzwerk die geeigneten Strukturen.

Zum Hintergrund: Internationale Seehäfen, wie zum Beispiel der Hamburger Hafen, bilden wichtige Knotenpunkte in der Verkehrsinfrastruktur. Von hier werden Güter in die ganze Welt verschifft bzw. ankommende Güter auf Schiene, Straße und Wasserstraße weitertransportiert. Die Häfen sind in vielen Fällen über Flüsse mit dem Meer verbunden. Von der Nordsee kommend erfolgt z. B. die Zufahrt zum Hamburger Hafen entlang des Elbeästuars . Als Folge des Klimawandels sind gravierende Auswirkungen sowohl auf die verkehrliche Nutzung der Ästuare als auch auf den Naturraum zu erwarten.

Im Rahmen des BMVI-Expertennetzwerks werden bei der Bundesanstalt für Wasserbau (BAW) mithilfe eines hochaufgelösten dreidimensionalen numerischen Modells der Deutschen Bucht und der Ästuare von Ems, Jade-Weser und Elbe komplexe Prozesse wie die Tidedynamik sowie der Transport von Salz, Wärme und Sediment für heutige und mögliche zukünftige Verhältnisse simuliert. Die bisherigen Untersuchungen haben gezeigt, dass eine hohe Auflösung der küstennahen Topographie im Modell für die Abschätzung der Auswirkungen des Meeresspiegelanstiegs besonders wichtig ist.

Weiterhin zeigen die Modellergebnisse, dass aufgrund des Meeresspiegelanstiegs mit einer Zunahme der Strömungsgeschwindigkeiten während der Flutphase in den Rinnen des Wattenmeers und den Ästuaren zu rechnen ist. Der Flutstrom wird in vielen Bereichen relativ zum Ebbstrom stärker. Vorausgesetzt, dass genügend Sediment vorhanden ist, nimmt der Sedimenttransport in die Ästuare und ins Wattenmeer zu. Für die Ästuare bedeutet dies, dass als Folge des Klimawandels mit erhöhten Baggermengen gerechnet werden muss, falls sich die Wassertiefe aufgrund des erhöhten Sedimentimports und damit verbundener Sedimentation stärker verringert als sie sich durch den Meeresspiegelanstieg vergrößert. Für das Wattenmeer heißt das, die Watten können aufwachsen. Dennoch ist bei einem beschleunigten Meeresspiegelanstieg mit einem Verlust an Wattflächen zu rechnen, da die morphologische Anpassungsfähigkeit begrenzt ist. Die Abschätzung der zukünftigen topographischen Entwicklung der Watten und der Ästuare stellt neben dem Umgang mit anderen mit dem Klimawandel verbundenen Unsicherheiten eine große Herausforderung dar.

Aufgrund ihrer dissipierenden Wirkung auf die Tideenergie haben die Wattgebiete eine hohe Bedeutung. Ein Verlust oder eine Reduzierung der Wattgebiete könnte die Tidedynamik in den Ästuaren verstärken sowie den Küstenschutz beeinträchtigen. Aber auch der einzigartige Lebensraum Wattenmeer wäre bedroht. Aus diesem Grund wird im BMVI-Expertennetzwerk auch an Maßnahmen geforscht, die ein Aufwachsen der Watten bei einem beschleunigten Anstieg des Meeresspiegels fördern.

Das BMVI-Expertennetzwerk ist das verkehrsträgerübergreifende Forschungsformat in der Ressortforschung des BMVI. Unter dem Leitmotiv „Wissen – Können – Handeln“ haben sich sieben Ressortforschungseinrichtungen und Fachbehörden des Bundesministeriums für Verkehr und digitale Infrastruktur 2016 zu einem Netzwerk zusammengeschlossen. Ziel ist es, drängende Verkehrsfragen der Zukunft unter anderem in den Bereichen Klimawandel, Umweltschutz, alternde Infrastruktur und Digitalisierung zu erforschen und durch Innovationen eine resiliente und umweltgerechte Gestaltung der Verkehrsträger zu ermöglichen.

Wissenschaftliche Ansprechpartner:
Dr. rer. nat. Rita Seiffert
rita.seiffert@baw.de

Weitere Informationen:
https://www.bmvi-expertennetzwerk.de/DE/Home/home_node.html

(nach oben)


Höhere Tierwohlstandards lassen Milchpreise steigen

Finja Thiede Pressestelle
Fachhochschule Kiel
In einer Studie untersuchten Forscher*innen des ife Instituts für Ernährungswirtschaft Kiel und der Fachhochschule Kiel erstmals die Kosten höherer Tierwohlstandards bei der Milchproduktion und die daraus resultierenden Preiserhöhungen für Milch im Einzelhandel. Die Berechnungen ergaben, dass eine Preissteigerung von 10 bis 20 Cent pro Liter nötig wäre, um die Mehrkosten für Produzent*innen und Molkereien zu decken. Die Autor*innen sprechen sich für die Einführung eines staatlichen Tierwohllabels aus. Es könnte für mehr Transparenz bei der Milchproduktion sorgen und die Bereitschaft von Verbraucher*innen steigern, mehr für Milch zu bezahlen, die unter höheren Tierwohlstands produziert wird.

Was kostet die Einhaltung höherer Tierwohlstandards bei der Milchproduktion? Wie hoch müsste der Preisaufschlag ausfallen, damit Landwirt*innen und Molkereien ihre Zusatzkosten decken können? Dies haben Forscher*innen des ife Instituts für Ernährungswirtschaft Kiel (ife Kiel) und der Fachhochschule (FH) Kiel in einer gemeinsamen Studie erstmals untersucht. Ihre Ergebnisse sollen vor allem Produzent*innen helfen, die Kosten und langfristigen Folgen einer Umstellung auf Milch mit höheren Tierwohlstandards abschätzen zu können.

Immer mehr Konsument*innen achten beim Kauf tierischer Produkte auf die Einhaltung von Tierwohlstandards. Doch eine generelle Kennzeichnungspflicht gibt es nicht, stattdessen erschweren eine Fülle unterschiedlicher Labels eine Orientierung und Bewertung. In ihrer Studie verglichen die Fachleute des ife Kiel und der FH Kiel zunächst die Anforderungen der unterschiedlichen Labels, erfassten die Präferenzen der Verbraucher*innen hinsichtlich der Einhaltung von Tierwohlstandards und ermittelten die Mehrkosten für die Betriebe und den Aufwand, der für Molkereien durch ein zusätzliches Angebot von Tierwohlmilch entsteht.

Die betrieblichen Mehrkosten erhoben die Forscher*innen durch eine Befragung der Betriebsbedingungen von 235 Milchbetrieben aus acht Bundesländern. Auf deren Basis berechneten sie, welche Investitionen notwendig wären, um höhere Tierwohlstandards zu erreichen. Als Referenz nutzen sie das Tierwohllabel „Für mehr Tierschutz“ vom Deutschen Tierschutzbund e.V., das nach ihrer Analyse die höchsten Standards an die Haltung von Milchkühen setzt und in eine Einstiegs- und eine Premiumstufe unterteilt ist. In der Einstiegsstufe betragen die Mehrkosten für die Betriebe im Durchschnitt 2,28 Cent pro Liter, in der Premiumstufe durchschnittlich 2,64 Cent pro Liter, mit hohen Variationen je nach betrieblicher Ausgangssituation. In den Molkereien belaufen sich die Mehrkosten auf 5,7 bis 18,9 Cent pro Liter.

„Eine nach höheren Standards produzierte Milch müsste im Endeffekt mindestens 10 bis 20 Cent mehr kosten“, sagt Prof. Dr. Holger Thiele (FH Kiel) und fährt fort: „Das wollen aber die wenigsten zahlen, obwohl sie sich höhere Tierwohlstandards wünschen.“ Einen Grund dafür sehen die Forscher*innen in der geringen Bekanntheit einzelner Tierwohllabels. Viele Verbraucher*innen wüssten nicht, woran sie Produkte mit höheren Tierwohlstandards erkennen könnten. Der Mehrwert durch die Einhaltung von Tierwohlstandards müsste klar nachvollziehbar und vertrauenswürdig dargestellt werden. Dies könne zum Beispiel durch ein einheitliches und leicht verständliches staatliches Tierwohllabel erreicht werden. Eine gesetzlich verpflichtende Kennzeichnung aller tierischen Produkte würde außerdem sicherstellen, dass das Label schnell einen hohen Bekanntheitsgrad erlangt.

Wissenschaftliche Ansprechpartner:
Fachhochschule Kiel
Prof. Dr. Holger Thiele
E-Mail: holger.thiele@fh-kiel.de

Weitere Informationen:
http://www.tierschutzlabel.info Hier finden Sie Informationen zu den Anforderungen des Labels „Für mehr Tierschutz“.

Anhang
ife Diskussionspapier_Zusatzkosten in der Milcherzeugung und -verarbeitung unter Einhaltung verschiedener Tierwohlstandards

(nach oben)


Fußball und Inklusion: Auf das richtige Trainingsklima kommt es an

Susann Huster Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig
Fußballspielen kann die Inklusion von Jugendlichen fördern, die nicht aus der vorherrschenden Kultur eines Landes kommen, also von Jugendlichen mit Migrationshintergrund. Entscheidend für das Gefühl, dazuzugehören und angenommen zu werden, ist dabei die Art des Trainings, genauer gesagt das vom Trainer vermittelte Motivationsklima. So eignet sich ein aufgabenorientiertes Training maßgeblich besser als ein leistungs- und wettbewerbsorientiertes Training.

Dies geht aus der aktuellen Studie eines internationalen Wissenschaftlerteams hervor, dem auch Anne-Marie Elbe angehört, Professorin für Sportpsychologie an der Universität Leipzig. Gesellschaftlich bedeutsam ist diese Erkenntnis, da insbesondere Erfahrungen im Jugendalter prägenden Einfluss auf die Einstellungen und Haltungen eines Menschen haben.

Fußballspielen kann die Inklusion von Jugendlichen fördern, die nicht aus der vorherrschenden Kultur eines Landes kommen, also von Jugendlichen mit Migrationshintergrund. Entscheidend für das Gefühl, dazuzugehören und angenommen zu werden, ist dabei die Art des Trainings, genauer gesagt das vom Trainer vermittelte Motivationsklima. So eignet sich ein aufgabenorientiertes Training maßgeblich besser als ein leistungs- und wettbewerbsorientiertes Training. Dies geht aus der aktuellen Studie eines internationalen Wissenschaftlerteams hervor, dem auch Anne-Marie Elbe angehört, Professorin für Sportpsychologie an der Universität Leipzig. Gesellschaftlich bedeutsam ist diese Erkenntnis, da insbesondere Erfahrungen im Jugendalter prägenden Einfluss auf die Einstellungen und Haltungen eines Menschen haben.

Fußball gilt als Mustersport der Inklusion. „Erstaunlicherweise mangelt es nach unserem Kenntnisstand jedoch an Theorie und Forschung in Bezug auf das Inklusionsgefühl Jugendlicher im Teamsport“, schreiben die Autorinnen und Autoren in ihrer Studie. Diese Lücke zu füllen sei wichtig, denn Teamsport habe nicht zwangsläufig Inklusionscharakter.
Für ihre Untersuchung befragte das dänisch-niederländisch-deutsche Wissenschaftlerteam 245 Jungen im Alter von 10 bis 16 Jahren zu ihren Erfahrungen. „Wir haben uns auf diese Altersgruppen konzentriert, weil insbesondere in diesem Zeitfenster positive interkulturelle Kontakterfahrungen zu positiveren Gruppeneinstellungen im Erwachsenenalter führen“, so die Autoren. Die Probanden gehören zu zwei niederländischen Fußballclubs, bei denen sehr diverse Teams trainieren. Die Mehrheit der Studienteilnehmer, das sind 61,6 Prozent, hat einen Migrationshintergrund. Das heißt, der Spieler selbst oder wenigstens ein Elternteil wurde außerhalb der Niederlande geboren.

Inklusion besteht für das Forscherteam dabei aus zwei Komponenten, erläutert Anne-Marie Elbe von der Universität Leipzig: „Wie stark fühle ich mich einer Mannschaft zugehörig? Und wie stark habe ich das Gefühl, dass ich so sein kann, wie ich bin – also authentisch mit beispielsweise meiner anderen kulturellen Herkunft?“ Dieses Inklusionsverständnis stützt sich auf bereits anerkannte Forschungsarbeiten anderer Wissenschaftlerinnen und Wissenschaftler.

„Unsere Annahme in der Studie war, dass das Gefühl von Inklusion damit zusammenhängt, was für ein motivationales Klima in dieser Mannschaft existiert, das heißt, vom Trainer erzeugt wird“, so Elbe weiter. Unterschieden wird dabei zwischen einem leistungsorientierten Motivationsklima auf der einen Seite, wo es gilt, besser zu sein als andere Spieler im eigenen Team, sowie einem aufgabenorientierten Motivationsklima auf der anderen Seite. Bei der Aufgabenorientierung gilt der Blickpunkt dem einzelnen Spieler und der Verbesserung seiner eigenen Fähigkeiten. Es geht um die Motivation eines jeden, hinzuzulernen: Gelingt es ihm, eine Aufgabe gut zu machen beziehungsweise kann er vermeiden, sie schlechter als zuvor zu machen?

Die Wissenschaftlerinnen und Wissenschaftler um Prof. Anne-Marie Elbe konnten nun zeigen, dass ein aufgabenorientiertes Trainingsklima positiv mit dem Inklusionsempfinden der jugendlichen Spieler zusammenhängt, ein wettbewerbsorientiertes Klima hingegen negativ. Wenn beide Trainingsarten nebeneinander angewendet wurden, konnten Spieler ohne Migrationshintergrund noch gut damit umgehen, ohne dass ihr Zugehörigkeitsgefühl zu sehr litt. Bei Spielern mit Migrationshintergrund jedoch war zu beobachten, dass ihr Inklusionsgefühl nur dort stabil war, wo ein hohes Maß an Aufgabenorientierung vorherrschte und der Wettbewerbsansatz innerhalb der eigenen Mannschaft nicht oder nur wenig verfolgt wurde.

„Man kann also nicht per se sagen, dass es positive Auswirkungen hat, Mitglied einer Fußballmannschaft zu sein. Um positive Auswirkungen mit dem Fußballtraining zu erzielen, muss sich der Trainer in einer bestimmten Art und Weise verhalten und ein spezifisches Klima während der Trainingseinheit herstellen. Darin steckt sehr großes Potential, und dies ist von enormer gesellschaftlicher Bedeutung“, sagt Anne-Marie Elbe. „Mit unserer Studie haben wir dazu beigetragen, die quantitative Forschung zu Inklusion und Sport etwas zu erweitern.“

Anne-Marie Elbe war bis 2017 an der Universität Kopenhagen tätig, wo sie die Studie – das Promotionsvorhaben von Silke Dankers – mitbetreute. Das Vorhaben wurde im Rahmen des Zentrums „Team Sports and Health“ der Universität Kopenhagen durchgeführt und durch den Nordea-Fonds gefördert. Die Ergebnisse veröffentlichten die Forscherinnen und Forscher nun in der renommierten Fachzeitschrift „Psychology of Sport and Exercise“.

Originaltitel der Fachveröffentlichung in „Psychology of Sport and Exercise“:
„Perceived inclusion in youth soccer teams: The role of societal status and perceived motivational goal climate“,

Psychology of Sport and Exercise, Volume 53, 2021,
doi: 10.1016/j.psychsport.2020.101882 , ISSN: 1469-0292
Birgit Pfeiffer

Wissenschaftliche Ansprechpartner:
Prof. Dr. Anne-Marie Elbe
Institut für Sportpsychologie und Sportpädagogik
Telefon: +49 341 97-31633
E-Mail: amelbe@uni-leipzig.de

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S1469029220308670
http://www.spowi.uni-leipzig.de/fakultaet/institute-fachgebiete/psychpaed/personal/prof-dr-anne-marie-elbe/

(nach oben)


Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Saurer Regen gehört eigentlich der Vergangenheit an, doch noch immer steigen die Sulfatkonzentrationen in vielen Binnengewässern weltweit. Forschende unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der dänischen Universität Aarhus geben in einer neuen Studie einen Überblick, aus welchen Quellen das Sulfat heute stammt und welche Folgen es hat. Sie weisen darauf hin, dass die negativen Folgen für Ökosysteme und Trinkwassergewinnung bisher nur regional wahrgenommen werden und empfehlen, Sulfat stärker in rechtlichen Umweltstandards zu berücksichtigen.

„Saurer Regen“ war ein Phänomen der 1980er Jahre, als bei der Verbrennung fossiler Brennstoffe große Mengen an Schwefel in die Atmosphäre gelangten. Nachdem Kraftwerke in Nordamerika und Europa zur Rauchgasentschwefelung nachgerüstet wurden, schien die Gefahr zunächst gebannt. In Deutschland sanken die atmosphärischen Schwefeleinträge um 90 Prozent. In Binnengewässern blieben die Konzentrationen an Sulfat, das aus Schwefel gebildet wird, in den letzten Jahrzehnten dennoch nahezu unverändert; in einigen Regionen stiegen sie sogar. Für die Forschenden ein klares Zeichen dafür, dass andere Quellen an Bedeutung gewonnen haben.

Entwässerung, Kunstdünger und Braunkohletagebau zählen zu den Hauptursachen:
Gelöstes Sulfat entsteht in Binnengewässern natürlicherweise durch die Verwitterung von Mineralien, bei Vulkanismus oder beim Abbau von organischem Material. Doch vor allem menschliche Aktivitäten lassen die Konzentrationen von Sulfat im Wasser deutlich ansteigen. Neben den atmosphärischen Einträgen sind dafür insbesondere die Entwässerung von Mooren, die Absenkung des Grundwasserspiegels für den Braunkohletagebau, Düngerauswaschungen aus landwirtschaftlich genutzten Böden sowie Abwässer aus Landwirtschaft und Industrie verantwortlich. Weltweit macht der landwirtschaftliche Einsatz von schwefelhaltigen Substanzen rund 50 Prozent des jährlich in die Umwelt eingetragenen Schwefels aus. So gelangt in einigen Regionen der Welt heute mehr Schwefel in Böden und Gewässer als zum Höhepunkt des sauren Regens.

Der Klimawandel verschärft die Situation:
Die Folgen des Klimawandels tragen zu einer Verschärfung bei: „Zunehmender Starkregen spült schwefelhaltige Böden und Dünger in Gewässer; größere Flächen von Feuchtgebieten fallen trocken; durch steigende Meeresspiegel gelangt sulfatreiches Salzwasser ins Grundwasser und in Flüsse, wo es die Sulfatkonzentrationen erheblich erhöhen kann“, fasst Dr. Dominik Zak von der dänischen Universität Aarhus die Prognosen zusammen, die er und seine Mitautor*innen in der Übersichtsstudie zusammengetragen haben.

Negative Folgen für Mensch und Ökosysteme:
Die Spree ist ein Beispiel für Flüsse, in denen die Sulfatkonzentrationen als Folge des Braunkohletagebaus angestiegen sind. In einigen Abschnitten überschreitet sie schon heute den Trinkwassergrenzwert von 250 Milligramm pro Liter. „Das ist problematisch, da diese Gewässer als Trinkwasserquelle genutzt werden – typischerweise über Grundwasserentnahme und durch Uferfiltration. Nach wie vor spielt der Braunkohleabbau in vielen Regionen der Welt eine bedeutende Rolle, und überall dort sind Sulfatbelastungen in Gewässern und dem Trinkwasser ein Thema. Auch wenn wir in Deutschland den Ausstieg aus der Braunkohleförderung beschlossen haben, werden uns die Sulfateinträge in unsere Gewässer als Umweltproblem längerfristig erhalten bleiben“, prognostiziert IGB-Forscher Dr. Tobias Goldhammer, einer der Autoren der Studie.

Sulfat beeinträchtigt nicht nur die Trinkwasserqualität, es beeinflusst auch die Stoffkreisläufe von Kohlenstoff, Stickstoff und Phosphor. Das steigert unter anderem den Nährstoffgehalt in Gewässern und damit das Pflanzen- und Algenwachstum sowie das Nahrungsangebot für aquatische Organismen. Die Folge ist ein Sauerstoffmangel im Wasser, der die weitere Freisetzung von Phosphat aus dem Sediment fördert – ein Teufelskreis. Sulfat und seine Abbauprodukte – insbesondere Sulfid – können zudem giftig auf aquatische Lebewesen wirken.

Renaturierte Moorflächen binden Schwefel:
Die biologische Sanierung mithilfe lebender Organismen wie Prokaryonten, Pilzen oder Pflanzen ist eine Möglichkeit, um Schadstoffe aus Ökosystemen zu entfernen. Pflanzenkläranlagen, Bioreaktoren und durchlässige reaktive Barrieren können auch die Sulfatbelastungen in Gewässern mindern. Viel versprechen sich die Wissenschaftler*innen dabei von der Renaturierung von Mooren: Durch die flächendeckende Trockenlegung von Feuchtgebieten wurden Schwefel und schwefelhaltige Eisenverbindungen freigesetzt. Die Wiedervernässung dieser Flächen kann die Freisetzung stoppen und sogar Schwefel speichern: Gelangt dann mit Sulfat angereichertes Wasser über Grund- oder Oberflächenwasser in diese Feuchtgebiete, wird es dort gefiltert.

Sulfat ist ein globales Umweltproblem:
„Es besteht großer Handlungsbedarf, die Sulfatkonzentrationen in Gewässern zu verringern. Da die Probleme im Zusammenhang mit hohen Sulfateinträgen bisher vor allem regional wahrgenommen werden, sind die Auswirkungen auf Binnengewässer noch nicht als global aufkommendes Umweltproblem erkannt. So haben viele Länder dafür keine Umweltstandards definiert. Wir möchten mit unserer Studie auf die Problematik aufmerksam machen, den derzeitigen Stand zur Sulfatbelastung aufzeigen und gleichzeitig auf die noch zahlreichen Wissenslücken hinweisen“, fasst Dominik Zak zusammen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von sieben natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/

Wissenschaftliche Ansprechpartner:
Dr. Tobias Goldhammer
Leiter der IGB-Forschungsgruppe „Nährstoffkreisläufe und chemische Analytik“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: goldhammer@igb-berlin.de

Dr. Dominik Zak
Department of Bioscience
Aarhus University, Dänemark
Email: doz@bios.au.dk

Originalpublikation:
Zak D, Hupfer M, Cabezas A, Jurasinski G, Audet J, Kleeberg A, McInnes R, Munch Kristiansen S, Petersen RJ, Liu H, Goldhammer T (2020) Sulphate in freshwater ecosystems: A review of sources, biogeochemical cycles, ecotoxicological effects and bioremediation. Earth Science Reviews doi:10.1016/j.earscirev.2020.103446

Weitere Informationen:
https://www.igb-berlin.de/news/saurer-regen-war-gestern

(nach oben)


Neue Untersuchungen bestätigen Munitionsbelastung in der Ostsee erneut

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Schon seit einigen Jahren wird die Belastung der Ostsee durch Kampfmittelaltlasten intensiv untersucht. Auf einer im Herbst 2020 unter der Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel durchgeführten Expedition konnten unter Anwendung neuer Verfahren große mit Munition belastete Flächen untersucht werden. Im Jahr 2021 soll das Thema mit einer Reihe neuer Projekte und Veranstaltungen vertieft werden, um nun rasch vom Wissen zum Handeln zu kommen.

Der Meeresboden der westlichen Ostsee ist in großen Gebieten durch Altmunition belastet, die insbesondere nach Ende des 2. Weltkrieges dort versenkt wurde. Bei einer im Herbst 2020 unter der Leitung der GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel durchgeführten Expedition (AL548) wurden die munitionsbelasteten Gebiete in der westlichen Ostsee erneut untersucht. Ähnlich wie schon im Oktober 2018 wurden von Bord des Forschungsschiffes ALKOR umfangreiche Wasserproben genommen, um die Belastung mit krebserregenden Sprengstoffsubstanzen zu ermitteln. Hierbei kam erstmals auch ein Echtzeit-Analysesystem zum Einsatz, das im Rahmen des EU-finanzierten Projektes ExPloTect am GEOMAR entwickelt wird (www.explotect.eu). Darüber hinaus hatte die Fahrt das Ziel, Methoden zur Objekt-Verifizierung mittels autonomer Unterwasserfahrzeuge (AUVs) zu testen. Um große Ansammlungen von Minen und versenkten Munitionskisten sichtbar zu machen, wurden Meeresboden-Fotomosaike von mehreren 1000 m² Größe generiert. Zudem wurden an Verdachtspunkten gezielt magnetische Messungen durchgeführt. Beides erwies sich als sehr erfolgreich, wobei die zügige und erfolgreiche Implementierung der magnetischen Sensoren auf dem AUV LUISE selbst die im Projekt BASTA (www.basta-munition-eu) arbeitenden Forscher überraschte: „Das wir so schnell eine Implementierung ohne störende Einflüsse durch die Antriebe des AUVs hinbekommen haben und aussagekräftige Messungen machen konnten, hat uns sehr gefreut“, so Projektmitarbeiter Dr. Marc Seidel vom GEOMAR. Hierbei wurde das Projekt durch eine Leihgabe von Magnetometern der Firma Sensys GmbH unterstützt.

„Die Fahrt AL548 war für die technologischen Ziele der beiden Projekte BASTA und ExPloTect sehr erfolgreich“, sagte Fahrtleiter Professor Dr. Jens Greinert. „Zudem haben wir insbesondere in der Lübecker Bucht erhebliche Mengen an Munition gefunden, die außerhalb bekannter Belastungsflächen liegt. Damit konnten wir erneut nachweisen, dass die auf Seekarten vermerkten Gebiete nicht vollständig sind“, so Greinert weiter. Zur Ausfahrt AL548 und den dabei erzielten ersten Ergebnissen sendet ARTE am 19. Januar 2021 um 19:40 eine Reportage.

Wie geht es nun weiter? Derzeit werden am GEOMAR weitere Projektanträge zum Thema Munition im Meer vorbereitet. So befinden sich die Anträge ProBaNNt (KI-basierte Evaluation von Räummethoden) und AMMOTRACE (In-situ Sprengstoffanalyse) in der finalen Bewilligungsphase. Ein Antrag zur Entwicklung eines Räum- und Zwischenaufbewahrungssystems wird in Kürze unter dem Namen CLEAR mit der SeaTerra GmbH in Seevetal eingereicht. Ziel ist es, eine umweltverträgliche Technologie für die Räumung von Munitionsversenkungsgebieten zu entwickeln. „Wenn der Antrag bewilligt wird, sind wir zuversichtlich in zwei Jahren mit einer ersten echten Testräumung in der Kolberger Heide zu starten“, so Dieter Guldin von SeaTerra.

Neben diesen Projekten zur Technologieentwicklung koordiniert GEOMAR das Projekt CONMAR. „In diesem Projekt integrieren wir die gesamte wissenschaftliche Expertise zu Munition im Meer in Deutschland, um die ökologischen Auswirkungen durch die chemische Belastung der Munition in Ost- und Nordsee zu bestimmen“, legt Koordinator Prof. Greinert dar. Neben Kollegen vom Thünen-Institut, dem Institut für Ostseeforschung, der Universität Rostock, dem Umweltbundesamt, dem Alfred-Wegener-Institut, Senckenberg am Meer und dem Global Climate Forum, sind das von Prof. Dr. Edmund Maser geleitete Toxikologische Institut der Universität Kiel und die Kieler Firma EGEOS GmbH Projektpartner. Nach Ansicht von Professor Greinert hat sich Kiel als zentraler Hub für die deutsche Forschung zu Munition im Meer etabliert und wird so auch von Politik und Behörden wahrgenommen. Daher ist es nicht verwunderlich, dass dort auch die erste internationale ‚Kiel Munition Clearance Week‘ im September 2021 stattfinden soll. „Meine Vision ist eine altlastenfreie Ostsee bis 2050“, sagt Jann Wendt, Geschäftsführer der EGEOS GmbH und Initiator der Konferenz. „Die Technik dazu ist bereits heute auf den Reißbrettern der Industrie verfügbar. Woran es momentan noch scheitert, ist der politische Wille und damit die Finanzierung und Umsetzung. Auf unserer Konferenz wollen wir ganz konkrete Lösungsvorschläge erarbeiten, um die Munition großflächig und dabei umweltschonend, kostengünstig und sicher zu räumen“, so Wendt.

„Auch das GEOMAR möchte sich weiter für dieses Thema stark engagieren und den Standort Kiel mit dem GEOMAR als wichtigem wissenschaftlichen und koordinierenden Zentrum etablieren“, sagt GEOMAR-Direktorin Professorin Katja Matthes.

Weitere Informationen:
http://www.geomar.de GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.explotect.eu Projekt ExPloTect
http://www.basta-munition.eu Projekt BASTA

(nach oben)


An der Uhr gedreht: Wie Zeit das Arbeitsgedächtnis beeinflusst

Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
Wenn die Arbeit eintönig ist, wirkt es, als ob die Zeit stehen bliebe. Wird man hingegen geistig gefordert, vergeht die Zeit gefühlt wie im Flug. Wissenschaftler am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) haben nun gezeigt, dass die Beziehung zwischen der Auslastung des Arbeitsgedächtnisses und der Zeitwahrnehmung auch andersherum bestehen kann. Dazu haben sie Anzeigen zur Dauer der verstrichenen Zeit beschleunigt oder verlangsamt, ohne dass die Versuchspersonen davon wussten. Hatten die Teilnehmenden den Eindruck, die Zeit verginge schneller, verbesserten sich ihre Leistungen.

Wenn wir eine Arbeit gerne machen oder uns auf eine Aufgabe konzentrieren, kann der Arbeitstag schneller vorbei sein – obwohl es sich für uns nicht wie acht Stunden Arbeit angefühlt hat. Dass kognitive Prozesse beeinflussen, wie wir die zeitliche Dauer von Ereignissen wahrnehmen, ist ein bekanntes Phänomen in der Forschung. Kaum untersucht sind hingegen Effekte in die andere Richtung: Beeinflussen experimentell veränderte Angaben zur zeitlichen Dauer ebenfalls kognitive Prozesse? Neurowissenschaftler des IfADo sind dieser Frage in einer aktuellen Studie nachgegangen. Dabei haben sie erstmals untersucht, was im Gehirn passiert, wenn zeitliche Informationen manipuliert werden.

An der Studie haben 30 Versuchspersonen teilgenommen. Sie sollten am PC komplexe Arbeitsgedächtnisaufgaben lösen. Zwischen den Aufgabenblöcken wurden die Versuchspersonen nach ihrer eigenen Leistung gefragt. Auf dem PC wurde nebenbei die Uhrzeit eingeblendet. Dabei handelte es sich zu Beginn des Versuchs um die tatsächliche Uhrzeit. Im weiteren Verlauf wurde eine um 20 Prozent beschleunigte sowie eine um 20 Prozent verlangsamte Uhrzeit eingeblendet. Je nach Gruppenzuteilung wurde zuerst die schnellere oder die langsamere Uhrzeit angezeigt.

Schnellere Uhr verbessert kognitive Leistung
Es zeigte sich, dass die Versuchspersonen die Arbeitsgedächtnisaufgaben während des Blocks mit der schnelleren Uhr signifikant besser bearbeiteten. Die Forschenden haben zusätzlich zu den Verhaltensdaten die Hirnaktivität mittels Elektroenzephalografie (EEG) gemessen. Sie konnten zeigen, dass die Theta-Aktivität während des Blocks mit der experimentell beschleunigten Uhrzeit deutlich erhöht war im Vergleich zu den anderen Blöcken. Frontale Theta-Wellen werden mit Arbeitsgedächtnis- und Aufmerksamkeitsprozessen in Verbindung gebracht. Sie sind in diesem Zusammenhang ein Anhaltspunkt, wie viele kognitive Ressourcen in die Bearbeitung einer Aufgabe investiert werden.

„Diese Befunde für die Versuche mit beschleunigter Zeit können damit zusammenhängen, dass die Probanden die an sich nicht so spannende Versuchsaufgabe als positiver wahrgenommen haben, weil die Zeit scheinbar schneller vorbeigegangen ist. Das wiederum führt dazu, dass sie der Aufgabe ihre volle Aufmerksamkeit zuwenden“, erklärt Studienautor Dr. Daniel Schneider vom IfADo.

Die Studie zeigt, dass bereits kleine, äußere Veränderungen die Leistung des Arbeitsgedächtnisses beeinflussen können. Diese Erkenntnis könnte zum Beispiel für die Arbeitsplatzgestaltung relevant sein, etwa wenn es um die Frage geht, ob sich die bloße An- oder Abwesenheit von zeitlichen Informationen auf die Arbeitsleistung auswirken kann. Um dazu verlässliche Aussagen treffen zu können, ist weitere Forschung nötig. Diese muss auch Wissen darüber generieren, wie dieser Zusammenhang im Gehirn verarbeitet wird.

Das Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) umfasst die Forschungsbereiche Ergonomie, Immunologie, Psychologie & Neurowissenschaften und Toxikologie. Die rund 220 Beschäftigten erforschen Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Das IfADo ist Mitglied der Leibniz-Gemeinschaft, die 96 selbstständige Einrichtungen umfasst. Finanziert wird das Institut durch eine gemeinsame institutionelle Förderung von Bund und Land sowie aus Drittmitteln.

Wissenschaftliche Ansprechpartner:
Dr. Daniel Schneider
Leiter des Themenbereichs „Informationsverarbeitung“, Fachbereich Ergonomie
E-Mail: schneiderd@ifado.de
Telefon: +49 231 1084-265

Originalpublikation:
Thönes S, Arnau S, Wascher E, Schneider D (2021): Boosting working memory with accelerated clocks. NeuroImage, Volume 226. 117601.
doi: 10.1016/j.neuroimage.2020.117601

Weitere Informationen:
https://www.ifado.de/2021/01/18/zeit-arbeitsgedaechtnis/ IfADo-Website
https://doi.org/10.1016/j.neuroimage.2020.117601 Originalpublikation (Open Access)

(nach oben)


CO2-Bepreisung allein bringt technologischen Wandel kaum voran

Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Um die Ziele des Pariser Klimaabkommens zu erreichen, muss die Staatengemeinschaft bis 2050 klimaneutral wirtschaften. Für das wichtigste klimapolitische Instrument halten viele Regierungen und Fachleute die CO2-Bepreisung – auch Deutschland hat sie gerade für Verkehr und Wärme eingeführt. Eine Studie zeigt jedoch, dass deren Lenkungswirkung nicht so stark ist wie erhofft.

Zwar haben Kohlenstoffpreissysteme in einigen Ländern zu sinkenden Emissionen geführt, einen umfassenden technologischen Wandel bewirken sie alleine jedoch nicht. Um die erforderlichen Veränderungen voranzutreiben, braucht es eine sektorspezifische Förderung von klimafreundlichen Technologien, zum Beispiel Änderungen des Strommarktdesigns und ein besseres Ladenetz für Elektroautos. Dafür sind erhebliche Investitionen erforderlich. Die Bilanz der CO2-Besteuerung ist in dieser Hinsicht enttäuschend, wie die Wissenschaftler Johan Lilliestam (IASS/Uni Potsdam), Anthony Patt (ETH Zürich) und Germán Bersalli (IASS Potsdam) zeigen. Sie untersuchten empirische Studien zu den Wirkungen der Kohlenstoffpreissysteme in der EU, Neuseeland, der kanadischen Provinz British Columbia und den nordischen Ländern.

„Wir beobachten zum Teil beachtliche Senkungen der Emissionen, allerdings nicht durch die dringend nötigen Investitionen in CO2-freie Technologien, sondern durch einen Umstieg auf andere, etwas weniger CO2-intensive Nutzungen. Für die angestrebte Klimaneutralität ist ein Umstieg von Benzin auf Diesel oder von Kohle- auf Gasstrom aber praktisch irrelevant“, sagt Leitautor Johan Lilliestam. Um netto null Emissionen zu erreichen, seien größere, systemische Veränderungen nötig.

Auch hohe CO2-Preise bewirkten kaum Investitionen in CO2-freie Technologien
Die meisten der untersuchten Studien nennen einen niedrigen CO2-Preis und eine zu große Zahl ausgegebener CO2-Zertifikate als Hauptursache für die unzureichende Lenkungswirkung der CO2-Bepreisung. Allerdings ist dies laut Lilliestam, Patt und Bersalli keine hinreichende Erklärung. Denn sogar in den nordischen Ländern mit ihren verhältnismäßig hohen CO2-Preisen war die Lenkungswirkung in Richtung eines technologischen Wandels nicht beobachtbar.

Einen Grund dafür sehen sie darin, dass andere Politikmaßnahmen – vor allem Förderprogramme für erneuerbare Energien – die Energiewende in Schwung gebracht haben. Solche spezifischen Fördermaßnahmen boten Investoren stärkere Investitionsanreize als das gleichzeitig umgesetzte Kohlenstoffpreissystem, und der dadurch ausgelöste Ausbau führte zu starken Kostensenkungen vor allem für Wind- und Solarstrom. Zudem schwanken die Preise für fossile Energien oft stärker als der Aufschlag, der durch die CO2-Bepreisung entsteht. Diese Schwankungen, zum Beispiel des Benzinpreises, überschatten damit die Lenkungswirkung der CO2-Steuer.

Als Teil eines Maßnahmenpakets kann CO2-Bepreisung nützlich sein
Trotz der schwachen Bilanz sehen die Wissenschaftler zwei Chancen für CO2-Preise. „Einerseits können sie genutzt werden, um Einnahmen für dringend nötige Fördermaßnahmen und öffentliche Investitionen zu erzielen. Andererseits können sie in bestimmten Sektoren, wie der Kohleverstromung, dazu beitragen, dass die CO2-intensivsten Technologien endgültig ihre Wettbewerbsfähigkeit verlieren, wenn eine alternative Technologie bereit steht“, erläutert Lilliestam. Nicht als zentrales Instrument, aber als Teil eines breit angelegten Maßnahmenpaketes könne die CO2-Bepreisung also zu den Klimazielen beitragen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Johan Lilliestam
johan.lilliestam@iass-potsdam.de

Originalpublikation:
Lilliestam, J., Patt, A., Bersalli, G. (2021): The effect of carbon pricing on technological change for full energy decarbonization: A review of empirical ex‐post evidence. – Wiley Interdisciplinary Reviews – Climate Change, 12, 1, e681. https://doi.org/10.1002/wcc.681

(nach oben)


Stress an den deutschen Flüssen: Der Klimawandel setzt Umwelt und Wirtschaft unter Druck

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Ende des Jahrhunderts (2071-2100) ist mit erheblichen Änderungen der Umwelt- und Wirtschaftsbedingungen an den großen Flüssen in Deutschland zu rechnen, wenn globale Klimaschutzmaßnahmen nur unzureichend ergriffen werden. Aktuelle Ergebnisse der Bundesanstalt für Gewässerkunde zeigen die besonders betroffenen Flussabschnitte und wo dringlicher Anpassungsbedarf besteht.

Die Bundesanstalt für Gewässerkunde hat in den vergangenen vier Jahren untersucht, wie sich die prognostizierten klimatischen Bedingungen auf die großen Flüsse in Deutschland auswirken. Hierfür hat sie mit den Partnerbehörden des BMVI-Expertennetzwerks detaillierte Modelle entwickelt und neueste Klimaszenarien genutzt. Ein untersuchtes Szenario unterstellt, dass die globalen Klimaschutzmaßnahmen zu gering ausfallen, was bis zum Ende des 21. Jahrhunderts zu einem Anstieg der globalen Mitteltemperatur um bis zu fünf Grad Celsius gegenüber dem vor-industriellen Zeitalter führen würde. Die Auswertungen legen nahe, wie wichtig die angestrebte weitere Reduktion der Treibhausgasemissionen auch für die Flüsse ist. Bei diesem Szenario können intensivere Hochwasserereignisse die Verkehre auf Schiene, Straße und Wasserstraße beeinträchtigen. Die Binnenschifffahrt hätte zudem unter längeren Niedrigwasserphasen zu leiden. Am Rhein-Pegel Kaub würden beispielsweise kritische Schwellenwerte gegen Ende des Jahrhunderts an 22 bis 48 Tagen unterschritten. Aber auch die Lebewesen in den Gewässern gerieten öfter in Stress. Grund dafür sind steigende Wassertemperaturen, die ebenso erwartet werden. „Die Zuspitzung von Niedrigwassersituationen am Mittel- und Niederrhein kann die Logistikbranche zukünftig vor beträchtliche Herausforderungen stellen.“ befürchtet BfG-Wissenschaftler Dr. Enno Nilson. „Deshalb ist die gemeinsame und einheitliche Erforschung der Klimawirkungen auf alle Verkehrsträger im BMVI-Expertennetzwerk so wichtig. Basierend auf den neuen Erkenntnissen, können stimmige Anpassungsmaßnahmen für das Verkehrssystem abgeleitet werden.“

Die Ergebnisse wurden auf der Homepage des BMVI-Expertennetzwerks veröffentlicht und werden auf der interaktiven Veranstaltung „BMVI-Expertennetzwerk online – Forschungsergebnisse kompakt“ am 19. Januar 2021 der Fachöffentlichkeit präsentiert.

Die Forschungsarbeiten im Rahmen des BMVI-Expertennetzwerks bestätigen, präzisieren und erweitern die Ergebnisse aus dem Jahr 2015, die vom Klimafolgenforschungsprogramm KLIWAS zu Auswirkungen des Klimawandels auf Wasserstraßen und Schifffahrt stammten. Diese Arbeiten werden seit 2016 im behördenübergreifenden BMVI-Expertennetzwerk fortgeführt. Neben der Verwendung von aktuellen Klimadaten und der Entwicklung von neuen Methoden ermöglicht das BMVI-Expertennetzwerk auch die gemeinsame Betrachtung von Klimawirkungen auf Straßen, Schienen und Wasserstraßen. Die Erkenntnisse und Methoden werden künftig durch den DAS-Basisdienst „Klima und Wasser“ operationalisiert. So sind die aktuellen wissenschaftlichen Erkenntnisse der Öffentlichkeit und Fachleuten dauerhaft zugänglich und ermöglichen der Entscheidungsebene unter anderem eine Anpassung der Wasserwirtschaft und der Binnenschifffahrt an die Folgen des Klimawandels.

Wissenschaftliche Ansprechpartner:
Dr. Enno Nilson, Referat Wasserhaushalt Vorhersagen und Prognosen, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0 261 1306 5325, E-Mail: Nilson@bafg.de

(nach oben)


Regionaler Wasserstoff aus Biomasse – sauber und effizient!

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
An der Hochschule Hof macht eine Unternehmensgründung auf sich aufmerksam, die wichtige Lösungen für die Energiewende liefern könnte: Die BtX energy GmbH bietet unterschiedliche Verfahren, um aus Biomasse hochwertigen Wasserstoff herzustellen. Neben dem Vertrieb schlüsselfertiger Anlagen zur Dampfreformierung von Biogas möchte die junge Firma zunächst für die Region Hof ein Gesamtkonzept zur regionalen Erzeugung und Nutzung von grünem Wasserstoff erstellen – ein wegweisendes Unterfangen.

Andy Gradel ist gelernter Maschinenbauer und Leitender Ingenieur am Institut für Wasser- und Energiemanagement der Hochschule Hof (iwe). Der 30Jährige, der vor kurzem seine Doktorarbeit fertigstellte, beschäftigt sich in seiner Forschung seit 2016 mit der Frage, wie aus Biomasse saubere Energie und Wärme gewonnen werden kann. In Zusammenarbeit mit seinem Industriepartner, der WS – Wärmeprozesstechnik GmbH aus dem schwäbischen Renningen gelang Gradel im Rahmen einer Promotion im Kontext der Technologieallianz Oberfranken (TAO) nun über viele Versuche die Entwicklung eines neuartigen Holzvergasers.

Auszeichnung für Forschung
„Unser Vergaser basiert auf der Nutzung der prozesseigenen Holzkohle als Teerfilter. Dadurch erreichen wir einen deutlich wartungsärmeren und gleichzeitig flexibleren Betrieb der Anlage – gemessen am derzeitigen Stand der Technik. Das macht unseren Holzvergaser finanziell attraktiv“, erklärt Andy Gradel. Für seine Forschung am Verfahren wurde der gebürtige Bayreuther unlängst bei einer Fachkonferenz in Zittau mit dem „Young Academics Award for Bioenergy 2020“ als bester Nachwuchsforscher des Bereichs ausgezeichnet.

Marktgang mit Profis
Die erfolgreiche Technik möchte Andy Gradel nun auf den Markt bringen. Anders als anzunehmen ist die deshalb neu gegründete BtX energy GmbH kein Niemand in der Branche: Mitgesellschafter sind die renommierten Unternehmer Joachim Wünning und Martin Schönfelder, Geschäftsführer der WS Wärmeprozesstechnik GmbH, welche 2011 den deutschen Umweltpreis für die FLOX® Technologie (flammenlose Verbrennung) erhielt. Darüber hinaus beteiligt ist Prof. Tobias Plessing, Wissenschaftlicher Leiter des Instituts für Wasser- und Energiemanagement (iwe) an der Hochschule Hof. Gemeinsam möchte man einen Beitrag für die Energiewende leisten.

Hoffnung für Biogasbranche
Neben der Weiterentwicklung des Holzvergasers bis zur Marktreife wird das junge Unternehmen vor allem Wasserstoffproduktionsstätten für Biogasanlagen auf den Markt bringen. Wie wichtig derartige Erfindungen für die Biogasbranche sind, zeigt ein Blick auf deren aktuelle Herausforderungen: In den kommenden Jahrzeh