Sonntag, Oktober 24, 2021
StartAktuellesTägliche Meldungen

Tägliche Meldungen

Meldungen 2010 Meldungen 2011 Meldungen 2012 Meldungen 2013
Meldungen 2014 Meldungen 2015 Meldungen 2016 Meldungen 2017
Meldungen 2018 Meldungen 2019 Meldungen 2020  
   
Oktober 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
23.10.2021 Summ-summ, schwirr’n Pestizide herum?
19.10.2021 Flutgebiete fit machen für den Klimawandel
17.10.2021 Harald Kunstmann: Grundwasser – Feuchter Sommer bringt Entspannung, gleicht Defizit aber nicht aus
14.10.2021 Bürgermessstelle für Umweltradioaktivität in der Nähe der Schachtanlage Asse II nimmt Betrieb auf
11.10.2021 Steinmeier: Gemeinsam umsteuern für Klimaschutz und Artenvielfalt
09.10.2021 Programm der Fraunhofer-Gesellschaft fördert Innovationsfähigkeit von KMU im Bereich der effizienten Wasseraufbereitung
08.10.2021 Mit naturbasierten Lösungen zu mehr Hochwasserschutz
07.10.2021 Der Klimawandel im Grundwasser: Neues Forschungsprojekt der TU Freiberg untersucht Transport von Mikroorganismen
06.10.2021 Wenn KI hilft, die Landwirtschaft nachhaltiger zu gestalten
04.10.2021 Hitzewellen im Meer haben drastische Folgen für Fischerei
03.10.2021 Biologie: Entscheidender Schritt bei der Umwandlung von Biomasse in Methan identifiziert
01.10.2021 Die seismische Chronik einer Sturzflut
Gesundheit
22.10.2021 Long COVID: potentieller therapeutischer Angriffspunkt entdeckt
18.10.2021 Auch ohne Arztbesuch: Neues nicht-klinisches Modell sagt zuverlässig Risiko für Herz-Kreislauf-Erkrankungen vorher
16.10.2021 Delta und Delta Plus weichen der Antikörperantwort aus
13.10.2021 Bildgebungskonzept erkennt Gefahrenmuster für Herz-​Kreislauf-Erkrankungen
12.10.2021 Impfbereitschaft steigt mit umfassender Information
02.10.2021 Übergewicht − Sind Frauen dabei gesünder als Männer?
Gesellschaft
21.10.2021 Neue Studie: Chancengerechtigkeit in der Bildung hat sich verbessert
20.10.2021 Warum systemische Risiken häufig unterschätzt werden – und wie Wissenschaft helfen kann
10.10.2021 Arbeitswelten der Zukunft – Ergebnisse des Projekts „Future Works“
05.10.2021 Die Umgestaltung der betrieblichen Mobilität erfolgreich meistern
September 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.09.2021 Durch die intelligente Kopplung von Strom- und Wärmeproduktion sowohl Ressourcen als auch CO2 einsparen
28.09.2021 Wie Geologie die Artenvielfalt formt
25.09.2021 Entwicklung von Ammoniak-Technologien für den Transport von Grünem Wasserstoff – Start von TransHyDE
24.09.2021 Prognosen für die Abfluss- und Stauregelung am Neckar bei Starkregenereignissen
22.09.2021 Leistungsstarke Brennstoffzellen für die Elektromobilität in hoher Stückzahl
19.09.2021 Worauf die Wissenschaft nach der Hochwasserkatastrophe Antworten finden muss
18.09.2021 Kunststoffrecycling aus Altfahrzeugen neu denken
16.09.2021 Seegraswiesen als Vibrionen-Fänger – Kieler Forschende beweisen eine weitere Leistung des Ostsee-Ökosystems
15.09.2021 Kostengünstige und netzfreundliche Erzeugung von Wasserstoff aus regenerativen Energiequellen im H2Giga-Projekt HyLeiT
12.09.2021 Ökoeffizientes Düngen schont Natur, Gesundheit und Geldbeutel
09.09.2021 Neues Fact Sheet zu Erkenntnissen zum Klimawandel im Ostseeraum
07.09.2021 Ganz genau: Präzision für die Energiewende
05.09.2021 Länderübergreifender Raumordnungsplan für den Hochwasserschutz in Kraft getreten
04.09.2021 Totholz als Kohlenstoff-Speicher: Insekten beschleunigen den Abbau am Kilimanjaro
01.09.2021 TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss
Gesundheit
29.09.2021 Covid-19-Impfung: Sterblichkeit nach seltener Nebenwirkung sinkt
26.09.2021 An COVID-19 erkrankte Menschen haben ein fast dreifach erhöhtes Dialyse-Risiko
14.09.2021 Die Bekämpfung von Diabetes und Adipositas muss vorrangiges Politikziel werden
13.09.2021 Schönere Beine, längeres Leben?
07.09.2021 Kopfschmerztag 2021: Auswirkungen des Corona-Lockdowns auf Patientinnen und Patienten mit primären Kopfschmerzen
06.09.2021 Neue Studie zeigt: Auch ältere Menschen profitieren von einer strikteren Blutdrucksenkung
02.09.2021 Boomender Klettersport: Verletzungen und Überlastungen an der Hand
Gesellschaft
27.09.2021 Genetische Abstammung und Erbe der Etrusker entschlüsselt
23.09.2021 Frühe Homo sapiens-Gruppen in Europa waren subarktischem Klima ausgesetzt
21.09.2021 Vom Laien zum Experten
20.09.2021 Unternehmensgeschichte: Bevölkerung erwartet Selbstkritik bei Fehlern und Krisen
17.09.2021 RWI-Konjunkturprognose: Materialengpässe verzögern die wirtschaftliche Erholung
11.09.2021 Warum uns mit dem Alter Wörter schlechter einfallen
10.09.2021 BAuA stellt Daten zur mentalen Gesundheit bei der Arbeit bereit
03.09.2021 Woher kommt der Montagsblues? – Studie der Universität Leipzig zu gefühlt schwierigstem Arbeitstag der Woche
August 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.08.2021 Neues Beratungstool für die Überflutungsvorsorge in Kommunen
30.08.2021 Gewässermonitoring aus dem All
29.08.2021 Neue Studienerkenntnisse können helfen, Hochwasser-Prognosen zu verbessern
23.08.2021 Reduktion des Energieverbrauchs von Funknetzen: TUD mit zwei Clusterprojektanträgen erfolgreich
22.08.2021 H2Giga: Serienfertigung von Elektrolyseuren
20.08.2021 Der Untergang der Europäischen Flusskrebse: Wenn Wirtschaft über Naturschutz siegt
19.08.2021 TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss
18.08.2021 TU Berlin: Zukünftiger Schutz gegen Extremniederschläge: weitere Bebauungsverbote dürfen kein Tabu sein
17.08.2021 Hochwasserrisiken wurden deutlich unterschätzt
16.08.2021 Hochwasser: Gift aus dem Flussbett
12.08.2021 Eintrag von Mikroplastik in der Umwelt reduzieren. TH Köln hat Sickerwasser der Deponie Leppe untersucht
10.08.2021 Mit dem Wasser leben: HCU-Dissertation zur aktuellen Hochwasserdebatte
08.08.2021 Wissenschaftler sieht Wiederaufbau im Ahrtal vor Herausforderungen
07.08.2021 Abfall als erneuerbare Energiequelle nutzen. Internationales Verbundprojekt der TH Köln in Mali
03.08.2021 Tauender Permafrost lässt Methan aus der Tiefe entweichen
01.08.2021 Industrie kann Flexi-Joker in der Energiewende werden
Gesundheit
28.08.2021 Nickel- und Kobaltallergie im Friseurhandwerk – Neue Studie an der Universität Osnabrück
24.08.2021 Information und Wissen haben heilsame Wirkung
21.08.2021 Corona-Spürhunde: Diag’nose‘
16.08.2021 Hahn-Schickard und Endress+Hauser gründen das Joint Venture Endress+Hauser BioSense
05.08.2021 Abwasser-Monitoring als Pandemie-Frühwarnsystem für Metropolen
02.08.2021 CoVis: Eine neue App zur Corona-Risikobewertung
Gesellschaft
27.08.2021 Interdisziplinäres Forschungsteam untersucht Rolle der RNA bei der Entstehung des Lebens
26.08.2021 Mitteleuropas Vorgeschichte war sehr dynamisch
25.08.2021 Wie wir wohnen, leben, arbeiten werden
04.08.2021 Erholung von der Corona-Krise: Betriebe blicken optimistischer in die Zukunft
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.07.2021 TH Köln entwickelt neuartige Membrantechnologie zur Trennung von Gasen
27.07.2021 Förderaufruf: Klimaschonendes Stickstoffmanagement im Pflanzenbau
25.07.2021 Fließgewässermonitoring: BUND startet gemeinsam mit Wissenschaftler:innen von UFZ und iDiv ein Citizen Science-Projekt
24.07.2021 Neue Ergebnisse: Salzwassereinbrüche können den Überdüngungsgrad der Ostsee nur wenig und nur vorübergehend verbessern
23.07.2021 Vermehrte Regenfälle im Sommer verändern den Kohlenstoffkreislauf in der Arktis
22.07.2021 Gereinigtes und ungereinigtes Abwasser: In Modellregion (Mexiko) werden Risiken beim Einsatz auf Agrarflächen erforscht
21.07.2021 Gesundheits-Check für Flüsse
20.07.2021 Dicker Luft zu Leibe gerückt – Protein-Baustein hilft atmosphärisches CO2 zu binden: Verfahren aus dem Rostocker LIKAT
19.07.2021 Neue Web-Plattform zur Planung der Hochwasservorsorge in Städten
17.07.2021 Wissenschaftliche Politikberatung im Projekt MACSUR SciPol: Mit Wissenschaft gegen den Klimawandel
16.07.2021 Pärchenbeziehung ist meist von Vorteil für Bakterien: Ökologen der Uni Osnabrück untersuchen Teamwork in der Natur
15.07.2021 Gereinigtes und ungereinigtes Abwasser: In Modellregion (Mexiko) werden Risiken beim Einsatz auf Agrarflächen erforscht
14.07.2021 Ganz nach Plan
10.07.2021 Metallrückgewinnung aus Abwässern: Innovative biotechnologische Verfahren und ihr Impact
08.07.2021 Hy2Biomethane: Intelligente Kombination von Biogas und Wasserstoff
07.07.2021 Carbon Black aus Autoreifen recyceln
05.07.2021 Säure in der Nano-Pore: Wasser in Zeolithen hilft bei der Umwandlung von Biomasse in Biosprit
04.07.2021 Ist Carsharing gut für die Umwelt?
01.07.2021 Gemeinsam für Umwelt und Gesellschaft: Umfangreiche Analyse zum Klimawandel vorgestellt
Gesundheit
26.07.2021 Kinder entwickeln langfristige Immunität gegen COVID-19
12.07.2021 Bohnen nur gegart genießen
11.07.2021 Corona macht uns müde
09.07.2021 Neue Daten zur Langzeit-Immunität von COVID-19-Infizierten
06.07.2021 SARS-CoV-2: Schnelltests nur bedingt zuverlässig
03.07.2021 Kontaktlinse fürs Ohr
Gesellschaft
29.07.2021 Lernpausen sind gut fürs Gedächtnis
28.07.2021 Chinesischer Mais-Hunger wird bleiben
18.07.2021 Ein wissenschaftlicher Test enthüllt, wie anfällig ein Mensch für Corona-Mythen ist
13.07.2021 25.000 Jahre altes menschliches Umweltgenom wiederhergestellt
02.07.2021 19,6 Millionen Beschäftigte arbeiten in einer anderen Gemeinde
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.06.2021 Kleingewässer in Agrarlandschaften stark mit Pestiziden belastet
28.06.2021 60 Prozent der Flüsse weltweit fallen zeitweise trocken – Tendenz steigend
26.06.2021 Positionspapier: Herausforderungen einer nationalen Wasserstrategie in Forschung und Umsetzung
23.06.2021 Geplante Maßnahmen des Nationalen Hochwasserschutzprogramms sind wirksam
21.06.2021 Schaufenster Bioökonomie: Dünger aus Bioabfällen und häuslichen Abwässern
19.06.2021 Woche der Umwelt: BAM präsentiert innovatives Messverfahren für Mikroplastik
18.06.2021 Zurück zur Natur? Wie die Renaturierung von Gewässern sozial-ökologisch gestaltet werden kann
16.06.2021 Steinmeier: Wir befinden uns mitten im Umbruch ins postfossile Zeitalter
14.06.2021 KIT: Zuckerhirse: Süßes Versprechen für die Umwelt
13.06.2021 Gewässerschutz: Deutsche haben ökologische Grundwerte, aber wenig Bezug zu Fischen
11.06.2021 Dem Meeresmüll trotzen
10.06.2021 Wie Katalysatoren altern
07.06.2021 Pflanzenkonkurrenz im Klimawandel
06.06.2021 HSD-Forschungsschwerpunkt „Umweltmesstechnik in der Luftreinhaltung“ zum aktuellen EuGH-Urteil
04.06.2021 Meilenstein für nachhaltige Batterien – „grünere“ Kohlenstoffe
02.06.2021 Verklär²: Innovatives Verwertungskonzept für energieautarke und ressourcenschonende Kläranlagen
Gesundheit
29.06.2021 Fußball-Bundesliga: Stadionbesuche ohne konsequente Maskenpflicht führten zu mehr Infektionen
27.06.2021 Schlaf trägt möglicherweise zur besseren Wirksamkeit einer Impfung und zu einer verbesserten Immunabwehr bei
25.06.2021 Weniger sozialer Zeitdruck fördert den Schlaf und das Wohlbefinden
22.06.2021 Studie: Besonders deutliche Immunantwort bei der Impfstoffkombination von Astrazeneca und Biontech
20.06.2021 Innerer Kompressionsstrumpf wirkt gegen Krampfadern
17.06.2021 Einladung zum IST-Webinar: „Power für den Tag – wie Sie Ihre Schlafprobleme lösen“
15.06.2021 Kniearthrose: Wann kommt ein Gelenkersatz infrage? Gibt es Alternativen? IQWiG legt Entscheidungshilfe vor
09.06.2021 «Wir sollten den Einfluss von Reisen nicht unterschätzen»
01.06.2021 Einjährige Corona-Studie ELISA zu Antikörpern zeigt: Dunkelziffer ist deutlich zurückgegangen
Gesellschaft
24.06.2021 Einkommen, Vermögen, Aufstiegschancen: Wie die Deutschen Ungleichheit (miss-)verstehen
12.06.2021 Roboterhunde auf der Baustelle
08.06.2021 Studie: Mit KI Ressourcen im Betrieb wirksam einsetzen
05.06.2021 Wie man Elfmeter besser halten kann
03.06.2021 Es gibt einen deutlichen Zusammenhang zwischen freiwilligem Engagement und positiven Einstellungen zu Demokratie
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.05.2021 In Millisekunden von verschmutztem zu klarem Wasser – Neue Erkenntnisse im Bereich Nanoscience
29.05.2021 Vibrionen und Klimawandel: Können Natur-basierte Methoden das Gefährdungspotenzial in der Ostsee mildern?
27.05.2021 Grundwasserüberwachung mit Erdbebenmessgeräten
26.05.2021 Nachhaltige Stromerzeugung in Aquakultur, Kläranlage und Abwasserkanal
25.05.2021 Was Städteplaner aus der Corona-Krise lernen
23.05.2021 Neue Fachzeitschrift präsentiert Wissen aus der Fischereiforschung
21.05.2021 Multitalent für die Elektromobilität – der CrossChargePoint – ein Projekt der TH Deggendorf
20.05.2021 Unsichtbares sichtbar machen
18.05.2021 Neue Frühwarnsignale: Teile des grönländischen Eisschildes könnten Kipppunkt überschreiten
17.05.2021 Neue REBOWL bald auch aus Biokunststoff? IfBB entwickelt nachhaltiges Material für neue Mehrweg-Schale
16.05.2021 Verarmte Flora in Wiesen und Wäldern gefährdet Insekten
15.05.2021 Geothermie als nachhaltige Energiequelle: Neue Fallstudie zeigt Potenziale für die Verringerung von CO₂-Emissionen
11.05.2021 Bioaktive Papierbeschichtung ersetzt Kunststoffverpackungen bei Lebensmitteln
10.05.2021 KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten
09.05.2021 Von Gewittern über Starkregen bis Dürreperioden
07.05.2021 Schadstoffabbau und Treibhausgas-Verringerung: Neue Studie zur Funktionsweise aquatischer Ökosysteme
05.05.2021 Mehr Widerstandskraft für die Schweizer Energieversorgung
04.05.2021 Ausgezeichnete Klimaaktivitäten als Blaupause für Kommunen
03.05.2021 Bioraffinerie am Bauernhof der Zukunft
01.05.2021 Mehr Gemüse, weniger Milch
Gesundheit
30.05.2021 Hygieneregeln wirken auch gegen britische und südafrikanische Mutante
28.05.2021 Wann und wie schädigt Alkohol das Gehirn?
24.05.2021 Gesichtsmasken schützen effektiv vor COVID-19
19.05.2021 Corona: Neue Webanwendung Aerosol Control berechnet Infektionsrisiko
13.05.2021 Studie: Das durchschnittliche Einzelkrankenhaus hat wenig Zukunft
02.05.2021 Grippeschutzimpfung: Neue Richtlinie verbessert Versorgung älterer Menschen
Gesellschaft
22.05.2021 Die Macht der Bilder – Wissenschaftler untersuchen ihren Einfluss bei der Magersucht
14.05.2021 Drei Viertel der Beschäftigten mit Homeoffice-Option sind teilweise oder ausschließlich im Homeoffice tätig
12.05.2021 Neue Studie aus Bayreuth: Deutlicher Anstieg des Radfahrens in Großstädten nach Lockdown-Beginn 2020
08.05.2021 Fehler am Anfang des Lebens
06.05.2021 Beruflicher Erfolg beeinflusst die Persönlichkeit
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.04.2021 Korallen, die Algen spucken
28.04.2021 Einkaufen ohne Verpackungsmüll
23.04.2021 Einladung zum HNEE-Feldtag: Austausch über die Vielfalt im Wurzelraum
22.04.2021 Kraftstoffe & Energieträger der Zukunft
21.04.2021 Keine Ausreden mehr: EU-Kommissar Frans Timmermans unterstreicht ein effektives Recycling von Hightech-Kunststoffen
20.04.2021 Grüner Wasserstoff: Israelisch-deutsches Team löst das Rätsel um Rost
18.04.2021 Wohlhabendere Länder im Vorteil
17.04.2021 Kampf gegen Mikroplastik: Neues Verfahren zur Herstellung von Dämmstoff aus Kunststoffabfällen
15.04.2021 Zuverlässig messen, ob Flüssen und Seen die Luft ausgeht
14.04.2021 Entwicklung von Wasserstofftanks für Kraftfahrzeuge
11.04.2021 Trotz verbessertem Umweltmonitoring: Der ökologische Zustand von europäischen Gewässern verschlechtert sich
10.04.2021 Wirkung des Lockdowns auf Luftqualität an den Straßen und damit im Alltag zu spüren
09.04.2021 Die Pandemie für den Umweltschutz nutzen
07.04.2021 Welche Rolle spielt das Grundwasser für die Küstenmeere?
06.04.2021 Grüner Wasserstoff: Transport im Erdgasnetz
05.04.2021 Ein neuer Zustand des Lichts
01.04.2021 Neuer Schwung für die Elektromobilität: Entwicklung von effizienteren Lithium-Ionen-Batterien
Gesundheit
26.04.2021 Starker Rückgang der Darmkrebs-Inzidenz und -Sterblichkeit seit Einführung der Vorsorge-Darmspiegelung
25.04.2021 Neue Ursache zur Entstehung von Leukämie entdeckt
19.04.2021 Papier-basierter Covid-19-Antikörper-Test – TU-Forschende veröffentlichen ihre Entwicklung in „Scientific Reports“
13.04.2021 Mehr als die Summe der Mutationen – 165 neue Krebsgene mit Hilfe maschinellen Lernens identifiziert
03.04.2021 Röntgenlichtquelle PETRA III identifiziert vielversprechende Kandidaten für Coronamedikamente
Gesellschaft
29.04.2021 Wem gehört der Fußball?
26.04.2021 Studie: Wie verändern Berufseinstieg und Renteneintritt die Persönlichkeit?
24.04.2021 Langeweile und Selbstkontrolle in der Pandemie
16.04.2021 Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik
12.04.2021 Mehr Brot und Süßigkeiten im Lockdown
08.04.2021 Aktuelle Auswertung von Lohnspiegel.de – Diese fünf Faktoren bestimmen Ihr Gehalt
04.04.2021 Apokalyptische und Postapokalyptische Studien
02.04.2021 Covid-19 und der öffentliche Raum in der Krise
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.03.2021 Neue Methode für die Speicherung erneuerbarer Energien
28.03.2021 Die beständige Gefahr nach Landschaftsbränden: Verkohlte Pflanzen enthalten schädliche freie Radikale
27.03.2021 Neuartige, haltbare biologisch abbaubare Flaschen aus Biokunststoffen
26.03.2021 DBFZ präsentiert umfangreich erweiterte Onlinedatenbank zu biogenen Rohstoffen
25.03.2021 Emissionsrückgang aufgrund der Corona-Lockdowns hat das globale Klima nicht wesentlich beeinflusst
22.03.2021 Mit „innovatION“ nationale und internationale Wasserressourcen sichern
21.03.2021 Risiken von Wasserknappheit begrenzen: Bewässerungsmanagement entscheidend für Bioenergie-Anbau zum Klimaschutz
20.03.2021 Auf der Suche nach Lösungen für Klimawandelfolgen in Nord- und Ostsee: Küstenforschungsverbund KüNO geht in dritte Runde
19.08.2021 Lachsdetektor zur Erfolgskontrolle am Rhein
18.03.2021 Mikroplastik in der Elbe
14.03.2021 Erste Lausitzer Wasserkonferenz in Cottbus startet durch
13.03.2021 Europäisches Forschungsnetzwerk untersucht die Mikroplastikbelastung von Ackerböden
12.03.2021 Klimawandel verändert Abflussmenge von Flüssen
11.03.2021 Erholung an europäischen Gewässern bringt Volkswirtschaft 800 Milliarden Euro
10.03.2021 Neue Studie zeigt: Mehr Müll durch COVID-19 Pandemie
09.03.2021 Eine “Modell-Botschaft” für die Ostsee: die weitere Umsetzung von Nährstoff-Reduktionen wird am Ende erfolgreich sein
08.03.2021 Die Weltmeere sickern tiefer in die Erde als erwartet
06.03.2021 Energiewende der Schweiz
04.03.2021 BLUE PLANET Berlin Water Dialogues – Virtuelle Vernetzungsmöglichkeiten mit der internationalen Wasserbranche
02.03.2021 Die Mikroplastik-Belastung der Ostsee: Neue Ansätze für Monitoring und Reduktionsmaßnahmen
Gesundheit
23.03.2021 Wenn Salz, dann Jodsalz
15.03.2021 TU Berlin: Weniger Behandlungsfälle trotz Pandemie
07.03.2021 Virus-Varianten in der Pandemie schneller aufspüren
03.03.3021 70 Prozent weniger Darmkrebs-Todesfälle nach Vorsorge-Darmspiegelung
Gesellschaft
30.03.2021 Arbeitszeit von Männern und Frauen: Wunsch und Wirklichkeit klaffen auseinander
29.03.2021 IAB-Arbeitsmarktbarometer legt weiter zu, dennoch bleiben Risiken
24.03.2021 Grundsteuer belastet vor allem ärmere Haushalte in Mietwohnungen
17.03.2021 Arbeitsbedingungen in sozialen Berufen verschlechtern sich weiter
16.03.2021 Internetnutzung von Menschen in der zweiten Lebenshälfte während der Pandemie: Soziale Ungleichheiten bleiben bestehen
05.03.2021 2019 gingen weniger Beschäftigte vorzeitig in Rente
01.03.2021
kompetenzz-Studie zeigt: Partnerschaftliche Teilung der Arbeit im Haushalt – Frauen wollen sie, Männer auch
Umwelt
Gesundheit
Gesellschaft
Umwelt
28.02.2021 Golfstrom-System schwächer als je zuvor im vergangenen Jahrtausend
26.02.2021 Report: Energiewende-Projekt Ariadne diskutiert mit Menschen aus ganz Deutschland zur Strom- und Verkehrswende
25.02.2021 Cyanobakterien könnten die Plastikindustrie revolutionieren
23.02.2021 Erhöhter Wasserverbrauch in Zeiten des Lockdowns. Was bedeuten veränderte Routinen für die Versorgungssicherheit?
22.02.2021 Der Meeresspiegel an Nord- und Ostseeküste steigt
21.02.2021 Ein neuer Master-Studiengang Biotechnologie
19.02.2021 Perspektiven-Papier zeigt Forschungsbedarf zur unterirdischen Wasserstoffspeicherung
17.02.2021 Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem
16.02.2021 Wärmere Winter führen zu weniger Heringsnachwuchs in der westlichen Ostsee
15.02.2021 Ganzheitliches Aktivkohleverfahren beseitigt Spurenstoffe in Kläranlagen
14.02.2021 Verborgenes Wissen heben, um Ökovielfalt der Meere zu retten
11.02.2021 ACHEMA Pulse – das neue digitale Flagschiff für die Prozessindustrie setzt Segel
10.02.2021 Wie beeinträchtigt der Biokraftstoff E10 Filtersysteme im Auto?
07.02.2021 MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich
06.02.2021 CO2 ist nicht alles: Klimapolitik braucht stärkeren Fokus auf kurzlebige Schadstoffe
05.02.2021 Plastik in der Umwelt finden und vermeiden
02.02.2021 Folgen des Klimawandels an der Küste
01.02.2021 Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem
Gesundheit
24.02.2021 Klimawandel spielte womöglich wichtige Rolle bei der Entstehung vom SARS-CoV-2
20.02.2021 Schnellere und richtigere Diagnosen
13.02.2021 Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit
12.02.2021 Studie in Tansania: Traditionelle Ernährung verursacht weniger Entzündungen
03.02.2021 Höhere Tierwohlstandards lassen Milchpreise steigen
Gesellschaft
27.02.2021 Lerntechnologien und Mathematikdidaktik gemeinsam entwickeln
10.02.2021 BAuA-Arbeitszeitbefragung: Arbeitszeitgeschehen zeigt positive Trends bei hoher Stabilität
09.02.2021 Mit KI den Parkdruck auf der Straße messen
07.02.2021 Wie beeinflusst die Pandemie unser Denken und Fühlen?
02.02.2021 Fußball und Inklusion: Auf das richtige Trainingsklima kommt es an
Januar 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.01.2021 Neue Untersuchungen bestätigen Munitionsbelastung in der Ostsee erneut
29.01.2021 CO2-Bepreisung allein bringt technologischen Wandel kaum voran
28.01.2021 Stress an den deutschen Flüssen: Der Klimawandel setzt Umwelt und Wirtschaft unter Druck
27.01.2021 Regionaler Wasserstoff aus Biomasse – sauber und effizient!
26.01.2021 Permanenter Hitzezustand / Klimawandel fördert das Aufheizen von Seen
25.01.2021 Benzinpreise steigen nach CO2-Bepreisung und Mehrwertsteuererhöhung weniger als erwartet
24.01.2021 Klimawandel und Wasserstraßen
22.01.2021 KIT: Thermomagnetische Generatoren wandeln Abwärme auch bei kleinen Temperaturunterschieden in Strom
21.01.2021 Kommt Trinkwasser bald aus dem Meeresboden?
20.01.2021 Grundwasser beeinflusst die Chemie des Ozeans
18.01.2021 Corona-Trend Angeln: Die Artenvielfalt könnte profitieren
16.01.2021 Das neue Gesicht der Antarktis
14.01.2021 Seilbahnen als umweltfreundliche Alternative zum Autoverkehr
12.01.2021 Stadtlogistik: Wie lässt sich die „Letzte Meile“ möglichst nachhaltig gestalten?
10.01.2021 Verzicht auf Silvesterfeuerwerk erspart der Umwelt Tausende Tonnen Kunststoffe
07.01.2021 TU Berlin: Klärschlämme und Plastikfolien kontaminieren die Felder
05.01.2021 Neuer Forschungsverbund als „Turbo für Atmosphären- und Klimaforschung sowie Meteorologie“
02.01.2021 Speicherung erneuerbarer Energien und CO2-Verwertung
Gesundheit
30.01.2021 An der Uhr gedreht: Wie Zeit das Arbeitsgedächtnis beeinflusst
19.01.2021 Corona-Warn-App auf dem Prüfstand
17.01.2021 Schlaf für Erholung des Gehirns unersetzlich
13.01.2021 Erste Daten des Corona-Impfstoffes zeigen gute Verträglichkeit, aber schwache Immunreaktion
09.01.2021 Stellungnahme des KKNMS zur Methode der mRNA Vakzinierung
08.01.2021 Ein unbehandelter Bluthochdruck erhöht das Risiko für schwere COVID-19-Verläufe
04.01.2021 Generation 80+: Impfbereitschaft gut, Erreichbarkeit der Impfzentren schlecht
03.01.2021 Immunüberreaktion erklärt schweren COVID-19 Verlauf bei Patient*innen mit Bluthochdruck – Können ACE-Hemmer helfen?
Gesellschaft
23.01.2021 Erfolgsfaktoren für die Gestaltung einer teamorientierten Arbeitswelt
15.01.2021 Wenn ältere Beschäftigte ihr Wissen nicht mit Jüngeren teilen
11.01.2021 Menschen hören das, was sie zu hören erwarten
06.01.2021 Studie: Wie (un)beliebt ist die „Corona-Warn-App“?
01.01.2021 IAB-Arbeitsmarktbarometer: Arbeitsmarktentwicklung bleibt stabil
 

Summ-summ, schwirr’n Pestizide herum?

Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Bioanalytiker der Hochschule Coburg untersuchen Mikroorganismen auf Chitinpanzern von Bienen. Sie wollen herausfinden, wie sich Pflanzenschutzmittel hier auswirken.

Was Rapsfelder und Obstplantagen schützt, bedeutet für manche Organismen den Tod: Insektizide und Fungizide werden in der Landwirtschaft gegen Schädlinge und Pilze eingesetzt. Sie sind giftig. Das ist ihr Sinn. Zunehmend wird aber hinterfragt, welche Folgen solche Pflan-zenschutzmittel auch für andere Lebewesen haben. Mikrobiologen der Hochschule Coburg haben das in Versuchen mit Bienen untersucht – denn die haben nicht nur eine wichtige Funktion als Bestäuber in der Natur, in der Forschung werden sie auch gerne als Modellorganismen genutzt: „Honigbienen können leicht gezüchtet und untersucht werden“, sagt Leon Sohl. Er hat seine Masterarbeit in Bioanalytik darüber geschrieben, inwiefern Insektizide und Fungizide einen Einfluss auf die Außenhaut der Tiere haben.

Das Mikrobiom auf der Oberfläche war dabei erstmals zentraler Gegenstand der Forschung. „Das Mikrobiom ist eine Gemeinschaft von Mikroorganismen“, Sohl überlegt, wie er es beschreiben kann: „wie bei einer Gruppe von Menschen, unter denen ein paar Lehrer und Lehrerinnen sind, Leute die Taxi fahren, Sportler, Studierende – so ist das auch beim Mikrobiom: Da gibt es zum Beispiel Proteobakterien und Actinobakterien und auch verschiedene Pilze, die alle ihre Aufgaben haben.“ Solche Mikroorganismen sind wichtige Bestandteile allen Lebens. „Fungizide und Insektizide können das Mikrobiom verändern“, ergänzt Fabienne Reiß. Sie forscht an der Hochschule über Biozide in Baustoffen, schreibt ihre Doktorarbeit darüber, welchen Einfluss sie auf das Mikrobiom des Erdbodens haben und unterstützt Leon Sohl bei seinen Versuchen.

Viele Teile, ein großes Forschungsprojekt
Reiß‘ Doktorarbeit ist Teil des großen Forschungsverbundes „BayÖkotox“, der durch das Bayerische Landesamt für Umwelt koordiniert und durch das Bayerische Staatsministerium für Umwelt und Verbraucherschutz finanziert wird. Bayerische Wissenschaftler versuchen hier in unterschiedlichen Teilprojekten herausfinden, wie sich chemische Stoffe und Partikel auf Lebewesen und Umwelt auswirken. Das Teilprojekt an der Hochschule Coburg betreuen Prof. Dr. Matthias Noll und Prof. Dr. Stefan Kalkhof. Über den Ökotox-Verbund kam Noll in Kontakt zu Prof. Dr. Ricarda Scheiner, die an der Universität Würzburg am Lehrstuhl für Verhaltensphysiologie und Soziobiologie eine Bienenstation betreut. So landeten Würzburger Fungizid-Bienen in Coburg.

Leon Sohl hat einige der Versuchsbienen selbst in Würzburg gefangen: „Wir stecken sie in Röhrchen und geben danach flüssigem Stickstoff dazu: Alles friert sofort ein.“ Das Oberflächenmikrobiom dieses Moments wird konserviert, festgehalten wie auf einem Foto. Einige der Tiere sind mit Zuckerwasser gefüttert worden, andere mit den in Bayern verbreiteten Fungizidmitteln Cantus Gold und Difcor oder den Insektizidprodukten Mospilan und Steward. Und einige auch mit einer Kombination dieser Pflanzenschutzmittel.

Biene auf der Werkbank
Reiß und Sohl sitzen an einer sterilen Sicherheitswerkbank im Biochemie-Labor der Hoch-schule Coburg, Sohl greift mit einer Pinzette eine tote Biene aus einem Schälchen, Reiß lässt mit einer Pipette eine durchsichtige Flüssigkeit auf eine andere Biene in einem Glasröhrchen tropfen. „Flügel, Exoskelett, Beine werden präpariert und anschließend die DNA extrahiert.“ Sohl präzisiert, dass ein kleiner Abschnitt des bakteriellen 16S rRNA-Gens und der pilzlichen ITS-Region analysiert werden, um dann ganz genau sagen zu können, um welches Bakterium oder welchen Pilz es sich hier handelt. Am Ende steht fest, wie viele und welche Bakterien und Pilze auf der Biene gelebt haben. Untersucht wurden die sozial lebende Honigbiene (Apis mellifera) und auch die Rote Mauerbiene (Osmia bicornis), eine solitäre Wildbienenart.

In den Versuchen wurde nachgewiesen, dass sich das Außenhautmikrobiom bei verschiedenen Bienenarten unterscheidet und dass Pflanzenschutzmittel einen Einfluss darauf haben. Allerdings in geringerem Ausmaß als vorher angenommen wurde. Reiß zuckt die Schultern. „So ist das in der Forschung: Man weiß nie, was rauskommt.“ Manchmal stehen am Ende eines Projekts mehr Fragen als Antworten: Wie verändert sich das Oberflächenmikrobiom, wenn die Bienen nicht mit Bioziden gefüttert werden, ihr Körper aber behandelte Blüten streift? Und welche Auswirkungen haben die Veränderungen des Mikrobioms überhaupt? „Es gibt Anzeichen, dass gewisse Bakterien auf der Oberfläche der Bienen vor Varroamilbenbefall schützen, und die Würzburger untersuchen zum Beispiel, inwiefern sich das Verhalten der Bienen durch den Pestizideinsatz verändert“, erklärt Sohl. Er will nach der Masterarbeit erst einmal eine Arbeitsstelle in der Industrie antreten. Aber die Forschung in Coburg geht weiter. Das Team der Bioanalytik will das Thema mit weiteren Methoden genauer analysieren.

(nach oben)


Long COVID: potentieller therapeutischer Angriffspunkt entdeckt

Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
In einer neuen Studie hat eine Lübecker Forschungsgruppe untersucht, wie COVID-19 auf Endothelzellen im Gehirn wirkt. Zusammen mit weiteren Forscherinnen und Forschern aus Frankreich, Spanien und Deutschland fanden die Lübecker heraus, dass SARS-CoV-2 zu einem Gefäßuntergang im Gehirn führt, der durch die Spaltung eines Proteins namens NEMO vermittelt wird und durch eine spezifische pharmakologische Intervention unterbunden werden kann.

Diese neuen Erkenntnisse über die Wirkung von SARS-CoV-2 auf das Gefäßsystem des Gehirns bieten einen potenziellen therapeutischen Angriffspunkt für Long COVID. Die Studie unter der Leitung von Markus Schwaninger, Institut für Experimentelle und Klini-sche Pharmakologie und Toxikologie der Universität Lübeck, zeigt, dass Endothelzellen im Gehirn mit SARS-CoV-2 infiziert werden können, und dass eine solche Infektion zum Zelltod führt. Endothelzellen bilden die innere Schicht aller Gefäße im Körper, wobei die Endothelzellen des Gehirns spezielle Eigenschaften aufweisen, um eine dichte Schnittstel-le zwischen Blut und Gewebe, die so genannte Blut-Hirn-Schranke, zu bilden. Im Falle ei-nes Zelltods bleibt lediglich die äußere Hülle der Gefäße übrig, die aber nicht mehr von Blut durchströmt werden kann.

Einsatz hochentwickelter Technik
Die Folgen entdeckten sie in Gehirnproben von verstorbenen COVID-19-Patienten und Patientinnen, und in Zell- und Tiermodellen einer SARS-CoV-2-Infektion. Durch diese Modelle und den Einsatz hochentwickelter Techniken wie Einzelzell-RNA-Sequenzierung, Massenspektrometrie und Super-Resolution-Mikroskopie fanden sie heraus, dass die SARS-CoV-2-Hauptprotease Mpro ein Protein des Menschen, NEMO genannt, spaltet. Dieses Protein ist für das Überleben von Gehirnendothelzellen notwendig; seine Spaltung führt zum Untergang von Blutgefäßen durch sogenannte Nekroptose.

Die Autoren und Autorinnen konnten zeigen, dass die Blockierung der Nekroptose die Durchblutung des Gehirns von Mäusen verbessert. Auf diese Weise könnten Long COVID-Symptome wie das sogenannte Fatigue-Syndrom oder kognitive Beeinträchtigungen, die selbst Kinder und Betroffene mit anfänglich leichten Symptomen betreffen, behandelt werden.
Diese wegweisende Studie, die in Nature Neuroscience veröffentlicht wurde, liefert den ersten Beweis für eine direkte Wirkung von SARS-CoV-2 auf die Gefäße des Gehirns und bietet eine neuartige Strategie zur Überwindung neurologischer Folgen von COVID-19.

Wissenschaftliche Ansprechpartner:
Dr. Jan Wenzel, PhD
Universität zu Lübeck
Institut für Experimentelle und Klinische Pharmakologie und Toxikologie
Center of Brain, Behavior and Metabolism
Ratzeburger Allee 160
23562 Lübeck
Tel.: 0451 3101 7224
E-Mail: jan.wenzel@uni-luebeck.de

Prof. Dr. Markus Schwaninger
Universität zu Lübeck
Direktor des Instituts für Experimentelle und Klinische Pharmakologie und Toxikologie
Center of Brain, Behavior and Metabolism
Ratzeburger Allee 160
23562 Lübeck
Tel.: 0451 3101 7200
E-Mail: markus.schwaninger@uni-luebeck.de

Originalpublikation:
https://www.nature.com/articles/s41593-021-00926-1

(nach oben)


Neue Studie: Chancengerechtigkeit in der Bildung hat sich verbessert

Michael Sonnabend Kommunikation
Stifterverband
Stifterverband und McKinsey: Beteiligung von Nichtakademikerkindern am Bildungsweg hat sich auf allen Ebenen verbessert – Aber: Soziale Herkunft entscheidet immer noch über Bildungserfolg – Größte Hürde bleibt der Übergang von der weiterführenden Schule zur Hochschule.

Die Chancengerechtigkeit in der Bildung in Deutschland hat sich für Kinder aus Nichtakademikerfamilien in den letzten Jahren über alle Bildungsstufen verbessert. Gelingt ihnen der Wechsel an eine Hochschule, dann sind sie sogar ähnlich erfolgreich wie Akademikerkinder. Trotz dieser positiven Entwicklung gilt aber: Nach wie vor entscheidet in Deutschland die soziale Herkunft über den Bildungserfolg. Größte Hürde bleibt der Übergang von der weiterführenden Schule zur Hochschule. Das sind Ergebnisse der gemeinsamen Studie von Stifterverband und McKinsey & Company mit dem Titel „Vom Arbeiterkind zum Doktor – Der Hürdenlauf auf dem Bildungsweg der Erststudierenden“. Für die Studie wurde systematisch analysiert, wie genau sich in Deutschland die Bildungswege von Nichtakademiker- und Akademikerkindern unterscheiden. Die aktuellen Zahlen wurden dann mit einer identischen Erhebung aus dem Jahr 2017/18 verglichen.

Obwohl die meisten Kinder in einer Grundschulklasse aus einem nichtakademischen Haushalt kommen, bewältigen im Vergleich mit Kindern aus Akademikerhaushalten immer noch vergleichsweise wenige von ihnen die mentalen, kulturellen und finanziellen Hürden der Bildungslaufbahn. Die Studie zeigt: Von 100 Arbeiterkindern, die eine Grundschule besuchen, sitzen später nur 27 (+ 5, im Vergleich 2017/2018) in einem Hörsaal. Von den 100 Akademikerkindern schreiben sich hingegen später 79 (- 4) an einer Hochschule ein. Die COVID-19-Pandemie könnte den aktuell tendenziell positiven Trend allerdings wieder temporär verschlechtern: Besonders Kinder aus Nichtakademikerhaushalten hatten geringere digitale Möglichkeiten, um zu lernen.

„Deutschland verschenkt nach wie vor zu viel Bildungspotenzial“, stellt McKinsey- Partnerin Julia Klier mit Blick in deutsche Grundschulklassen fest. Die meisten Kinder kommen dort aus nichtakademischen Haushalten (71 Prozent). Doch nur 46 Prozent von ihnen wechseln später auf eine Schule, die den Hochschulzugang ermöglicht. Zwar hat sich der Wert seit der letzten Erhebung von Stifterverband und McKinsey um 2 Prozentpunkte verbessert. Aber bei den Akademikerkinder sind es mit 83 Prozent fast doppelt so viele. Die größte Hürde ist nach wie vor der Übergang vom Klassenzimmer in den Hörsaal.
Obwohl sich die Quote hier deutlich um 11 Prozentpunkte verbessert hat, liegt sie bei nur 59 Prozent. Zum Vergleich: Bei den Akademikerkindern gehen fast alle (95 Prozent) von einer weiterführenden Schule an die Uni. Julia Klier: „Um Hürden für Nichtakademikerkinder zu überwinden, sollte es beispielsweise mehr Werbeaktionen der Hochschulen in den Schulen geben und bereits erfolgreiche Initiativen wie Talent-Scouting-Programmen sowie Buddy- und Tandemprogramme für Erstsemester ausgebaut werden, um mentale Barrieren abzubauen.“

Wenige Erfahrungen im Umfeld, unzureichende mentale und finanzielle Hilfe von den Eltern, aber auch Informationsdefizite sind der Studie zufolge oft die Gründe, warum nur wenige Nichtakademikerkinder den Schritt von der weiterführenden Schule in den Hörsaal wagen. „Die neue Bundesregierung muss alles daransetzen, die Chancengerechtigkeit in der Bildung weiter massiv auszubauen. Deutschland braucht jedes einzelne Talent“, sagt Volker Meyer-Guckel, stellvertretender Generalsekretär des Stifterverbandes. „Finanzielle Hürden sollten durch eine umfassende BaföG-Reform abgebaut werden. Nur 15 Prozent der jungen Menschen aus Arbeiterfamilien können sich bei der Studienfinanzierung gänzlich auf ihre Eltern verlassen.“

Um den Zugang zur Hochschule zu erleichtern, sollten deshalb unter anderem ein höherer und ortsabhängiger Wohnzuschuss berücksichtigt werden, eine Förderung über die minimale Regelstudienzeit hinaus möglich sein und aktuelle Einkommensbescheide unkomplizierter berücksichtigt werden. Die Antragsstellung sollte bundesweit einheitlich und digitalisiert werden. „Darüber hinaus brauchen Schulen moderne Lehrpläne, die gut auf die gesellschaftlichen Herausforderungen und die Anforderung der Hochschulen vorbereiten“, so Meyer-Guckel.

Wissenschaftliche Ansprechpartner:
Dr. Felix Süßenbach
felix.suessenbach@stifterverband.de

Originalpublikation:
Die Studie „Vom Arbeiterkind zum Doktor“ zum Download finden Sie unter:
https://www.stifterverband.org/medien/vom_arbeiterkind_zum_doktor

(nach oben)


Warum systemische Risiken häufig unterschätzt werden – und wie Wissenschaft helfen kann

Sabine Letz Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Systemische Risiken werden von der Gesellschaft oft widersprüchlich bewertet und unterschätzt, was dazu führt, dass die Politik verzögert Maßnahmen ergreift. Wie kann die Wissenschaft in solchen Fällen unterstützen? Ein Team des Instituts für transformative Nachhaltigkeitsforschung (IASS) hat Empfehlungen für Politik und Wissenschaft zur Governance von systemischen Risiken wie etwa des Klimawandels entwickelt.

In ihrer im ‚Journal of Risk Analysis‘ erschienenen Studie untersuchen die Risikoforschenden Pia-Johanna Schweizer, Robert Goble und Ortwin Renn, warum systemische Risiken in der öffentlichen Wahrnehmung eine untergeordnete Rolle spielen und welche Dynamik damit verbunden ist.

Einer der Gründe dafür sei, dass Menschen auf kulturelle Erinnerungen an Risiken und Gefahren aus früheren Generationen zurückgreifen, die in heutigen Situationen nicht mehr schützen. So führt beispielsweise der Klimawandel dazu, dass sich die Klimaverhältnisse auch im Norden stark verändern und es zu häufigeren Extremwetter-Ereignissen kommt. Sogenannte Kipppunkte im Erdsystem lassen sich jedoch erst nach Überschreiten des kritischen Punktes nachvollziehen, doch dann ist es zu spät, um gegenzusteuern.

Vor dem Erreichen eines Kipppunktes erscheinen systemische Risiken für viele Menschen räumlich und zeitlich weit entfernt und dadurch weniger gefährlich als Risiken, die die Menschen unmittelbar bedrohen, so folgern die Autoren. Insbesondere seien sie weniger leicht verständlich und aufgrund ihrer Komplexität sowie Nichtlinearität weniger präsent im Bewusstsein der meisten Menschen.

„Selbst wenn ein systemisches Risiko wie der Klimawandel die Funktion lebenswichtiger Systeme der Gesellschaft bedroht, verspüren Viele weniger Dringlichkeit, das eigene Verhalten zu ändern oder strengere Regulierungsmaßnahmen zu akzeptieren“, erläutert IASS-Wissenschaftlerin Schweizer. „Wir Gesellschaftswissenschaftler beobachten hier zwei Effekte, die ineinandergreifen: Zum einen fragen sich die Menschen, was sie mit ihren eigenen Handlungen bewirken können, wenn große Konzerne und die Mehrheit der Menschen am ‚business as usual‘ festhalten. Zum anderen haben Menschen die fatalistische Wahrnehmung, dass es eh zu spät ist, um systemischen Risiken wie dem Klimawandel entgegen wirken zu können.

Die Autorin und die Autoren skizzieren ebenso die dynamischen Prozesse der gesellschaftlichen Wahrnehmung systemischer Risiken und untersuchten für ihre Analyse die Gründe für die mangelnde Aufmerksamkeit der Politik als auch der Öffentlichkeit dafür. „Wir konnten feststellen, dass sich die Wahrnehmung systemischer Risiken bei einem Großteil der Bevölkerung durch soziale Kommunikationsprozesse eher verringert als verstärkt“, sagt Hauptautorin Schweizer, „was effektiv zu einer geringeren Handlungsbereitschaft führt etwa im Falle des Klimawandels. Die gegenwärtigen Bemühungen sind unzureichend, um die Temperaturziele des Pariser Abkommens noch einzuhalten. Vielmehr wird darauf vertraut, dass Techniken wie Climate- und Geo Engineering-Techniken, die gegenwärtig noch nicht im großen Stil anwendbar sind, in Zukunft wesentlich dazu beitragen werden, die Klimaziele zu erreichen.“

Risiko wird im öffentlichen Diskurs heruntergespielt
Beim Umgang mit systemischen Risiken bezeichnet das Autorenteam die mangelnde Handlungs- und Änderungsbereitschaft als das maßgebliche Hindernis einer effektiven Risiko-Governance. Die folgenden Faktoren (unter anderen) führten ihrer Meinung nach zur Unterschätzung des Risikos:

1. Weil die meisten Wirkweisen von systemischen Risiken komplex und dynamisch sind, scheinen sie der menschlichen Intuition zu widersprechen. Die Menschen neigten dazu, sie als weniger plausibel und naheliegend einzustufen.

2. Die Wissenschaft könne keine unumstößlichen und eindeutigen Modelle für systemische Risiken liefern. Was dazu führe, dass Menschen Informationen, die mit Unsicherheit, Ungewissheit und Mehrdeutigkeit verbunden sind, als noch nicht ausgegoren und vor allem als wenig handlungsrelevant einschätzten, selbst wenn diese Informationen auf einer soliden wissenschaftlichen Analyse beruhen.

3. Erforderlich sei mehr Vertrauen in wissenschaftliche Einschätzungen. Die Wenigsten seien in der Lage, die Korrektheit wissenschaftlicher Argumente in einer öffentlichen Debatte zu beurteilen. Dass sich zudem die Anhaltspunkte im Laufe der Zeit ändern und oft widersprüchlich sind, irritiert und frustriert viele, was letztlich zu Fatalismus und damit einhergehender Untätigkeit führe.

4. Die Fehldeutung von systemischen Risiken werde durch digitale Kommunikationsmittel verbreitet, welche die Echokammern im öffentlichen Diskurs noch verstärken. Infolgedessen polarisieren sich die Wissenslager und differenzierte Ansätze werden ausgeblendet, die für den Umgang mit systemischen Risiken entscheidend wären.

Für die Wissenschaft ergeben sich für das IASS-Autorenteam daher zwei Aufgaben: Eine sei Entscheidungsfindungsprozesse mit Expertise zu unterstützen. Wissenschaftlerinnen und Wissenschaftler sollten in interdisziplinären Teams ihr Wissen um die komplexen Wirkmechanismen von systemischen Risiken zusammentragen und gegenüber Politik und Öffentlichkeit durch nachvollziehbare Narrative und realitätsnahe Illustrationen in Form von grafischen Darstellungen und Simulationen zu kommunizieren. Ebenso empfiehlt das Autorenteam Gaming-Tools, um einen partizipativen, deliberativen Ansatz für eine umfassende Risiko-Governance zu vermitteln.

Diese kommunikativen Formen der Verständigung sollen Entscheidungsträgerinnen und -träger wie auch die Öffentlichkeit gleichermaßen befähigen, umsichtige und dem Problem angemessene Maßnahmen einzuleiten.

Die andere Aufgabe sei es, bei der Risiko-Governance einen integrativen Ansatz zu verfolgen, um viele wissenschaftliche Disziplinen genauso wie Organisationen und Behörden zusammenzuführen. Ziel sei es, Kommissionen oder Steuerungsgruppen interdisziplinär, querschnittsorientiert und integrativ auszurichten. Einfließen müssen verschiedene Interessen, Perspektiven und Wertvorstellungen, um Risiken umfassend bewerten zu können.

Systemische Risiken können verheerende Auswirkungen haben, so das Fazit des Autorenteams. Jedoch könne diese Gefahr gemindert und systemische Risiken besser gemanagt werden, wenn erkannt wird, welche sozialen Prozesse die Wahrnehmung von systemischen Risiken beeinflussen.

Wissenschaftliche Ansprechpartner:
Dr. Pia-Johanna Schweizer
Forschungsgruppenleiterin am IASS
Tel. +49 (0)331 288 22-457
E-Mail pia-johanna.schweizer@iass-potsdam.de

Originalpublikation:
Pia-Johanna Schweizer, Robert Goble und Ortwin Renn: Social Perception of Systemic Risks, Risk Analysis 2021. DOI: 10.1111/risa.13831

Weitere Informationen:
https://www.iass-potsdam.de/de/news/warum-systemische-risiken-haeufig-unterschae…

(nach oben)


Flutgebiete fit machen für den Klimawandel

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Wie kann man beim Wiederaufbau in den Katastrophengebieten an der Ahr und verschiedenen Flüssen in Nordrhein-Westfahlen die Siedlungs- und Infrastrukturen an künftige Starkregen und Hochwasser anpassen, um Schäden und Opfer zu verringern? Dies untersucht ein Team unter der Leitung des Raumplaners Prof. Jörn Birkmann von der Universität Stuttgart und des Experten für Wasserwirtschaft Prof. Holger Schüttrumpf von der RWTH Aachen. Das Projekt (voraussichtlicher Start November 2021) wird vom Bundesministerium für Bildung und Forschung (BMBF) mit rund fünf Millionen Euro gefördert.

180 Tote, Schäden in Höhe von 30 Milliarden Euro: Das Hochwasser an der Ahr und an verschiedenen Flüssen in Nordrhein-Westfalen im Juli 2021 gehört zu den größten Naturkatastrophen, die Deutschland nach dem zweiten Weltkrieg getroffen haben, und in Folge des Klimawandels dürften solche Extremereignisse noch zunehmen. Die Herausforderungen für die betroffenen Regionen sind enorm, aber, so Bundesforschungsministerin Anja Karliczek: „Der Wiederaufbau bietet die Chance, die Regionen zukunftsfähig und klimaresilient zu gestalten – damit die Menschen dort wieder gut und sicher leben können. Unser Ziel muss sein, dass die Regionen in Zukunft widerstandsfähiger gegenüber Extremwetter und weiteren Folgen des Klimawandels sind.“

Unterstützen soll diesen Prozess ein wissenschaftliches Projekt mit Experten aus ganz Deutschland, das die Cluster „Räumliches Risikomanagement und Anpassung“ (Sprecher Prof. Jörn Birkmann, Institut für Raumordnung und Entwicklungsplanung der Universität Stuttgart, IREUS) und „Hochwasser-Risiko-Analysen“ (Sprecher Prof. Holger Schüttrumpf, RWTH Aachen) umfasst. Mit beteiligt sind u.a. auch Forschende der Universität Potsdam, des Deutschen GeoForschungsZentrums GFZ, des Helmholtz-Zentrums für Umweltforschung UFZ, der TU Kaiserslautern, der Hochschule Koblenz sowie weitere Praxispartner.

„Wir wollen zum Beispiel prüfen, wie man über die gesetzlich festgelegten Überschwemmungszonen hinaus hochwasserangepasste Siedlungs- und Infrastrukturen strategisch fördern kann. Dazu gehört die Frage, wie und wo man Wassermassen ableiten kann, damit diese eben nicht zu zahlreichen Opfern und massiven Schäden führen wie 2021“, erklärt Jörn Birkmann. Dies könne unter anderem durch Notwasserwege oder die gezielte Ableitung von Starkregen auf Sportplätze oder Freiflächen in Städten und Dörfern geschehen. Zudem soll untersucht werden, welche Haushalte vom Fluss wegziehen möchten und ob es in den jeweiligen Orten Wohnstandorte gibt, die eine höhere Sicherheit gegenüber Extremereignissen bieten. Dabei geht es nicht nur um die räumliche Exposition eines Standorts, sondern auch um Fragen der Verwundbarkeit, erläutert Birkmann: „Einstöckige Schulgebäude in direkter Nähe zu kleinen Flüssen zum Beispiel sind nicht hilfreich, da Kinder – als besonders verwundbare Gruppe – im Fall der Fälle nicht in ein höheres Stockwerk evakuiert werden können.“

Wissenschaftliche Ansprechpartner:
Prof. Jörn Birkmann, Universität Stuttgart, Institut für Raumordnung und Entwicklungsplanung, Tel. ++ 49 (0)711 685-66333, E-Mail joern.birkmann@ireus.uni-stuttgart.de

(nach oben)


Auch ohne Arztbesuch: Neues nicht-klinisches Modell sagt zuverlässig Risiko für Herz-Kreislauf-Erkrankungen vorher

Susann-C. Ruprecht Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Ob Blutdruckmessung oder Blutfettanalyse – eine zuverlässige Risiko-Abschätzung für Herz-Kreislauf-Erkrankungen setzt bislang medizinische Untersuchungen und damit den Besuch einer Arztpraxis voraus. Ein Team um Dr. Catarina Schiborn und Prof. Matthias Schulze vom DIfE hat nun in Kooperation mit dem Deutschen Krebsforschungszentrum in Heidelberg ein Vorhersagemodell entwickelt, mit dessen Hilfe sich auch ohne Arztbesuch einfach und präzise ermitteln lässt, wie hoch das Risiko eines Menschen ist, innerhalb der nächsten zehn Jahre einen Herzinfarkt oder Schlaganfall zu erleiden. Das Modell lässt sich auch für Empfehlungen nutzen, wie das individuelle Erkrankungsrisiko gesenkt werden kann.

Unter dem Begriff Herz-Kreislauf-Erkrankungen werden die vielfältigen Erkrankungen des Herzens und der Blutgefäße zusammengefasst. Dazu zählen insbesondere Herzinfarkt und Schlaganfall sowie Erkrankungen der Herzkranzgefäße. Herz-Kreislauf-Erkrankungen sind hierzulande mit 40 Prozent aller Sterbefälle die häufigste Todesursache. Neben unveränderbaren Faktoren wie Alter, Geschlecht und genetischer Veranlagung hat der Lebensstil einen großen Einfluss auf die Gesundheit des Herz-Kreislauf-Systems. Ein verändertes Ernährungs-, Bewegungs- und Rauchverhalten sowie die Behandlung von Bluthochdruck, Übergewicht, Diabetes und Fettstoffwechselstörungen sind demnach wichtige Stellschrauben, um das individuelle Erkrankungsrisiko zu senken. Wie hoch dieses für einen Menschen ist, ließ sich bislang jedoch nur aufwendig ermitteln.
Einfache Risikoermittlung birgt großes Präventionspotential

Eine zuverlässige, evidenzbasierte Risikoabschätzung für Herz-Kreislauf-Erkrankungen beschränkt sich aktuell weitestgehend auf den klinischen Bereich, denn sie erfordert meist körperliche Untersuchungen und Blutanalysen durch medizinisches Personal. „Die wenigen Vorhersagemodelle, die sich unabhängig von einer medizinischen Untersuchung nutzen lassen, haben methodische Einschränkungen und ihre Anwendung erfordert beispielsweise Informationen zur Aufnahme einzelner Nährstoffe wie Ballaststoffe.
Dadurch sind sie ohne eine umfassende Datenerhebung zur Ernährung kaum anwendbar“, erklärt Dr. Catarina Schiborn, wissenschaftliche Mitarbeiterin der Abteilung Molekulare Epidemiologie am DIfE.

Ziel der Wissenschaftlerin war es daher, ein evidenzbasiertes Vorhersagemodell zu entwickeln, welches das Erkrankungsrisiko unabhängig vom Arztbesuch ermittelt und dabei leicht zu erfassende Informationen nutzt. „Ein solches Werkzeug würde die Präventionsmöglichkeiten erheblich verbessern, denn durch den breiten Einsatz könnten Hochrisikopersonen frühzeitig auch im Rahmen von zum Beispiel Gesundheitskampagnen und -screenings erkannt, informiert und im weiteren Verlauf behandelt werden“, sagt Schiborn.

Daten von 27.500 Menschen als Basis
Für die Entwicklung des Vorhersagemodells hat das Forscherteam auf die Gesundheits- und Lebensstil-Daten von rund 27.500 Teilnehmenden der EPIC-Potsdam-Studie zurückgegriffen. In die statistischen Modellierungen flossen Parameter ein, die für die Vorhersage von Herz-Kreislauf-Erkrankungen relevant sind. Dazu zählen Faktoren wie Alter, Geschlecht, Hüftumfang, Rauchverhalten, Bluthochdruck und Typ-2-Diabetes sowie Erkrankungsfälle in der Familie. Außerdem erfasst das Modell Ernährungsgewohnheiten, wie beispielsweise den Verzehr von Vollkornprodukten, rotem Fleisch und Pflanzenölen. Anhand dieser Daten gelang es den Forschenden zuverlässig zu berechnen, wie groß das Risiko eines Menschen ist, innerhalb der kommenden zehn Jahre einen Herzinfarkt oder einen Schlaganfall zu erleiden.

Um zu bewerten, wie gut das Modell das Eintreten dieser sogenannten Endpunkte vorhersagt, nutzten die Forschenden Daten der vom Deutschen Krebsforschungszentrum koordinierten Heidelberger EPIC-Studie. Zudem verglichen sie ihre Berechnungen mit etablierten Vorhersagemodellen, die klinische Parameter einschließen. Das Ergebnis: Das entwickelte nicht-klinische Vorhersagemodell sagt die Wahrscheinlichkeit einer Herz-Kreislauf-Erkrankung für die nächsten zehn Jahre ebenso präzise voraus wie klinische Modelle, die eine medizinische Untersuchung erfordern. Eine ebenfalls entwickelte Erweiterung, die klinische Parameter berücksichtigt, verbesserte die Vorhersagegüte nur wenig.

Fokus auf die Rolle des Lebensstils
„Dass unser Vorhersagemodell sich im Vergleich zu klinischen Tests stärker auf Verhaltensparameter stützt, ist ein großer Vorteil“, sagt Prof. Dr. Matthias Schulze, Leiter der Abteilung Molekulare Epidemiologie am DIfE. „So tritt die Bedeutung eines präventiven Lebensstils für die Herz- und Gefäßgesundheit in den Vordergrund, statt den Fokus auf die medikamentöse Behandlung als Konsequenz eines unvorteilhaften Lebensstils zu richten“. Da das Modell beeinflussbare Risiken wie Hüftumfang, Rauch- und Ernährungsverhalten berücksichtigt, kann es für konkrete individuelle Empfehlungen genutzt werden, wie sich das Erkrankungsrisiko durch eine Verhaltensänderung senken lässt.

In einem nächsten Schritt wollen die Wissenschaftlerinnen und Wissenschaftler das Vorhersagemodell in Form eines Risiko-Tests als frei verfügbaren Papier- und Online-Fragebogen zur Verfügung stellen. Geplant ist, das Online-Tool mit dem ebenfalls am DIfE entwickelten DIfE – Deutscher Diabetes-Risiko-Test® (DRT) zusammenzuführen, so dass eine kombinierte Risiko-Vorhersage für eine Typ-2-Diabetes-und Herz-Kreislauf-Erkrankung möglich ist. Wie der DRT wurde die Entwicklung des Vorhersagemodells für Herz-Kreislauf-Erkrankungen vom Deutschen Zentrum für Diabetesforschung (DZD) finanziell gefördert.

Hintergrundinformationen

Evidenzbasiert
Das Adjektiv beschreibt, dass etwas auf Grundlage empirisch zusammengetragener und bewerteter wissenschaftlicher Erkenntnisse erfolgt. Ein evidenzbasiertes Vorhersagemodell wie das Modell zur Vorhersage des 10-Jahres-Risikos für Herz-Kreislauf-Erkrankungen stützt sich also auf wissenschaftlich nachgewiesene und quantifizierbare Zusammenhänge zwischen der Erkrankung und ihren Risikofaktoren.

EPIC-Potsdam-Studie
Die European Prospective Investigation into Cancer and Nutrition (EPIC)-Potsdam-Studie ist eine bevölkerungsbasierte prospektive Kohortenstudie des DIfE. Sie ist Teil der EPIC-Studie, einer der größten Kohortenstudien der Welt, die das Ziel hat, Beziehungen zwischen Ernährung, Ernährungsstatus, Lebensstil und Umweltfaktoren sowie der Inzidenz von Krebs und anderen chronischen Krankheiten wie Typ-2-Diabetes zu untersuchen. Bei prospektiven Kohortenstudien wird eine große Gruppe gesunder Menschen zunächst umfangreich untersucht und anschließend über einen langen Zeitraum beobachtet, welche Krankheiten auftreten. Die Beobachtungen können Hinweise auf Risikofaktoren für häufige Erkrankungen liefern.

Die ca. 27.500 Teilnehmenden der EPIC-Potsdam-Studie wurden zwischen 1994 und 1998 rekrutiert und untersucht, zum Beispiel der Blutdruck und die Körpermaße bestimmt. Außerdem wurden sie zu ihren Ernährungsgewohnheiten und ihrem Lebensstil befragt und Blutproben entnommen. Im noch immer laufenden Nachbeobachtungszeitraum wurden die Studienteilnehmenden bislang sechsmal zu ihren Ernährungsgewohnheiten, ihrem Lebensstil und aufgetretenen Erkrankungen befragt. Seit 2014 erfolgen in begrenztem Umfang auch Nachfolgeuntersuchungen.

[https://www.dife.de/forschung/kooperationen/epic-studie/]

Wissenschaftliche Ansprechpartner:
Dr. Catarina Schiborn
Wissenschaftliche Mitarbeiterin der Abteilung Molekulare Epidemiologie
Tel.: +49 33 200 88 – 2526
E-Mail: catarina.schiborn@dife.de

Prof. Dr. Matthias Schulze
Leiter der Abteilung Molekulare Epidemiologie
Tel.: +49 33 200 88 – 2434
E-Mail: mschulze@dife.de

Originalpublikation:
Schiborn, C., Kühn, T., Mühlenbruch, K., Kuxhaus, O., Weikert, C., Fritsche, A., Kaaks, R., Schulze, M. B.: A newly developed and externally validated non-clinical score accurately predicts 10-year cardiovascular disease risk in the general adult population. Sci. Rep. 11:19609 (2021). [Open Access]

https://doi.org/10.1038/s41598-021-99103-4

(nach oben)


Harald Kunstmann: Grundwasser – Feuchter Sommer bringt Entspannung, gleicht Defizit aber nicht aus

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Für seine lösungsorientierte Forschung und Modellsysteme, welche die hydrologischen Vorgänge im Gesamtsystem darstellen, erhielt Harald Kunstmann den Wasser-Ressourcenpreis 2021 der Rüdiger Kurt Bode-Stiftung.

Der Sommer 2021 war durchwachsen: Während es im Juni im Süden Deutschlands durchschnittlich noch rund zwei Grad wärmer war als im langjährigen Mittel, war es gerade im Juli und August deutlich nasser und kälter. Die Durchschnittstemperatur lag um eineinhalb bis zwei Grad unter diesem Mittelwert und regional gab es bis zu doppelt so viel Niederschlag. Was das für den Grundwasserspiegel bedeutet, weiß Professor Harald Kunstmann vom Institut für Meteorologie und Klimaforschung des Karlsruher Instituts für Technologie (KIT): „In den meisten Gebieten in Baden-Württemberg und Bayern hat sich der oberflächennahe Grundwasserspiegel durch den vermehrten Regen stabilisiert. Die tieferen Schichten haben von der Erholung allerdings wenig mitbekommen; hier ist der Wasserstand vielerorts immer noch sehr niedrig.“

Der Grundwasserspiegel teilt sich in die oberflächennahen und die tiefen Stockwerke. Während sich die oberen schnell auffüllen, dauert es deutlich länger, bis das Wasser auch die tieferen erreicht. „Der feuchte Sommer bringt zwar lokale Entspannung, kann das grundsätzliche Defizit aber nicht ausgleichen“, sagt der Hydrologe. Bereits seit 2003 nimmt beispielsweise in weiten Teilen Bayerns die Grundwasserneubildung ab. „Die Grundwasserbildung findet hauptsächlich im Winter statt, wenn die Vegetation ruht. Um die Grundwasservorkommen aufzufüllen, müsste es auch im Winter wieder mehr regnen und schneien.“

Das Verdichten und Versiegeln der Böden in der Landwirtschaft, im Wald und in den Städten verschärften das Problem. „Wir müssen dem Wasser erlauben, wieder besser in den Boden einzusickern“, so Kunstmann.

Um sich künftig regional angepasst auf die verschiedenen Wetterextreme wie Hitzeperioden oder Starkregen einstellen und passende Strategien entwickeln zu können, gelte es, sowohl ihre räumliche als auch zeitliche Verteilung genau in den Blick zu nehmen. „Da sich solche Extreme lokal völlig unterschiedlich auswirken, bringen uns Mittelwerte nicht weiter, und wir müssen genauer in die Regionen hineinzoomen“, sagt der Wissenschaftler.

Kunstmann untersucht deshalb anhand von hochauflösenden Modellsystemen, wie sich beispielsweise Klimaveränderungen auf den regionalen Wasserhaushalt der Erde auswirken oder welche langfristigen Entwicklungen zu erwarten sind. „Wir haben Modellsysteme weiterentwickelt, welche die hydrologischen Vorgänge im Gesamtsystem darstellen: vom Grundwasser und oberflächennahen Erdschichten über die Landoberfläche bis in etwa 30 Kilometer Höhe in der Atmosphäre“, erläutert er. So ließen sich nicht nur die Auswirkungen der steigenden Treibhausgase, sondern auch die Wechselwirkungen zwischen Veränderungen der Landoberfläche, beispielsweise durch großflächige Landnutzungsänderungen, und der Atmosphäre, und damit auch der Niederschläge, verstehen.

Für seine lösungsorientierte Forschung erhielt Harald Kunstmann den Wasser-Ressourcenpreis 2021 der Rüdiger Kurt Bode-Stiftung.
Weitere Informationen zu den Modellberechnungen finden Sie im Expertenporträt: https://www.sek.kit.edu/kit-experten_Kunstmann.php

Für weitere Informationen stellt der Presseservice des KIT gerne den Kontakt zu dem Experten her.
Bitte wenden Sie sich an Sandra Wiebe, Tel.: 0721 608-41172, sandra.wiebe@kit.edu, oder an das Sekretariat der Abteilung Gesamtkommunikation, Tel.: 0721 608-41105, E-Mail an presse@kit.edu.
Im Portal „KIT-Expertinnen und -Experten“ finden Sie weitere Ansprechpartner zu Highlights der Forschung am KIT und tagesaktuellen Themen: www.sek.kit.edu/kit-experten.php

Karlsruher Institut für Technologie (KIT)
Strategische Entwicklung und Kommunikation (SEK)
Monika Landgraf
Leiterin Gesamtkommunikation
Pressesprecherin
Kaiserstraße 12
76131 Karlsruhe
Telefon: +49 721 608-41105
E-Mail: presse@kit.edu
www.kit.edu

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

(nach oben)


Delta und Delta Plus weichen der Antikörperantwort aus

Dr. Susanne Diederich Stabsstelle Kommunikation
Deutsches Primatenzentrum GmbH – Leibniz-Institut für Primatenforschung
Zellkulturstudien zeigen, dass die SARS-CoV-2-Varianten Delta und Delta Plus Lungenzellen besser infizieren und schlechter durch Antikörper gehemmt werden

Das Auftreten von neuen SARS-CoV-2-Varianten, die sich schnell ausbreiten und den Impfschutz unterlaufen können, gefährdet das Ende der COVID-19-Pandemie. Die Delta-Variante (B.1.617.2) hat sich von Indien aus in kurzer Zeit weltweit ausgebreitet und auch in Deutschland gehen fast alle Infektionen auf diese Variante zurück. Außerdem wurden sogenannte Delta Plus Viren beobachtet, die zusätzliche Mutationen tragen, die sie möglicherweise gefährlicher machen. Ein Forschungsteam um Stefan Pöhlmann und Markus Hoffmann vom Deutschen Primatenzentrum (DPZ) – Leibniz-Institut für Primatenforschung in Göttingen sowie Forschende an der Medizinischen Hochschule Hannover, der Universitätsmedizin Göttingen und der Friedrich-Alexander-Universität Erlangen-Nürnberg haben untersucht, warum sich die Delta-Variante so schnell ausbreitet, und ob Delta Plus Viren besonders gefährlich sind. Sie konnten zeigen, dass Delta und Delta Plus Lungenzellen besser infizieren als das Ursprungsvirus. Zudem war einer von vier zur Behandlung von COVID-19 eingesetzten Antikörpern gegen Delta nicht wirksam und Delta Plus war sogar gegen zwei der Antikörper resistent. Auch Antikörper, die nach Impfung mit den Vakzinen von BioNTech-Pfizer und Oxford-AstraZeneca gebildet wurden, waren gegen Delta und Delta Plus weniger wirksam als gegen das Ursprungsvirus. Delta und Delta Plus wurden dagegen vergleichbar gehemmt, weswegen man davon ausgehen kann, dass Delta Plus für Geimpfte wahrscheinlich keine größere Gefahr darstellt als Delta. Schließlich hatten Personen, die zuerst mit Oxford-AstraZeneca und dann mit BioNTech-Pfizer geimpft wurden, deutlich mehr Antikörper, die Delta hemmten, als Personen, die zweimal mit Oxford-AstraZeneca geimpft wurden. Die Kombination von Impfstoffen könnte daher geeignet sein, um einen besonders starken Schutz gegen SARS-CoV-2-Varianten aufzubauen (The Lancet, Cell Reports, Cell Mol Immunol).

Mehr als 99 Prozent der SARS-Coronavirus-2 Infektionen in Deutschland gehen laut Robert Koch Institut derzeit auf die Delta-Variante zurück. Mit Hilfe von Experimenten in Zellkultur konnte das Team um Stefan Pöhlmann und Markus Hoffmann zeigen, dass Delta im Vergleich zum Ursprungsvirus (das Virus, das sich in der führen Phase der Pandemie ausgebreitet hat) besser in Lungenzellen eindringen kann. Zudem gelingt es Delta besser, infizierte Lungenzellen mit nicht infizierten Zellen zu verschmelzen. „Es ist denkbar, dass sich die Delta-Variante durch die Verschmelzung von Zellen in den Atemwegen besser ausbreiten und größeren Schaden anrichten kann. Das könnte zu schwereren COVID-19-Verläufen beitragen“, vermutet Prerna Arora, Wissenschaftlerin am Deutschen Primatenzentrum und Erstautorin zweier Studien, die sich speziell mit der Delta- und Delta Plus-Variante befassen.

Zur Behandlung von COVID-19 werden monoklonale Antikörper eingesetzt. Monoklonale Antikörper sind Proteine, die gentechnisch hergestellt werden. Anders als unser Immunsystem, das bei einer Infektion eine Vielzahl von Antikörpern gegen den Erreger produziert, werden also für die COVID-19-Therapie nur isolierte Antikörper oder Kombinationen dieser Antikörper eingesetzt. Vier dieser Antikörper hat das Team um Stefan Pöhlmann und Markus Hoffmann untersucht. Dabei zeigte sich, dass Delta resistent ist gegen den Antikörper Bamlanivimab. Delta Plus ist resistent gegen zwei Antikörper: Bamlanivimab und Etesevimab, die bei der Behandlung von Erkrankten in Kombination eingesetzt werden.

Dass Delta und Delta Plus weniger gut durch Antikörper von infizierten und geimpften Personen gehemmt (neutralisiert) werden als das Ursprungsvirus, hat wahrscheinlich zur raschen Ausbreitung von Delta beigetragen. Ein Vergleich von Delta und Delta Plus zeigte, dass beide Viren vergleichbar neutralisiert werden. „Das bedeutet, dass die Impfung wahrscheinlich einen vergleichbaren Schutz gegen Delta und Delta Plus vermittelt und Delta Plus nicht deutlich gefährlicher ist“, sagt Stefan Pöhlmann. Der Impfstoff von BioNTech-Pfizer wird in Europa am häufigsten eingesetzt, gefolgt vom Impfstoff von Oxford-AstraZeneca. Aufgrund von sehr seltenen Nebenwirkungen nach Impfung mit Oxford-AstraZeneca wird in Deutschland und anderen Ländern empfohlen, dass bei Personen, die bereits eine erste Impfung mit Oxford-AstraZeneca erhalten haben, BioNTech-Pfizer für die zweite Impfung eingesetzt wird. Man spricht von einer Kreuzimpfung. „Unsere Studien zeigen, dass die Kreuzimpfung deutlich mehr neutralisierende Antikörper gegen Delta induziert als zwei Impfungen mit Oxford-AstraZeneca. Personen, die eine solche Kreuzimpfungen erhalten haben, könnte daher besonders gut vor Delta und Delta Plus geschützt sein“, sagt Markus Hoffmann.

„Unsere Ergebnisse decken sich mit der Beobachtung, dass Impfungen effizient vor einer schweren Erkrankung nach Infektion mit Delta schützen, aber die Infektion häufig nicht vollständig unterdrücken können. In Anbetracht des starken Schutzes vor schwerer Erkrankung muss das Ziel weiterhin eine möglichst hohe Impfquote sein. Dies sollte verhindern, dass bei einer starken Ausbreitung von Delta und eng verwandten Viren in den Wintermonaten das Gesundheitssystem überlastet wird“, sagt Stefan Pöhlmann.

Originalpublikationen
Behrens GM, Cossmann A, Stankov MV, Nehlmeier I, Kempf A, Hoffmann M, Pöhlmann S. SARS-CoV-2 delta variant neutralisation after heterologous ChAdOx1-S/BNT162b2 vaccination. The Lancet. 2021 Sep 18;398(10305):1041-1042. https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(21)01891-2/fullt…

Arora P, Sidarovich A, Krüger N, Kempf A, Nehlmeier I, Graichen L, Moldenhauer AS, Winkler MS, Schulz S, Jäck HM, Stankov MV, Behrens GMN, Pöhlmann S, Hoffmann M. B.1.617.2 enters and fuses lung cells with increased efficiency and evades antibodies induced by infection and vaccination, Cell Reports, 2021, 109825, ISSN 2211-1247, https://doi.org/10.1016/j.celrep.2021.109825

Arora P, Kempf A, Nehlmeier I, Graichen L, Sidarovich A, Winkler MS, Schulz S, Jäck HM, Stankov MV, Behrens GMN, Pöhlmann S, Hoffmann M. Delta variant (B.1.617.2) sublineages do not show increased neutralization resistance. Cell Mol Immunol. 2021 ; https://doi.org/10.1038/s41423-021-00772-y

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Pöhlmann
Tel: +49 551 3851-150
E-Mail: spoehlmann@dpz.eu

Dr. Markus Hoffmann
Tel: +49 551 3851-338
E-Mail: mhoffmann@dpz.eu

Weitere Informationen:
http://medien.dpz.eu/pinaccess/pinaccess.do?pinCode=NHOBNwC2pi79 – Druckfähige Bilder
https://www.dpz.eu/de/aktuelles/neuigkeiten/einzelansicht/news/delta-und-delta-p… – Pressemitteilung auf der DPZ-Website

(nach oben)


Bürgermessstelle für Umweltradioaktivität in der Nähe der Schachtanlage Asse II nimmt Betrieb auf

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Forschungsverbund TRANSENS gibt Bürgerinnen und Bürgern die Gelegenheit, Radioaktivität in ihrer Umgebung selbst zu messen

In direkter Umgebung der Schachtanlage Asse II können sich interessierte Bürgerinnen und Bürger jetzt an einem Forschungsprojekt beteiligen. Eine neue Bürgermessstelle für Umweltradioaktivität in Remlingen-Semmenstedt gibt Menschen die Gelegenheit, Radioaktivität in ihrer Umgebung selbst zu messen. Denn rund 126.000 Fässer mit leicht- und mittelradioaktiven Abfällen lagern in der Asse. Diese sollen zurückgeholt werden.

Die Bürgermessstelle in Remlingen wird von Mitarbeiterinnen und Mitarbeitern des Instituts für Radioökologie und Strahlenschutz der Leibniz Universität Hannover (LUH) begleitet. Sie ist Teil des Forschungsvorhabens TRANSENS (Transdisziplinäre Forschung zur Entsorgung hochradioaktiver Abfälle in Deutschland), in dem 16 Forschungseinrichtungen und Institute zusammenarbeiten.

Im Projekt TRANSENS werden außerakademische Akteurinnen und Akteure in die wissenschaftliche Arbeit eingebunden, wie der stellvertretende Projektsprecher und Leiter des Arbeitspakets Bevölkerung vom Institut für Radioökologie und Strahlenschutz der LUH, Prof. Dr. Clemens Walther, erläutert: „Ein Blick über den deutschen Tellerrand hinaus zeigt uns, dass der möglichst direkte Einbezug der lokalen Bevölkerung in die Messung von Umweltradioaktivität – wie er beispielsweise an der Nevada Test Site in den USA bereits seit den achtziger Jahren praktiziert wird – einen positiven Beitrag zum öffentlichen Diskurs liefern kann. Indem Bürgerinnen und Bürgern vor Ort die Möglichkeit eröffnet wird, eigene Messexpertise aufzubauen, Daten korrekt zu interpretieren und Messeergebnisse konsequent veröffentlicht werden, wird in diesem sensiblen Themenfeld ein wichtiger Beitrag zur informativen Selbstbestimmung in der Bevölkerung geschaffen.“

Projekt-Sprecher Prof. Dr. Klaus-Jürgen Röhlig, TU Clausthal, ergänzt: „Wir führen eine intensive Interaktion der Bürgerinnen und Bürger mit Wissenschaftlern in TRANSENS durch – mit unseren Begleitgruppen, zum Beispiel der Arbeitsgruppe Bevölkerung. Neben dieser transdisziplinären Arbeit beforschen wir den Prozess auch im Rahmen der Transdisziplinaritätsforschung. Hier wird von Sozialwissenschaftlern die Interaktion von Bevölkerung und Wissenschaft untersucht. Wir hoffen, mit unseren Forschungsergebnissen einen Beitrag zu den wissenschaftlichen Grundlagen des Standortauswahlverfahrens leisten zu können, sowohl im Hinblick auf Partizipation als auch auf naturwissenschaftlich-technische Themen.“

Die Samtgemeinde Elm-Asse stellt als Partner des Projekts die Räumlichkeiten für den Betrieb der Bürgermessstelle in einem Nebengebäude des Rathauses von Remlingen zur Verfügung. Proben aus dem Boden beziehungsweise aus Früchten, Gras, Wasser und vielem mehr können dort gemessen werden. Ziel ist es, zu ermitteln, welche Radionuklide in den Umweltproben enthalten sind. „Mittels Gamma-Spektrometrie lässt sich eine Vielzahl von radioaktiven Stoffen in praktisch allen Umweltmedien ohne besonders aufwändige Probenvorbereitung sehr genau bestimmen“, sagt Dr. Wolfgang Schulz, modulverantwortlicher Wissenschaftler an der LUH. Bürgerinitiativen, Privatpersonen, aber auch Schulen können sich an den Messungen beteiligen. Sie werden dabei von den Expertinnen und Experten der LUH wissenschaftlich angeleitet. Die gesamte Ausstattung der Umweltmessstelle soll nach Ende der Projektlaufzeit (2024) vor Ort bleiben und die Messstelle entsprechend verstetigt werden. Neben der eigentlichen Messarbeit vor Ort soll auch ein umfangreicher Wissenstransfer zum Thema Radioaktivität an Bürgerinnen und Bürger stattfinden. An der Mitarbeit Interessierte können sich unter schulz@irs.uni-hannover.de an Dr. Wolfgang Schulz wenden.

Der niedersächsische Wissenschaftsminister Björn Thümler lobt das Potenzial des Forschungsverbundes TRANSENS: „Die transdisziplinäre Endlagerforschung hat eine herausragende Bedeutung, denn die Entsorgung radioaktiver Abfälle ist eine der wichtigsten Zukunftsfragen. Das Land Niedersachsen leistet einen wichtigen Beitrag indem es sich mit 3,75 Millionen Euro an dem Forschungsverbund beteiligt. Ich bin sehr froh, dass nach den pandemiebedingten Einschränkungen des öffentlichen Lebens die Eröffnung der Bürgermessstation möglich wird und bin schon heute auf die Ergebnisse des Forschungsverbunds gespannt.“

Im Forschungsverbund TRANSENS wird erstmalig in Deutschland transdisziplinäre Forschung zur nuklearen Entsorgung in größerem Maßstab betrieben. TRANSENS ist ein Verbundvorhaben, in dem 16 Institute beziehungsweise Fachgebiete von neun deutschen und zwei Schweizer Universitäten und Forschungseinrichtungen zusammenarbeiten. Das Vorhaben wird vom Bundesministerium für Wirtschaft und Energie (BMWi) aufgrund eines Beschlusses des Deutschen Bundestages und im Niedersächsischen Vorab der Volkswagenstiftung vom Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) von 2019 bis 2024 gefördert (Förderkennzeichen: 02E11849A-J).

Etwa 50 Wissenschaftlerinnen und Wissenschaftler aus unterschiedlichen ingenieurtechnischen, naturwissenschaftlichen und sozialwissenschaftlichen Disziplinen arbeiten in vier transdisziplinären Arbeitspaketen zu verschiedenen Aspekten der vertrauensvollen und sicheren Entsorgung radioaktiver Abfälle zusammen. Die Koordination liegt bei der Technischen Universität Clausthal. Die gewonnenen Erkenntnisse sollen dazu beitragen, das nach wie vor drängende Problem der Endlagerung radioaktiver Stoffe in Deutschland in einem offenen und integrierenden Diskurs zu lösen. Zentrale Fragen der anwendungsorientierten Forschung sind: Was bedeutet eine eventuelle Rückholung aus einem zu bauenden Endlager für hochradioaktive Abfälle für die Sicherheit der Bevölkerung? Wie müssen Messdaten gewonnen und interpretiert werden? Wie kann eine vertrauensvolle Zusammenarbeit von Bevölkerung und aufsichtführenden Akteuren erreicht werden? Wie spielen technik- und zeitbedingte Unsicherheiten und Ungewissheiten und Vertrauen in der nuklearen Entsorgung zusammen? Vorrangiges Ziel ist es auch, das Zusammenwirken der unterschiedlichen Akteure besser zu verstehen und Wege aufzuzeigen, unter welchen Bedingungen Vertrauen wachsen kann.

(nach oben)


Bildgebungskonzept erkennt Gefahrenmuster für Herz-​Kreislauf-Erkrankungen

Susanne Dopheide Stabsstelle Presse und Kommunikation
Heinrich-Heine-Universität Düsseldorf
Die Vorhersage, wann atherosklerotische Veränderungen der Arterien in einem stabilen Zustand zu akuten kardiovaskulären Erkrankungen übergehen, ist bislang ungelöst. Die Autoren des aktuell in „Nature Communications“ um Erstautor Prof. Dr. Ulrich Flögel, Institut für Molekulare Kardiologie, Medizinische Fakultät der Heinrich-Heine-Universität Düsseldorf, veröffentlichten Beitrags stellen ein Bildgebungsverfahren vor – die zielgerichtete und mehrfarbige Nanotracer-Plattformtechnologie – das die Gefahrenmuster bei der Entwicklung einer fortschreitenden koronaren Erkrankung im Mausmodell sichtbar macht.

Die Kaskade dieser Gefäßerkrankungen reicht von Entzündung des Gefäßes, Thrombose mit nachfolgender Ablösung kleinster Teilchen der Gefäßplaque bis hin zum Gefäßverschluss mit der Folge dauerhafter Schädigung durch z.B. Herzinfarkt.

Um die Gefahrenmuster zu zeigen, werden drei Moleküle (Liganden) an unterschiedliche Arten von Perfluorkohlenstoff-Nanoemulsion gekoppelt. Sie sind jeweils spezifisch auf Entzündungsherde, akute und chronische Thromben gerichtet. Dort lagern sie sich ein und werden durch die Anwendung einer bestimmten MRT-Bildgebung (19F-MRT) sicht- und unterscheidbar.

Das versetzt die die Wissenschaftler*innen in die Lage, Bereiche zu identifizieren, die ein hohes Risiko für die Entwicklung eines Herzinfarkts aufweisen. Das geschieht zu einem Zeitpunkt, an dem noch kein konventioneller Parameter in Labordiagnostik oder EKG auf eine drohende Gefahr hinweist. Das Forscherteam zeigt, dass diese Gefahrenmuster durch das von ihnen entwickelte Verfahren „multi-color multi-targeted‘ 1H/19F-MRT“ zuverlässig und vor Einsetzen des Infarktes – visualisiert werden können. Es ist nur ein einziger MRT-Scan nötig, der individuell betroffene Stellen lokalisieren und farblich hinsichtlich Entzündung, frisch entwickelten bzw. fortgeschrittenen Thromben differenziert darstellen kann.

Dabei können die frühzeitig identifizierten gefährdeten Stellen im Individuum (Mausmodell) durchaus unterschiedlich sein. Wichtig ist aber, dass sich jeweils auch an diesen Orten die entsprechenden massiven Folgeschäden einstellten (vgl. Abb. r. unten gegenüber l. unten). In weiteren Untersuchungen zeigten Flögel u.A., dass „multi-targeted 1H/19F-MRT“ in der Lage ist, den gesamten Teufelskreis von Thrombozytenadhäsion, Infiltration von Immunzellen und Bildung von Thromben, die zu koronarer Atherothrombose, Herzinfarkt und schwerer Verschlechterung der Herzkammerfunktion führen, eindeutig sichtbar zu machen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ulrich Flögel, Institut für Molekulare Kardiologie, Heinrich-Heine-Universität Düsseldorf, Tel.: 0211 81-10187, floegel@uni-duesseldorf.de

Originalpublikation:
Ulrich Flögel, Sebastian Temme, Christoph Jacoby, Thomas Oerther, Petra Keul, Vera Flocke, Xiaowei Wang, Florian Bönner, Fabian Nienhaus, Karlheinz Peter, Jürgen Schrader, Maria Grandoch, Malte Kelm & Bodo Levkau; Multi-targeted 1H/19F MRI unmasks specific danger patterns for emerging cardiovascular disorders, NATURE COMMUNICATIONS| (2021) 12:5847 | https://doi.org/10.1038/s41467-021-26146-6

(nach oben)


Impfbereitschaft steigt mit umfassender Information

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Wie lässt sich die Bereitschaft von Menschen für eine Impfung gegen COVID-19 erhöhen? Einen wirksamen Einfluss darauf haben fundierte Informationen sowie positiv wahrgenommene Schutzmaßnahmen seitens der Behörden und Vorgesetzten. Das belegen die Ergebnisse einer bundesweiten Erhebung, die ein Team um Prof. Dr. (TR) Yesim Erim, Leiterin der Psychosomatischen und Psychotherapeutischen Abteilung des Universitätsklinikums Erlangen der FAU, jetzt veröffentlicht hat. Für die aktuelle VOICE-Studie wurden mithilfe einer Onlineerhebung im Zeitraum von November 2020 bis Januar 2021 bundesweit insgesamt 6.217 Beschäftigte des deutschen Gesundheitswesens zu ihrer Impfbereitschaft befragt.

Die VOICE-Studie im Rahmen des egePan-Unimed-Netzwerks wurde von den psychosomatischen Abteilungen der Universitätsklinika Erlangen, Bonn, Dresden, Köln und Ulm entwickelt und durchgeführt. Das egePan-Unimed-Projekt wird als eines von insgesamt 13 bundesweiten Verbundprojekten vom Bundesministerium für Bildung und Forschung zur Verbesserung des Pandemiemanagements im Rahmen des nationalen Netzwerks Universitätsmedizin (NUM) finanziell unterstützt.

Die Impfbereitschaft des für die Studie befragten medizinischen Personals lag im Untersuchungszeitraum bei 65,3 Prozent und damit höher als in der Allgemeinbevölkerung. Die Studie fragte neben den berufsbezogenen und COVID-19-spezifischen Merkmalen auch soziodemografische Aspekte und Angaben zur psychischen Gesundheit ab. Vor allem Männer, Beschäftigte im Alter von über 40 Jahren und jene, die keine Kinder und keinen Migrationshintergrund hatten, zeigten eine höhere Impfbereitschaft. In der Kategorie des medizinischen Personals war die Impfbereitschaft bei den Ärztinnen und Ärztinnen am größten, gefolgt vom psychologischen Personal; beide Berufsgruppen verzeichneten eine deutlich höhere Impfbereitschaft als die Pflegefachkräfte. „Besonders interessant ist die Erkenntnis, dass sich Anfang des Winters 2020 – zu einem Zeitpunkt, als die jetzt verwendeten Impfstoffe größtenteils noch nicht zugelassen waren – nur knapp 70 Prozent des befragten medizinischen Personals ausreichend über COVID-19 informiert empfanden“, berichtet Prof. Erim. „Die Ergebnisse unserer Studie zeigen, dass die Politik und auch die Arbeitgeberinnen und Arbeitgeber nicht davon ausgehen können, dass Beschäftigte im Gesundheitswesen automatisch über genügend Informationen zur COVID-19-Erkrankung verfügen“, betont die Erlanger Wissenschaftlerin.

Zustimmung steigt mit wahrgenommenen Schutzmaßnahmen
Die Studienergebnisse untermauern außerdem die hohe Bedeutung eines umfänglichen Infektionsschutzes der Mitarbeitenden durch übergeordnete Maßnahmen seitens der Politik sowie der Arbeitgeberinnen und Arbeitgeber: „Die Zahlen sprechen eine eindeutige Sprache: Alle, die das Gefühl hatten, dass mit ihrer Gesundheit sicher und verantwortungsvoll umgegangen wird, waren eher bereit, sich impfen zu lassen“, erläutert Prof. Erim. „Diese Erkenntnisse sind wertvoll für die zukünftige Pandemieentwicklung, da wir uns derzeit mitten in der Diskussion über die Notwendigkeit einer Auffrischungsimpfung befinden.“

Die ausführlichen Studienergebnisse sind unter folgendem Link online nachzulesen: https://doi.org/10.1007/s00103-021-03418-6

Netzwerk Universitätsmedizin (NUM)
Das im April 2020 gegründete nationale Netzwerk Universitätsmedizin betreut insgesamt 13 Verbundprojekte, die das Bundesministerium für Bildung und Forschung mit insgesamt 150 Millionen Euro für eine Dauer von zehn Monaten fördert. Die finanzielle Unterstützung soll den Spezialistinnen und Spezialisten aus allen 34 deutschen Universitätsklinika ermöglichen, ihre unterschiedlichen Ansätze zur Bewältigung der COVID-19-Pandemie gemeinsam und interdisziplinär weiterverfolgen zu können. Das Uni-Klinikum Erlangen ist an acht der ausgewählten Verbundprojekte beteiligt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. (TR) Yesim Erim
Tel.: 09131 85-35928
yesim.erim@uk-erlangen.de

Originalpublikation:
https://doi.org/10.1007/s00103-021-03418-6

(nach oben)


Steinmeier: Gemeinsam umsteuern für Klimaschutz und Artenvielfalt

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Bundespräsident überreicht Deutschen Umweltpreis 2021

Osnabrück/Darmstadt. Mit einem Appell an den Gemeinsinn aller hat Bundespräsident Frank-Walter Steinmeier heute (Sonntag) im Kongresszentrum darmstadtium in Darmstadt zu einem Umsteuern aufgerufen, um biologische Vielfalt zu erhalten und die Erderwärmung zu stoppen. Beim Festakt zur Verleihung des Deutschen Umweltpreises der Deutschen Bundesstiftung Umwelt (DBU) in Höhe von 500.000 Euro zu gleichen Teilen an Ökologin Prof. Dr. Katrin Böhning-Gaese und Moorforscher Prof. Dr. Dr. h.c. Hans Joosten sagte der Bundespräsident, dass „nur aus Gemeinsamkeit Veränderung entstehen kann“. Und: „Der ökologische Wandel verschafft uns mehr Lebensqualität.“

Gewiss sei es unbequem und anstrengend, sich von liebgewonnenen Konsum- und Ernährungsgewohnheiten zu verabschieden. Doch müsse man „mit dem Irrtum aufräumen, Klima-, Arten- und Umweltschutz hätten vor allem mit Verzicht, Enthaltsamkeit und Freudlosigkeit zu tun“. Im Gegenteil: Der ökologische Wandel ermögliche mehr Freiheit durch Mobilität, die keine Umweltressourcen verbraucht, und mache unabhängig vom konfliktträchtigen Abbau fossiler Brennstoffe. „Er erspart uns Umweltkrankheiten und lässt uns gesünder und länger leben; er öffnet uns und denen, die nach uns kommen, eine gute Zukunft“, so der Bundespräsident. Er freue sich, „dass wir heute eine Wissenschaftlerin und einen Wissenschaftler auszeichnen, die auf dem weiten Feld des Klima- und Artenschutzes Herausragendes geleistet haben. Beide wecken Bewusstsein dafür, was alles nötig ist, um die biologische Vielfalt zu erhalten und die Erderwärmung zu stoppen.“

„Wir Menschen betreiben Raubbau an der Natur“
Böhning-Gaese hat laut Steinmeier dazu beigetragen, die Ursachen des Artensterbens genauer zu verstehen und was dagegen zu tun ist. Etwa eine Million Tier- und Pflanzenarten seien vom Aussterben bedroht, „weil wir Menschen Raubbau an der Natur betreiben. Wir roden Wälder im Übermaß, beuten Böden aus, setzen giftige Pflanzenschutzmittel ein, fangen zu viele Fische, verschmutzen die Meere mit Plastikmüll“, so der Bundespräsident. Joosten wiederum sei „ein großartiger Moorforscher“, der als einer der Ersten darauf hingewiesen habe, „wie wichtig gesunde, nasse Moore für den Klimaschutz sind, weil sie der Atmosphäre Kohlendioxid entziehen und es dauerhaft im Boden binden“. Er habe erkannt, wie schädlich Moor-Entwässerung etwa durch land- und forstwirtschaftliche Nutzung für Klima und Biodiversität sei. Bei Warnungen habe Joosten es nicht belassen, sondern vielmehr wegweisende Ideen für die landwirtschaftliche Nutzung von Mooren entwickelt, ohne deren Schutz aufs Spiel zu setzen – und dafür den Begriff „Paludikultur“ geprägt.

Große Transformation aller Lebensbereiche
Der Bundespräsident schwor in seiner Festrede Bürgerinnen und Bürger darauf ein, Veränderungen gemeinsam in Angriff zu nehmen. „Was wir vor uns haben, ist ein gesamtgesellschaftlicher Wandel, eine große Transformationsaufgabe, die alle Bereiche unseres Lebens betrifft: die Art, wie wir Energie erzeugen, Mobilität gestalten, Landwirtschaft betreiben, industrielle Güter produzieren, Wohnungen bauen, Abfall entsorgen, wie wir reisen, einkaufen und uns ernähren.“ Sich als Gesellschaft gemeinsam auf den Weg in eine klimaneutrale Zukunft zu machen, „ohne Zusammenhalt als Voraussetzung für Freiheit und Demokratie zu gefährden“, sei „eine der größten politischen und gesellschaftlichen Herausforderungen der kommenden Jahre“. Es gelte, sich dabei besonders denen zuzuwenden, „die mit dem Wandel nicht so leicht Schritt halten können“.

Konferenzen zum Schutz von Biodiversität und Klima in Kunming und Glasgow
Auch global sind Steinmeier zufolge „Zusammenarbeit und Solidarität über Grenzen hinweg“ unabdingbar, um Klimakrise und Artenrückgang zu bewältigen. Auf der morgen (Montag) im chinesischen Kunming beginnenden Biodiversitätskonferenz sowie der Weltklimakonferenz in Glasgow (Schottland) im November könne Politik zeigen, dass sie aus der Pandemie gelernt habe und nicht zurückfalle „in nationale Egoismen. Das ist die historische Aufgabe von Glasgow.“ Zum Hinweis des Bundespräsidenten auf Kunming und Glasgow und den engen Zusammenhang von Klima und Biodiversität sagte DBU-Generalsekretär Alexander Bonde: „Kampf gegen Erderwärmung und verstärkter Artenschutz müssen Hand in Hand gehen. Das ist eine Zukunfts- und Menschheitsfrage – und eine Lebensversicherung für uns und den Planeten.“ Darauf haben Böhning-Gaese und Joosten laut Bonde „unermüdlich“ aufmerksam gemacht. „Diese Impulse der Wissenschaft müssen wir zügig wahr- und vor allem ernst nehmen.“ Bonde: „Damit Glasgow gelingt, müssen in Greifswald, Gladbach, Glückstadt und anderswo die angepeilten Gigatonnen an Treibhausgas-Emissionen eingespart werden.“ Und mehr Artenschutz durch die Kunming-Konferenz „klappt nur, wenn auch in Kulmbach, Kuppenheim und Kusel Biodiversität erhalten wird“.

Besuch bei den Betroffenen der Flutkatastrophe: „Ihr seid nicht vergessen!“
Es sei notwendig, schneller und entschlossener zu handeln, betonte Steinmeier. „Wenn wir nicht konsequent umsteuern, würden wir die Lebensbedingungen auf unserem Planeten unwiederbringlich zerstören.“ Der Bundespräsident erinnerte an die Flutkatastrophe im Sommer dieses Jahres. Er werde am Nachmittag die Betroffenen besuchen. „Ihr seid nicht vergessen!“, sagte er an deren Adresse. Die Folgen des Klimawandels seien „auch bei uns in Europa angekommen“. Doch sie träfen Menschen in den ärmeren Ländern des Südens schon jetzt weitaus härter. „Und sie werden zukünftige Generationen umso brutaler treffen, je weniger wir jetzt tun“, so der Bundespräsident.

Steinmeier machte den Festakt-Gästen Mut für die Zukunft. „Wir haben allen Grund zur Zuversicht“, so der Bundespräsident. Gerade in der Corona-Pandemie habe die Gesellschaft die Kraft zum Umsteuern bewiesen. „Und wir haben erfahren, wie viel Gemeinsinn in uns steckt.“ Böhning-Gaese und Joosten hätten eines allen vor Augen geführt: „Es gibt keinen Grund, in Angst zu erstarren und auf die Apokalypse zu warten. Klimawandel und Artensterben sind nicht unser Schicksal.“ Preisträgerin und Preisträger zeigen nach Steinmeiers Worten, „dass wir Lust auf Zukunft haben dürfen, wenn wir jetzt mit neuer Anstrengung fortsetzen, was wir begonnen haben, wenn wir entschiedener und rascher handeln, wenn wir in den kommenden Jahren die Wende schaffen“. Dank wissenschaftlicher Forschung, technologischer und wirtschaftlicher Innovationen und „unserer Fähigkeit, umzulernen und unser Leben zu ändern“, stehe der gemeinsame Weg in eine klimaneutrale und artenreiche Zukunft offen.

Hintergrund:
Mit dem 2021 zum 29. Mal verliehenen Deutschen Umweltpreis der DBU werden Leistungen von Menschen ausgezeichnet, die vorbildlich zum Schutz und Erhalt der Umwelt beitragen. Prämiert werden Projekte, Maßnahmen und Lebensleistungen. Kandidatinnen und Kandidaten werden der DBU vorgeschlagen. Berechtigt dazu sind etwa Arbeitgeberverbände und Gewerkschaften, Kirchen, Umwelt- und Naturschutzverbände, wissenschaftliche Vereinigungen und Forschungsgemeinschaften, Medien, das Handwerk und Wirtschaftsverbände. Selbstvorschläge sind nicht möglich. Eine vom DBU-Kuratorium ernannte Jury unabhängiger Expertinnen und Experten aus Wirtschaft, Wissenschaft, Technik und gesellschaftlichen Gruppen empfiehlt dem DBU-Kuratorium Preisträgerinnen und Preisträger für das jeweilige Jahr. Das DBU-Kuratorium fällt die Entscheidung.

Infos zum Deutschen Umweltpreis und Ausgezeichneten:
https://www.dbu.de/umweltpreis sowie https://www.dbu.de/umweltpreis-blog/

Weitere Informationen:
https://www.dbu.de/123artikel39183_2442.html Online-Pressemitteilung

(nach oben)


Arbeitswelten der Zukunft – Ergebnisse des Projekts „Future Works“

Stefanie Huland Unternehmenskommunikation
DLR Projektträger
Deutsche Arbeitswelten werden im Übergang zum 22. Jahrhundert fundamental anders aussehen als bisher. Aber wie? Mögliche Zukunftsszenarien stellte das vom DLR Projektträger (DLR-PT) mitkoordinierte Projekt „Future Work“ in Karlsruhe vor. Titel der öffentlichen Hybrid-Konferenz am 18. und 19. September: „Arbeit von übermorgen – zwischen Science und Fiction“.

In Impulsvorträgen und Kurzlesungen konnten sich die Teilnehmenden der Karlsruher Konferenz über die Projektergebnisse informieren und sich zu verschiedenen Fragestellungen einbringen. Zum Beispiel: Wird unsere Arbeit zunehmend automatisiert? Wie wird Arbeit zukünftig entlohnt werden? Und wie verändern sich Wirtschaft und Gesellschaft im Zuge neuer gesellschaftlicher Herausforderungen oder steigender Technisierung?

„Die erstellten Szenarien für die Arbeitswelt der Zukunft reichen bis an die Schwelle zum 22. Jahrhundert“, erklärt Dr. Claudio Zettel vom DLR-PT. Sie zeigen unterschiedliche Optionen auf, zu denen sich die Welt der Arbeit in Deutschland entwickeln kann. „Im Projekt-Szenario einer dystopischen Arbeitswelt sind die Menschen entweder Fremdbestimmung und Zwang ausgesetzt“, so Zettel, „oder sie leben in einer von automatisierter Arbeit dominierten Welt, in der sie auf der Suche nach Lebensgrundlagen in Nischen wie Weltall oder Tiefsee verdrängt werden.“ Weitere Szenarien skizzieren eine handwerklich dominierte Gesellschaft, in der die rasende Schnelligkeit der modernen wachstums- und technologiezentrierten Arbeitswelt überwunden wird.

Zurück zum Handwerk oder ohne Erwerbstätigkeit?
Modelliert wurde auch eine KI-assistierte Planwirtschaft, die Entscheidungen der Arbeitswelt der Zukunft trifft und so den Lebensstandard, Sicherheit und Umweltverträglichkeit aller Menschen sichert, gleichzeitig aber die persönliche Freiheit und Selbstbestimmung auf ein Minimum reduziert. Zudem fand ein utopisches Szenario seinen Platz im Projekt, in Form der „Postwachstumsgesellschaft“. Diese zeichnet sich dadurch aus, dass Erwerbsarbeit in ihrer heutigen Form nicht mehr existiert. Vielmehr besteht Arbeit in der Ausprägung persönlicher Entfaltung, ermöglicht durch ein bedingungsloses Grundeinkommen und die effektive Nutzung aller Ressourcen auf der Erde.

Claudio Zettel: „Die sehr unterschiedlichen Szenarien weisen eine hohe Trennschärfe auf. Diese ist bei der verwendeten Methode der Szenario-Technik von besonderer Bedeutung und erleichtert den nun mit der Tagung begonnenen gesellschaftlichen Dialog, der sich in den kommenden Monaten als diskursive Auseinandersetzung mit Vertreterinnen und Vertretern von Sozialpartnern und aus der Wissenschaft fortsetzen wird.“ Ziel ist es, die Szenarien zur Diskussion zu stellen und mögliche Schlussfolgerungen für das heutige Handeln abzuleiten.

Beteiligte am Projekt „FutureWork“
Am Projekt „FutureWork“ sind neben dem DLR Projektträger (DLR-PT) das IQIB – Institut für qualifizierende Innovationsforschung und -beratung, das ZAK | Zentrum für Angewandte Kulturwissenschaft und Studium Generale am KIT, das Institut für Projektmanagement und Innovation der Universität Bremen sowie die Gesellschaft für Fantastikforschung e.V. beteiligt. Der DLR-PT bringt neben seiner Kompetenz im Bereich der Arbeitsforschung die systematische Anwendung von Foresight-Methoden ein, die zunehmende Bedeutung in der Politik- und Strategieberatung gewinnen.

Wissenschaftliche Ansprechpartner:
Dr. Claudio Zettel
DLR Projektträger
Bereich Gesellschaft, Innovation, Technologie
Telefon: +49 228 3821 1306
E-Mail: Claudio.Zettel@dlr.de

Weitere Informationen:
https://www.arbeit2100.de
https://www.dlr.de/pt/desktopdefault.aspx/tabid-18048/28653_read-74409/

(nach oben)


Programm der Fraunhofer-Gesellschaft fördert Innovationsfähigkeit von KMU im Bereich der effizienten Wasseraufbereitung

Dipl.-Geophys. Marie-Luise Righi PR und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC
Im KMU-akut Programm »Effiziente Wasseraufbereitung« – kurz EWA – bündeln die Fraunhofer-Institute IFAM und ISC gezielt ihre Expertise für die Bereiche elektrochemische Prozesstechnik, Partikeltechnologie und Materialanalytik. Gemeinsam mit und für Industriepartner arbeiten sie in vier Themenfeldern an einer effizienten Aufbereitung der wichtigen Ressource Wasser. Interessierte Unternehmen können in einem kostenlosen Online- Industrieworkshop am 4. November 2021 zu den Themen Batterierecycling, Lithiumgewinnung, alternative Klärprozesse und Meerwasserentsalzung für grünen Wasserstoff mehr erfahren.

Viele Verfahren greifen auf die Ressource Wasser zurück – als Rohstoff für die Produktion ebenso wie als Transport-, Löse- oder Trennmittel für industrielle Prozesse. Um die wertvolle Ressource Wasser so nachhaltig wie möglich zu nutzen und Trinkwasserreserven zu schonen, werden im KMU-akut Projekt EWA verschiedene wasserbasierende Prozesse untersucht und Lösungen für eine effektive Wasseraufbereitung erarbeitet. Die im Projekt federführenden Fraunhofer-Institute für Fertigungstechnik und Angewandte Materialforschung IFAM und für Silicatforschung ISC verfügen über eine breite Materialbasis und technologisches Know-how für verschiedene innovative adsorptive, physikalische und elektrochemische Trennverfahren. Gemeinsam mit Industriepartnern sollen diese für den Fortschritt in der Wasseraufbereitung eingesetzt werden.

KMU-spezifische Fragestellungen zur effizienten Wasseraufbereitung im Fokus
Die klassische, kommerzielle Prozesswasseraufbereitung ist für viele kleine und mittlere Unternehmen entweder überdimensioniert, zu spezifisch, zu kostspielig oder einfach ungeeignet. Im Rahmen des Projekts EWA soll diese Lücke geschlossen und Lösungsansätze entwickelt werden, die durch ihre Flexibilität, Skalierbarkeit und einen vergleichsweise geringen Kostenaufwand die Bedürfnisse potenzieller Unternehmenspartner erfüllen. Entsprechend sollen gezielt zahlreiche, akute Fragestellungen aus der Industrie gelöst werden. Gemeinsam mit den drei weiteren Fraunhofer-Instituten IKTS, ISE und IGB sowie derzeitig fünf Industriepartnern werden die Themenbereiche Batterierecycling, Lithiumgewinnung, Alginit in Klärprozessen und Meerwasserentsalzung für die Leitmärkte Energiewirtschaft, Chemische Industrie, Gesundheitswirtschaft sowie Anlagen- und Maschinenbau in Machbarkeitsstudien und Validierungsprojekten adressiert. Einen guten Überblick für die Arbeitsweise der EWA-Projektpartner vermittelt zum Beispiel das Teilprojekt zur effizienten und nachhaltigen Aufbereitung von Prozesswasser aus Lithium-Ionen-Batterie-Recyclinganlagen.

Effiziente und nachhaltige Aufbereitung von Prozesswasser aus Lithium-Ionen-Batterie-Recyclinganlagen
Mit der steigenden Anzahl von Elektrofahrzeugen fallen in der Folge mehr verbrauchte Traktionsbatterien an. Bei der ressourcenschonenden und effizienten Rückgewinnung von Batteriematerialien spielen das direkte Recycling und der Umgang mit Wasser für die Nachhaltigkeit dieser Technologie eine entsprechend große Rolle. »Wertvolle Batteriematerialien möglichst effizient zurückzugewinnen und Prozesswasser so zu reinigen, dass es im Kreislauf geführt werden kann, ist das Ziel im EWA-Projekt. Im Anschluss liegen die Materialien im Idealfall sortenrein vor und können direkt wieder zu neuen Batterien verarbeitet werden«, erklärt Michael Hofmann vom Fraunhofer ISC und Leiter des EWA-Teilprojekts Batterierecycling das Vorhaben.

Ausgangspunkt für die Projektarbeit ist das Verfahren der elektrohydraulischen Zerkleinerung – eine Entwicklung des Projektpartners Impulstec – womit die Batterien in einzelne Materialfraktionen zerlegt werden können. »In dem wasserbasierten Prozess entstehen grobe und feine Materialfraktionen sowie Stoffe, die in Lösung gehen. Um die wertvollen Batteriematerialien möglichst vollständig und getrennt abzuscheiden und das Prozesswasser von störenden Verunreinigungen zu befreien, waren wir auf der Suche nach geeigneten Aufbereitungsverfahren«, berichtet Robert Jüttner vom Recyclingspezialisten MAB Recycling. »Das EWA-Projekt kam da wie gerufen, um uns mit kompetenten Forschungspartnern und Technologieanbietern an einen Tisch zu setzen und gemeinsam an der Entwicklung einer effizienten Prozesswasserreinigung zu arbeiten«, ergänzt Jüttner. Die Prozesschemie beim Batterierecycling ist anspruchsvoll. Der Recyclingspezialist liefert als Rohmaterial das Prozesswasser und erhält im Gegenzug Analysenergebnisse und wichtiges Know-how, um die eigene Wasseraufbereitung voranzubringen. Mit den EWA-Partnern die Ergebnisse zu diskutieren und eine breite Wissens- und Erfahrungsbasis für die unterschiedlichen technischen Aspekte zur Verfügung zu haben, das sei einer der wesentlichen Vorteile bei EWA. »Das KMU akut-Projekt spart uns Zeit und Wege. Mit den Ergebnissen aus EWA haben wir schneller eine fundierte Basis für die Beurteilung der Wirtschaftlichkeit und die nötigen Informationen für die anlagentechnische Umsetzung«, ist Jüttner überzeugt.

Der dritte Industriepartner im Projekt ist die Firma CEPA, ein Hersteller von Industriezentrifugen. Das Unternehmen arbeitet schon seit geraumer Zeit gemeinsam mit der Fraunhofer-Gesellschaft in verschiedenen Forschungsprojekten an der Weiterentwicklung der Zentrifugentechnologie für anspruchsvolle Anwendungen. »Viele unserer Kunden haben wasserbasierte Prozesse und der verantwortungsvolle Umgang mit der Ressource Wasser wird immer wichtiger«, erklärt Felix Seiser, Projektleiter bei CEPA. Gemeinsames Ziel sei es, die Prozesswassermenge zu reduzieren und soweit wie möglich im Kreislauf zu führen. Die Aufgabe ist anspruchsvoll, denn gerade bei der zentrifugengestützten Auftrennung der unterschiedlichen Materialfraktionen erfordert der Prozess relativ geringe Konzentrationen, d. h. eine große Wassermenge. »Als Maschinenbauer mit der Expertise Feststoffseparation profitieren wir von dem Austausch mit den Forschungsinstituten und von den direkten Analysemöglichkeiten im Projekt. Was bisher vielleicht nur im Labormaßstab getestet wurde, kann jetzt mit dem vereinten Wissensschatz in einen größeren Prozessmaßstab überführt werden. Auf Workshop-Ebene mit allen Projektpartnern werden übergreifende Themen adressiert, bei regelmäßen Treffen auf Teilprojektebene lassen sich spezifische Fragestellung detaillierter bearbeiten. Damit schafft EWA einen guten Ausgangspunkt für uns und unser Ziel, Prozesswasser bei der Materialtrennung zu reduzieren und mit unserer Zentrifugentechnologie ein leistungsfähiges Verfahren zur Prozesswasseraufbereitung zu entwickeln«, beschreibt Seiser den Mehrwert der Zusammenarbeit.

Weitere EWA-Teilprojekte adressieren Wassernutzung und -reinigung bei der Lithiumgewinnung, Klärprozessen und Meerwasserentsalzung

Lithiumgewinnung durch elektrochemisches »Ion Pumping«
Die Lithium-Ionen-Batterie stellt die derzeit verbreitetste elektrische Speichertechnologie dar. Die immer größer werdende Nachfrage erfordert eine Steigerung der Lithiumproduktion und damit auch die Erschließung neuer Lithiumressourcen. Besonders die ressourcenschonende Lithiumgewinnung aus Sole bzw. hydrogeologischen Quellen stellt eine vielversprechende Alternative zur herkömmlichen Rohstoffgewinnung dar. Mithilfe des sog. elektrochemischen »Ion Pumping« Verfahrens lassen sich selektiv Lithium-Ionen aus wässrigen Lösungen extrahieren. Der Prozess wird im EWA Projekt auf realistische Industrieszenarien zur Lithiumgewinnung aus geothermischen Quellen angewandt und evaluiert.

Selektive Adsorption von Metallionen und Umweltschadstoffen
Magnetische Adsorberpartikel sind in der Lage (Schwer-)Metallionen und Schadstoffe wie Medikamentenrückstände selektiv und effizient aus Prozess- und Abwässern zu entfernen. Als Ausgangspartikel dienen Magnet- und Silicatpartikel, die mit einer großen Vielzahl an Adsorberreagenzien kombiniert werden können. Ein besonders effizienter und selektiver Adsorber für Umweltschadstoffe ist Alginit. Es handelt sich um ein spezielles, natürlich vorkommendes, recyclebares Mineral, das im Gegensatz zur derzeit verwendeten Aktivkohle kostengünstig ist und eine hohe Umweltverträglichkeit sowie sehr gute Abtrennleistung sowohl für hydrophile als auch hydrophobe Stoffe aufweist. Die geschickte Modifizierung von Alginit mit magnetischen Partikeln, sorgt dabei für eine gleichbleibend effiziente Adsorptionsleistung und garantiert darüber hinaus eine rückstandsfreie Abtrennung der Absorberpartikel aus den behandelten Abwässern. Der somit entstandene kostenreduzierte Prozess, mit hoher Nachhaltigkeit birgt großes Potenzial und stellt zukünftig eine valide Alternative zur Anwendung in Kläranlagen dar.

Direkte Meerwasserentsalzung durch elektrochemische Verfahren
Für die zukünftige Wasseraufbereitung gelten elektrochemische Verfahren aufgrund ihrer guten Reversibilität und Effizienz als besonders attraktiv. Durch die Verwendung von sogenannten Landungstransferelektroden, wie sie auch in elektrochemischen Energiespeichern eingesetzt werden, kann die Entsalzungskapazität im Vergleich zu thermischen Verfahren und der Umkehrosmose wesentlich erhöht werden. In dem Projekt Meerwasserentsalzung wird aufbauend auf der Expertise zur Zink-Luft-Batterietechnologie ein neuartiges Verfahren zur elektrochemischen Entsalzung von Meerwasser eruiert. Dabei gilt es sowohl geeignete Gasdiffusionselektroden als auch Katalysatoren sowie weitere Komponenten für den Aufbau eines Demonstrators in Form einer skalierbaren Zink-Luft-Entsalzungszelle zu identifizieren. Betrachtet wird dabei insbesondere die Möglichkeit einer direkten Meerwasserentsalzung für die Elektrolyse zur
Herstellung von grünem Wasserstoff.

Workshop »Effiziente Wasseraufbereitung« – gemeinsam schneller profitieren
Der EWA-Industrieworkshop bietet tiefere Einblicke in die vier laufenden Projekte und ermöglicht den direkten Austausch mit den beteiligten Fraunhofer-Instituten und Projektpartnern über Fragestellungen und Lösungsansätze rund um die schonende Nutzung der Ressource Wasser in Produktionsprozessen.
Termin: 4. November, 10:00 bis 14.30 Uhr

Programm und Anmeldung unter
https://www.wasseraufbereitung.fraunhofer.de/de/workshop.html

Wissenschaftliche Ansprechpartner:
Dr. Jens Glenneberg | Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM | Wiener Straße 12 | 28359 Bremen | Telefon 0421 2246-7341 | jens.glenneberg@ifam.fraunhofer.de | http://www.ifam.fraunhofer.de

Michael Hofmann | Fraunhofer-Institut für Silicatforschung ISC | Neunerplatz 2 | 97082 Würzburg | Telefon 0931 4100-228 | michael.hofmann@isc.fraunhofer.de | http://www.isc.fraunhofer.de

Weitere Informationen:
https://www.wasseraufbereitung.fraunhofer.de/
https://www.ifam.fraunhofer.de/
https://www.isc.fraunhofer.de/

(nach oben)


Mit naturbasierten Lösungen zu mehr Hochwasserschutz

Hendrik Schneider Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V.
Edward Ott forscht aktuell in der Nachwuchsgruppe PlanSmart am ZALF. Im Interview gibt er einen Einblick in den aktuellen Zustand der deutschen Flusslandschaft, naturbasierten Hochwasserschutz und wie der nachhaltige Umbau von Flusslandschaften gelingen kann.

Wie würden Sie den Zustand unserer Flusslandschaften in Deutschland insgesamt beschreiben?
Flusslandschaften in Deutschland werden sehr intensiv genutzt. Gemäß Auenzustandsbericht befinden sich 58% der Niederungsgebiete seitlich von Flüssen und Bächen in einem stark bzw. sehr stark veränderten Zustand. Sie sind ökologisch nicht mehr oder nur noch eingeschränkt funktionsfähig. Auch können sie nicht mehr einfach überflutet werden und so Hochwasser abmildern. Insgesamt sind in Deutschland zwei Drittel der ehemaligen Überschwemmungsflächen verloren gegangen, was das Risiko für schwerwiegende Hochwasserereignisse erhöht. Die verbliebenen heutigen Auenbereiche werden zu einem Drittel intensiv als Acker-, Siedlungs-, Verkehrs- und Gewerbefläche genutzt.

Welche Maßnahmen für den Hochwasserschutz ergeben sich aus Ihrer Forschung?
Mit unserer Forschung unterstützen wir die Planung und Umsetzung naturbasierter Lösungen, die auf eine Reihe gesellschaftlicher Herausforderungen abzielen. Dafür machen sie sich ökologische Prozesse zu Nutze. So halten sie zum Beispiel Nährstoff- und Pestizidbelastungen aus der Landwirtschaft zurück, vermeiden Erosion und tragen zur Landschaftsästhetik bei.

Für den Hochwasserschutz ist vor allem interessant, dass sie die natürliche Wasserrückhaltekapazität in Flusslandschaften erhöhen könnten. Das kann durch eine Anpassung der örtlichen Land- und Forstwirtschaft passieren oder bis hin zu Deichrückverlegungen in Kombination mit der Renaturierung der wiedererschlossenen Auen reichen. In Hochwasserentstehungsgebieten kann der natürliche Wasserrückhalt durch Moorrenaturierung, Gehölzpflanzungen, Uferstreifen an Flüssen und Bächen und die Anlage von naturnahen Rückhaltebecken und Teichen verbessert werden.

Was wäre am schnellsten umsetzbar?
Am schnellsten umsetzbar sind räumlich kleinere Maßnahmen wie Pflanzungen und Gewässerrandstreifen, naturnahe Rückhaltebecken und Teiche sowie eine auf den Wasserrückhalt ausgerichtete Bewirtschaftung von land- und forstwirtschaftlichen Flächen. Das müssen die lokalen Bedingungen aber auch zulassen. Es muss aber gesagt werden, dass bei solchen Extremereignissen, wie wir sie in Westdeutschland erlebt haben, solch kleinere Maßnahmen schnell erschöpft gewesen wären. Sie können lediglich einen kleinen Teil zum Hochwasserschutz beitragen und erst in der Summe ihr Potenzial entfalten. Komplexe, großräumige Maßnahmen, wie Auenrenaturierungen oder der Anschluss von Altwasserarmen, erfordern eine gesamtgesellschaftliche Anstrengung und haben in der Regel Planungshorizonte von zehn Jahren und mehr.

Was sind neben dem Hochwasserschutz die dringendsten Herausforderungen?
Neben dem Hochwasserschutz sind natürlich der Verlust der Artenvielfalt, die Anpassung an den Klimawandel sowie Nitratbelastungen des Grundwassers wichtige gesellschaftliche Herausforderungen, zu denen naturbasierte Lösungen einen wichtigen Beitrag leisten können. Besonders die durch den Klimawandel zunehmenden Extremwetterereignisse führen uns immer deutlicher vor Augen, dass dringender Handlungsbedarf besteht, unsere Flusslandschaften insgesamt widerstandfähiger zu gestalten.

Eine große Herausforderung aus planerischer Sicht besteht darin, naturbasierte Lösungen in der Planungspraxis stärker in den Fokus zu rücken, um den Transformationsprozess hin zu zukunftsfähigen Flusslandschaften für Mensch und Natur zu unterstützen.

Welche Akteure sind gefragt, wenn es um einen nachhaltigen Umbau unserer Flusslandschaften geht?
Da Flusslandschaften intensiv genutzte Bereiche sind, gibt es vielfältige, zum Teil miteinander im Widerspruch stehende Interessen, was sich auch in den Vorstellungen darüber widerspiegelt, wie die Flusslandschaften der Zukunft aussehen sollen. Naturbasierte Lösungen können hier einen Ausgleich schaffen, da sie die Ansprüche verschiedener Interessengruppen erfüllen. Die Planung von Entwicklungskonzepten für den Umbau unserer Flusslandschaften sollte diese unterschiedlichen Interessen berücksichtigen und dafür Wissensträger aus Politik und Praxis, Zivilgesellschaft und Forschung systematisch einbeziehen.

Wo können sich Akteure über Lösungsansätze aus der Forschung informieren?
Für die Planung und Umsetzung naturbasierter Lösungen stehen inzwischen vielfältige Informationen zur Verfügung, die das Ergebnis verschiedenster Forschungsprojekte sind. So stellt beispielsweise das Naturvation-Projekt für den Einsatz naturbasierter Lösungen im urbanen Raum ein umfangreiches Instrumentarium zur Verfügung. Für den Kontext der Flusslandschaft hat unsere Arbeitsgruppe PlanSmart vor kurzem ein Handbuch für Praktikerinnen und Praktiker veröffentlicht, welches kostenfrei als PDF über unsere Website oder beim Oekom-Verlag heruntergeladen werden kann. Das Handbuch erklärt die Schritte und Prinzipien unseres integrativen Planungsansatzes, stellt unsere Fallstudie LiLa – Living Lahn vor und enthält eine umfangreiche Methodensammlung zur Gestaltung von Planungsprozessen. Außerdem bieten wir über unsere Website ein interaktives Toolkit an, welches die im Handbuch dargestellten Planungsschritte und -prinzipien übersichtlich und kompakt aufbereitet.

Das Oppla-Repositorium der Europäischen Union bietet einen umfangreichen Überblick zu naturbasierten Lösungen weltweit und stellt eine Plattform zum Wissensaustausch zur Verfügung.

Wo braucht es mehr Forschung?
Unsere Forschungsgruppe hat bereits viel dazu beigetragen, Planungsprozesse für naturbasierte Lösungen besser zu verstehen und zu gestalten. Es bestehen aber weiterhin Wissenslücken dahingehend, ob und wie naturbasierte Lösungen in der Landschaftsplanung charakterisiert, berücksichtigt und erfolgreich umgesetzt werden können. Interessante Forschungsfragen in dieser Hinsicht sind zum Beispiel: Wie müssen die institutionellen Rahmenbedingungen aussehen, damit naturbasierte Lösungen stärker berücksichtigt werden? Wie müssen Finanzierungsinstrumente ausgestaltet werden? Welche Präferenzen und Risikoeinschätzungen hinsichtlich der Berücksichtigung naturbasierter Lösungen liegen bei Entscheidungsträgerinnen und –trägern vor? Wir brauchen also auch in der Zukunft trans- und interdisziplinäre Forschungsprojekte, die sich gezielt mit solchen Fragestellungen befassen.

Wissenschaftliche Ansprechpartner:
Edward Ott, Edward.Ott@zalf.de

Originalpublikation:
https://www.zalf.de/de/aktuelles/Seiten/PB2/Naturbasierter-Hochwasserschutz.aspx

Anhang
Pressemitteilung: Mit naturbasierten Lösungen zu mehr Hochwasserschutz

(nach oben)


Der Klimawandel im Grundwasser: Neues Forschungsprojekt der TU Freiberg untersucht Transport von Mikroorganismen

Philomena Konstantinidis Pressestelle
Technische Universität Bergakademie Freiberg
Wie sich Bakterien, Viren und Antibiotikaresistenzgene im Grundwasser verbreiten, wenn sich die Wasserqualität verändert, erforscht ein Team um Hydrogeologe Prof. Traugott Scheytt von der TU Bergakademie Freiberg in den kommenden drei Jahren am Beispiel der Gallusquelle bei Hermetingen in der Schwäbischen Alb.

„Messungen haben ergeben, dass der Klimawandel zu weniger Wasser und schlechterer Wasserqualität des Grundwassers führt. Vor allem bei Starkregenereignissen sind dann stärkere mikrobielle Verunreinigungen durch Bakterien möglich“, sagt Prof. Traugott Scheytt vom Lehrstuhl für Hydrogeologie und Hydrochemie der TU Bergakademie Freiberg. Mit seinem Team möchte er die Ausbreitung von mikrobiologischen Verunreinigungen im Grundwasser nun in einem neuen Forschungsprojekt systematisch erfassen. „Das ist wichtig, um geeignete Gegenmaßnahmen ergreifen zu können.“

Dafür bringen die Forschenden in Geländeuntersuchungen auf der Schwäbischen Alb gezielt nicht-pathogene Mikroorganismen ins Grundwasser ein und analysieren, wie sie auf einer Strecke von drei bis 12 Kilometern durch den Untergrund fließen. „In einigen Experimenten werden die Mikroorganismen mehrere Tage durch den Grundwasserleiter transportiert bevor sie wieder zu Tage treten“, schätzt Prof. Traugott Scheytt. „Auf diese Weise können wir bei potenziellen Kontaminationsereignissen auftretende Bakterien, Viren und Antibiotikaresistenzgene aufspüren, Quellen identifizieren und daraus Rückschlusse auf die Mobilität der Mikroorganismen ziehen“, erklärt der Hydrogeologe.

Hintergrund: Forschungsprojekt PrePat
Das Verbundprojekt „Development and application of non-pathogens and extracellular DNA for predicting transport and attenuation of pathogens and antibiotic resistance genes in groundwater“ hat zum Ziel, das Verständnis des Transportes von Bakterien, Viren und Antibiotikaresistenzgenen im Grundwasser zu verbessern. Projektpartner sind neben der TU Bergakademie Freiberg das TZW: DVGW-Technologiezentrum Wasser in Karlsruhe sowie die TU Berlin. Es sind drei Professoren, drei Post-Docs und eine Doktorandin an den Arbeiten beteiligt. Die Deutsche Forschungsgemeinschaft DFG fördert das Vorhaben mit rund 450.000 € über eine Laufzeit von 3 Jahren. Anschlussprojekte und ergänzende Projekte sind bereits in Planung.

TU Bergakademie Freiberg: Prof. Scheytt (Hydrogeologie und Hydrochemie)
TZW: DVGW-Technologiezentrum Wasser: Prof. Tiehm, Frau Stelmaszyk (Umweltbiotechnologie)
TU Berlin: Dr. Schiperski (Angewandte Geochemie), Prof. Szewzyk, Dr. Braun (Umweltmikrobiologie)

Wissenschaftliche Ansprechpartner:
Prof. Traugott Scheytt; traugott.scheytt@geo.tu-freiberg.de

(nach oben)


Wenn KI hilft, die Landwirtschaft nachhaltiger zu gestalten

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Neues Projekt unter Beteiligung des JKI trägt dazu bei, große Datenmengen aus der Landwirtschaft mittels künstlicher Intelligenz effizient auszuwerten und nutzbar zu machen.

(Braunschweig/Kleinmachnow) In der Landwirtschaft fallen mittlerweile immense Datenmengen an. Sie werden durch landwirtschaftliche Maschinen, mittels Fernerkundung durch Satelliten oder Drohnen, mittels Bodensensoren, durch Wetterstationen oder auch immer noch manuell erhoben. Will man diese durchaus wertvolle und große Datenmenge, auch BigData genannt, einem praktischen Nutzen zuführen, um etwa die Landwirtschaft an die Herausforderung des Klimawandels anzupassen oder nachhaltiger zu wirtschaften, müssen die Daten effizient ausgewertet werden. „Ein wichtiges Werkzeug dazu ist Künstliche Intelligenz (KI), also selbstlernende Systeme, und auch die Data-Cube-Technologie“, erklärt Dr. Heike Gerighausen vom Forschungszentrum für Landwirtschaftliche Fernerkundung des Julius Kühn-Instituts (JKI) in Braunschweig. Hier setzt das neue Projekt NaLamKI (Nachhaltige Landwirtschaft mittels Künstlicher Intelligenz) an, an dem das JKI beteiligt ist.

Entstehen soll eine cloudbasierte Plattform mit offenen Schnittstellen für Anbieter aus dem vor- und nachgelagerten Bereich der Landwirtschaft, der Industrie, sowie für Serviceanbieter von Spezialanwendungen im Pflanzenbau. Die Cloud ist dabei als Software as a Service (SaaS) Lösung konzipiert, so dass Anwender Software und IT-Ressourcen als Dienstleistung nutzen können und lediglich einen internetfähigen Computer und eine schnelle Internetanbindung benötigen.

Darüber hinaus soll die Plattform GAIA-X konform umgesetzt werden. Dadurch wird es möglich, nicht nur zentrale, sondern auch dezentrale Cloud-Anbieter und Anwender einzubeziehen ohne deren Datensouveränität zu gefährden. NaLamKI wird damit mittelfristig auch kompatibel mit der europäischen Dateninfrastruktur sein.

Dieser Ansatz und die enge Kooperation zwischen Wirtschaft und Wissenschaft führte dazu, dass sich das Projekt im Innovationswettbewerb „Künstliche Intelligenz als Treiber für volkswirtschaftlich relevante Ökosysteme“ des Bundesministeriums für Wirtschaft und Energie (BMWI) durchsetzen konnte und als förderwürdig befunden wurde. Das Fördervolumen beträgt ca. 9,8 Mio. Euro. Neben dem Wirtschaftspartner John Deere, der das NaLamKI-Konsortium koordiniert, sind das Deutsche Forschungszentrum für Künstliche Intelligenz, NT Neue Technologien AG, Fraunhofer Heinrich-Hertz-Institut, OptoPrecision GmbH, Planet Labs Germany GmbH, Robot Makers GmbH, Technische Universität Kaiserslautern, die Universität Hohenheim sowie das JKI mit zwei Fachinstituten an den Standorten Braunschweig und Kleinmachnow beteiligt.

In dem vom JKI bearbeiteten Teilvorhaben MussIF (Multiskalige und multisensorale Informationsgewinnung aus Fernerkundungsdaten) werden die Forschenden analysieren, welche Auswertungsmöglichkeiten KI bei landwirtschaftlichen BigData-Verarbeitungen bietet. Über Fernerkundungssysteme sollen Datenprodukte für das Monitoring landwirtschaftlicher Kulturpflanzenbestände generiert werden, durch die eine nachhaltigere und ressourceneffizientere Bewirtschaftung erzielt werden kann. „Wir werden uns mit Methoden der Datenfusion und neuesten KI-Methoden beschäftigen, um flächendeckend aktuelle Informationen zum Zustand des Pflanzenbestandes, z.B. dem Entwicklungsstadium, der Biomasse oder dem Blattflächenindex sowohl aus Radar-Systemen als auch aus optischen Sensoren (Stichwort: Sentinel1+2/Copernicus) mit unterschiedlicher räumlicher und zeitlicher Auflösung abzuleiten“, erläutert Dr. Gerighausen. Die generierten Satellitenbilddaten und ‐datenprodukte werden zusammengeführt und über standardisierte Schnittstellen als GAIA‐X konforme Webdienste zur Verfügung gestellt. Dazu arbeiten unter dem Dach des Forschungszentrums für Landwirtschaftliche Fernerkundung des JKI Forschende des Fachinstituts für Pflanzenbau und Bodenkunde sowie des Fachinstituts für Strategien und Folgenabschätzung zusammen.

Info zu GAIA-X:
GAIA-X ist ein Projekt zum Aufbau einer leistungs- und wettbewerbsfähigen, sicheren und vertrauenswürdigen Dateninfrastruktur für Europa, das von Vertretern aus Wirtschaft, Wissenschaft und Verwaltung aus Deutschland und Frankreich, gemeinsam mit weiteren europäischen Partnern getragen wird.

Eckdaten zum Projekt:
NaLamKI – Nachhaltige Landwirtschaft mittels Künstlicher Intelligenz
Kooperationspartner: John Deere GmbH & Co. KG (Koordination), Deutsches Forschungszentrum für Künstliche Intelligenz, NT Neue Technologien AG, Fraunhofer‐Institut für Nachrichtentechnik Heinrich‐Hertz‐Institut, OptoPrecision GmbH, Planet Labs Germany GmbH, Robot Makers GmbH, TU Kaiserslautern, Universität Hohenheim
Assoziierte Partner: DLG, Hofgut Neumühle, Förderverein Digital Farming
Fördervolumen: ca. 9,8 Mio. Euro für den gesamten Verbund, davon ca. 879.075 Euro für das JKI.
Mittelgeber: BMWi (Projektträger DLR-PT)
Laufzeit: 01.01.2021 – 31.12.2023, FKZ: 01MK21003E

Wissenschaftliche Ansprechpartner:
Wissenschaftliche Ansprechpartner am JKI:
Dr. Heike Gerighausen
JKI-Fachinstitut für Pflanzenbau und Bodenkunde
Tel.: +49 (0) 531 596 2107
E-Mail: heike.gerighausen@julius-kuehn.de

Dr. Burkhard Golla
JKI-Fachinstitut für Strategien und Folgenabschätzung
Tel.: +49 (0) 33203 48 325
E-Mail: burkhard.golla@julius-kuehn.de

(nach oben)


Die Umgestaltung der betrieblichen Mobilität erfolgreich meistern

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Eine digitale Mobilitätsplattform unterstützt Betriebe beim nachhaltigen Management ihrer Mobilität

Nach vier Jahren Laufzeit ist das Projekt »Eco Fleet Services« erfolgreich abgeschlossen worden. Am 4. Oktober stellte das Projektteam unter Leitung des Anwendungszentrums KEIM des Fraunhofer IAO die Ergebnisse in Heidelberg vor. Das Fazit: Wollen Betriebe ihre Mobilität nachhaltiger gestalten, so gilt es systematisch vorzugehen und eine digitale Mobilitätsplattform zu nutzen.

Ein Reifegradmodell, das die Bewertung der eigenen betrieblichen Mobilität ermöglicht. Eine Mobilitätsplattform, die den eigenen Fuhrpark mit flexiblen und nachhaltigen Angeboten, wie Carsharing-Fahrzeugen und Leihrädern vereint – und das alles unter Verwendung von Open-Source-Komponenten. Diese konkreten Ergebnisse aus vier Jahren »Eco Fleet Services« wurden am 4. Oktober in Heidelberg sowie im Livestream der Öffentlichkeit präsentiert. Durch die in »Eco Fleet Services« entwickelten Instrumente und digitalen Lösungen wird es Kommunen und Unternehmen erleichtert, ihre Mobilität nachhaltig und dynamisch zu gestalten. »Mit ihrer betrieblichen Mobilität setzen Arbeitgeber Maßstäbe und prägen damit auch das Verhalten ihrer Mitarbeitenden. Damit leisten sie einen wichtigen Beitrag zur Bewältigung urbaner Herausforderungen, wie der Luftreinhaltung oder der Überlastung des Verkehrs«, sagte Dr. Patrick Rapp, Staatssekretär im Wirtschaftsministerium Baden-Württemberg.

Bausteine für eine nachhaltige betriebliche Mobilität
Gemeinsam mit Partnern setzte das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO mit dem Projekt »Eco Fleet Services« hier an, um ein intelligentes Management betrieblicher Mobilität zu ermöglichen. Die betriebliche Mobilität beinhaltet dabei alle Dienstreisen sowie Dienstgänge der Mitarbeitenden. Ein wesentliches Projektziel stellte die Entwicklung und Erprobung einer Mobilitätsplattform dar, die den wirtschaftlichen Einsatz von Elektrofahrzeugen sowie die bequeme Buchung nachhaltiger Reisemittel ermöglicht. Eine Studie zum Status Quo der betrieblichen Mobilität in über 100 Kommunen ergab Ansatzpunkte für die Gestaltung einer nachhaltigen, betrieblichen Mobilität. Ergänzend dazu entstand ein Reifegradmodell, anhand dessen Betriebe und Kommunen ihr Mobilitätsmanagement bewerten, Potenziale finden und Maßnahmen planen können. Die Erprobung der Mobilitätsplattform mit der Stadt Heidelberg dauerte insgesamt 18 Monate und brachte viele aufschlussreiche Erkenntnisse zutage. So zeichnete sich ein sehr positives Bild bezüglich der komfortablen Buchungsprozesse in Kombination mit dem digitalen Schlüsseltresor ab. Insbesondere jüngere Teilnehmende begrüßten den Umstieg auf die digitale Mobilitätsplattform sehr und erlernten den Umgang damit schnell.

Vorausschauende Planung führt zum Erfolg
Der Weg zu einer nachhaltigen betrieblichen Mobilität stellt viele Betriebe vor Herausforderungen. Um Misserfolge zu vermeiden, so betont Projektleiter Stefan Schick vom Anwendungszentrum KEIM des Fraunhofer IAO, sei es zwingend notwendig, systematisch vorzugehen und die Transformation mit den durchzuführenden Maßnahmen vorauszuplanen. »Einen Erfolgsfaktor bilden auch immer die Menschen, die solche Maßnahmen in den Betrieben planen und vorantreiben«, so Stefan Schick. »Deshalb ist es wesentlich, Verantwortliche zu bestimmen und die Mitarbeitenden auf dem Weg in Richtung einer nachhaltigeren und effizienteren Mobilität mitzunehmen.«

Ein Leitfaden mit Handlungsempfehlungen
Das Projekt »Eco Fleet Services« wurde vom baden-württembergischen Wirtschaftsministerium mit rund einer Million Euro gefördert. »Eco Fleet Services« startete im September 2017 und lief über vier Jahre. Handlungsempfehlungen für Unternehmen und Kommunen hat das Anwendungszentrum KEIM des Fraunhofer IAO in einem Leitfaden zusammengefasst. Darin werden konkrete Lösungselemente und Maßnahmen vorgestellt. Mithilfe derer gelingt es Betrieben nicht nur die Weiterentwicklung ihrer Mobilität anzustoßen, sondern diese auch kontinuierlich zu optimieren.

Ansprechpartnerin Presse:
Juliane Segedi
Presse und Öffentlichkeitsarbeit

Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart

Telefon +49 711 970-2343
juliane.segedi@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Stefan Schick
Anwendungszentrum KEIM

Fraunhofer IAO
Flandernstraße 101
73732 Esslingen am Neckar

Telefon +49 711 970-2252
stefan.schick@iao.fraunhofer.de

Originalpublikation:
Leitfaden der nachhaltigen betrieblichen Mobilität
Praxistipps und Handlungsempfehlungen aus dem Projekt „Eco Fleet Services“.
Cristescu, Anamaria; Schick, Stefan; Reichsöllner, Emanuel. Stuttgart: Fraunhofer IAO, 2021, 18 pp.
http://publica.fraunhofer.de/documents/N-640471.html

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/die-umgestaltung-de…
https://www.ecofleetservices.de/
https://blog.iao.fraunhofer.de/tag/eco-fleet-services/

(nach oben)


Hitzewellen im Meer haben drastische Folgen für Fischerei

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Marine Hitzewellen in stark befischten Gewässern werden in Zukunft negative Auswirkungen haben für die Fischbestände, den Fischfang und alle Menschen, die davon abhängig sind. Dies zeigt eine neue Studie unter der Leitung der University of British Columbia, an der auch Thomas Frölicher von der Universität Bern beteiligt war.

Wenn in einer bestimmten Meeresregion die Wassertemperatur über eine längere Zeitspanne ungewöhnlich hoch ist, spricht man von einer marinen Hitzewelle (Meereshitzewelle). Solche Hitzewellen verursachten in den letzten Jahren grosse Veränderungen in den Ökosystemen im offenen Meer und an der Küste.

In einer neuen Studie unter der Leitung des Institute for the Oceans and Fisheries (IOF) der University of British Columbia (UBC, Kanada) haben Forschende die Auswirkungen von marinen Hitzewellen in ein Modell einbezogen, das klimabezogene Prognosen erstellt sowohl für Fischbestände, den Fischfang als auch die davon abhängigen Menschen in sogenannten «Ausschliesslichen Wirtschaftszonen» (AWZ), in denen der Grossteil des weltweiten Fischfangs betrieben wird. Ebenfalls beteiligt an der Studie, die soeben in der Fachzeitschrift Science Advances veröffentlicht wurde, ist Thomas Frölicher, Professor für Ozeanmodellierung an der Universität Bern. In einem Worst-Case-Szenario, bei dem keine Massnahmen zur Eindämmung der Treibhausgasemissionen ergriffen werden, prognostizieren die Forschenden aufgrund mariner Hitzewellen einen Rückgang der potenziellen Fangmenge um 6 Prozent pro Jahr und einen Rückgang der Biomasse (d. h. der gewichtsmässigen Fischmenge in einem bestimmten Gebiet) bei 77 Prozent der befischten Fischarten und wirbellosen Tiere. Dieser Rückgang kommt zu demjenigen hinzu, der aufgrund des langfristigen Klimawandels erwartet wird.

Extremereignisse könnten Millionen von Arbeitsplätzen kosten
Einige Gebiete werden stärker betroffen sein als andere. Zum Beispiel gehen die Forschenden davon aus, dass im indonesischen Fischereisektor fast drei Millionen Arbeitsplätze verloren gehen könnten, wenn dort zwischen 2000 und 2050 eine marine Hitzewelle eintritt. Weltweit gesehen prognostizieren die Forschenden bei extremen Temperaturereignissen in den Ozeanen, dass die Einnahmen der Fischerei durchschnittlich drei Prozent und die Beschäftigung um zwei Prozent zurückgehen könnten, was einem potenziellen Verlust von Millionen von Arbeitsplätzen gleichkäme.

Überlastung des Systems wie bei Coronavirus
«Diese extremen jährlichen Temperaturen werden ein zusätzlicher Schock für ein ohnehin schon überlastetes System sein», sagt Studien-Erstautor William Cheung, Direktor des Institute for the Oceans and Fisheries der UBC, der 2019 während vier Monate an der Universität Bern in einem Sabbatical tätig war. «In den Ländern, in denen die Fischerei bereits durch langfristige Veränderungen wie die Erwärmung der Ozeane und den Sauerstoffmangel geschwächt ist, kann ein zusätzlicher Schock durch Temperaturextreme die Anpassungsfähigkeit dieser Fischereien überfordern. Es ist nicht unähnlich, wie COVID-19 das Gesundheitssystem durch eine zusätzliche Belastung an die Grenzen bringt.»

Thomas Frölicher, Assistenzprofessor in der Abteilung Klima und Umweltphysik des Physikalischen Instituts und Mitglied des Oeschger-Zentrums für Klimaforschung der Universität Bern, war insbesondere bei der Ausarbeitung der Idee und des Studiendesigns an der Publikation beteiligt. Die Studie knüpft an bisherige Arbeiten seiner Forschungsgruppe an (siehe Beispiele hier und hier). Laut Frölicher werden marine Hitzwellen in Zukunft häufiger auftreten. «Hitzewellen im Meer und die schwerwiegenden Auswirkungen, die sie bereits heute auf die Fischerei haben, sind Vorboten für die Zukunft. Solche Extremereignisse verändern die Umweltbedingungen innert Kürze so stark wie der langfristige Klimawandel in Jahrzehnten.»

Anpassungen in der Fischerei nötig
«Diese Studie unterstreicht die Notwendigkeit, Wege zu entwickeln, um mit den extremen Meerestemperaturen umzugehen, und zwar bald», sagt Cheung. Die Forschenden legen ein aktives Fischereimanagement nahe: Zu den möglichen Anpassungen gehören die Reduzierung der Fangquoten in den Jahren, in denen die Fischbestände unter extremen Temperaturereignissen leiden, oder in schweren Fällen ein Unterbruch der Fischerei, damit sich die Bestände wieder erholen können. Gemäss den Forschenden wird es zudem wichtig sein bei der Entwicklung solcher Anpassungsoptionen mit den Betroffenen zusammenzuarbeiten, da einige Entscheidungen die Auswirkungen auf die Lebensgrundlagen der Menschen sowie auf die Nahrungsmittel- und Ernährungssicherheit verschärfen könnten.

Wissenschaftliche Ansprechpartner:
Prof. Thomas Frölicher
Physikalisches Institut der Universität Bern, Klima- und Umweltphysik (KUP)
Tel. +41 (0)31 631 86 64
thomas.froelicher@climate.unibe.ch

Originalpublikation:
William W. L. Cheung, Thomas L. Frölicher, Vicky W. Y. Lam, Muhammed A. Oyinlola, Gabriel Reygondeau, U. Rashid Sumaila, Travis C. Tai, Lydia C. L. Teh, Colette C. C. Wabnitz. Marine high temperature extremes amplify the impacts of climate change on fish and fisheries. Science Advances, 2021; 7: 1 October 2021. Doi: 10.1126/sciadv.abh0895.

(nach oben)


Biologie: Entscheidender Schritt bei der Umwandlung von Biomasse in Methan identifiziert

Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
Forschende finden das enzymatische Glied bei der Bildung von Methan aus Fettsäuren durch kooperierende Mikroorganismen

Die mikrobielle Produktion von Methan aus organischem Material ist ein wesentlicher Prozess im globalen Kohlenstoffkreislauf und eine wichtige Quelle für erneuerbare Energie. Dieser natürliche Vorgang beruht auf einer kooperativen Interaktion zwischen unterschiedlichen Mikroorganismen-Typen: den gärenden Bakterien und den methanbildenden Archaeen. Erstere wandeln sogenannte primäre Fermentationsprodukte aus dem Biomasseabbau um, unter anderem Fettsäuren in Zwischenprodukte wie Essigsäure, Ameisenäure oder H2. Aus diesen können dann spezialisierte Archaeen Methan bilden. Diese Interaktion fermentierender Bakterien mit methanbildenden Archaeen ist entscheidend für die weltweit relevante Bildung von Methan aus Biomasse. Doch bisher konnten Wissenschaftler*innen nicht klären, wie die Oxidation gesättigter Fettsäuren mit der thermodynamisch äußerst ungünstigen Reduktion von CO2 zu Methan gekoppelt werden kann und wie ein solcher Prozess das Wachstum beider beteiligten Mikroorganismen ermöglichen kann. Ein Forschungsteam der Universität Freiburg, der Technischen Universität Darmstadt und der Universität Bern/Schweiz um Prof. Dr. Matthias Boll vom Institut für Biologie II der Albert-Ludwigs-Universität konnte nun einen entscheidenden Schritt in diesem Prozess aufdecken: Sie fanden das fehlende enzymatische Glied und dessen Funktion, wodurch die Methanbildung aus Fettsäuren energetisch erst nachvollziehbar wird. Ihre Erkenntnisse veröffentlichten die Forschenden im Fachmagazin Proceedings of the National Academy of Sciences.

Untersuchung einer Oxidoreduktase
Die Wissenschaftler*innen untersuchten eine bisher nicht charakterisierte membrangebundene Oxidoreduktase (EMO) aus dem gärenden Bakterium Syntrophus aciditrophicus. Dabei lieferten sie die biochemischen Hinweise dafür, dass die Häm-b-Cofaktoren dieser membrangebundenen Oxidoreduktase und ein modifiziertes Chinon mit perfekt aufeinander abgestimmten Redoxpotentialen die Hauptakteure in diesem mikrobiellen Prozess sind. Bioinformatische Analysen deuten zudem darauf hin, dass diese Oxidoreduktasen in Prokaryoten – Lebewesen wie Bakterien und Archaeen, deren Zellen keinen Zellkern aufweisen – weit verbreitet sind. „Die Ergebnisse schließen nicht nur unsere Wissenslücke bei der Umwandlung von Biomasse in Methan“, erklärt Boll. „Wir könnten darüber hinaus EMOs als bislang übersehene Schlüsselkomponenten des Lipidstoffwechsels in der überwiegenden Mehrzahl aller Mikroorganismen identifizieren.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Boll
Institut für Biologie II
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-2649
E-Mail: matthias.boll@biologie.uni-freiburg.de

Originalpublikation:
Agne, M., Estelmann, S., Seelmann, C. S., Kung, J., Wilkens, D., Koch, H.-G., van der Does, C., Albers, S., von Ballmoos, C., Simon, J., Boll, M. (2021): The missing enzymatic link in syntrophic methane formation from fatty acids. In: Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.2111682118

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/biologie-entscheidender-schritt-bei-der-u…

(nach oben)


Übergewicht − Sind Frauen dabei gesünder als Männer?

Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Stark adipöse Frauen sind weniger durch Begleiterkrankungen des Herzens und Stoffwechsels gefährdet als gleichaltrige, ebenfalls übergewichtige Männer. Dies zeigt eine aktuelle Studie aus Regensburg, die gestern im Rahmen der Herztage 2021 der Deutschen Gesellschaft für Kardiologie vorgestellt wurde.

Bei Frauen und Männern setzt sich Fett an unterschiedlichen Körperstellen an. Bei Frauen sind dies eher die Hüften und das Gesäß an, bei Männern eher der Bauch. Obwohl Frauen einen höheren Körperfettanteil aufweisen, haben sie ein geringeres Risiko an Herz- und Stoffwechselstörungen zu erkranken als Männer im gleichen Alter – die Gründe hierfür sind bisher noch nicht vollständig geklärt.

Dies scheint daran zu liegen, wie unterschiedliche Männer und Frauen Fettreserven speichern: Frauen eher unter der Haut (subkutan), Männer eher in Organnähe (viszeral). Dieses viszerale Fett hat Auswirkungen auf den Stoffwechsel und fördert Entzündungen. Es scheint aber noch weitere Faktoren zu geben. Die Regensburger „Weight Reduction and Remodeling“ Studie unter der Leitung von Prof. Dr. Andrea Bäßler hatte das Ziel, geschlechterspezifische Unterschiede beim Risiko für Herz- und Stoffwechselerkrankungen bei sehr adipösen Patient*innen zu untersuchen.

Frauen hatten unabhängig davon, ob sie adipös waren, einen wesentlich höheren Körperfettanteil als Männer. Dennoch wiesen Männer deutlich häufiger Zucker- und Fettstoffwechselstörungen sowie Bluthochdruck – zusammengenommen als metabolisches Syndrom bezeichnet– auf als Frauen. Besonders stark waren die Unterschiede bei Menschen unter 40 Jahren – 73 Prozent der Männer und nur 37 Prozent der Frauen waren in dieser Altersgruppe betroffen. Adipöse Proband*innen, die außer der Adipositas keine weiteren Kriterien des Metabolischen Syndroms erfüllten, wurden als „gesunde Adipöse“ klassifiziert. Die Gruppe der „gesunden Adipösen“ war bei den adipösen Männern quasi nicht vorhanden: nur 4 Prozent der Männer waren tatsächlich „nur“ adipös, hingegen erfüllten 16 Prozent der Frauen die Kriterien.

Dr. Christina Strack vom Universitätsklinikum Regensburg fasst das Ergebnis folgendermaßen zusammen: „Zusammenfassend weisen vor allem jüngere Männer trotz identischem BMI deutlich häufiger eine krankhafte Adipositas auf als gleichaltrige Frauen. Insbesondere die bei Männern vorhandene abdominelle Fettakkumulation scheint hierbei, neben weiteren Faktoren, eine wichtige Rolle zu spielen.“

Um alle Gründe für dieses unterschiedliche Risiko zu ergründen, sind noch weitere Studien erforderlich. Bei der Studie wurden bei 356 Adipositas-Patient*innen und 76 Personen einer nicht adipösen Vergleichsgruppe, Faktoren wie Körperform, Alter, Alkoholkonsum, Bewegung und Ernährung berücksichtigt.

Medienkontakt:
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Pressesprecher: Prof. Dr. Michael Böhm
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13 presse@dgk.org

Die Deutsche Gesellschaft für Kardiologie –Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit fast 11.000 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter http://www.dgk.org

Wichtige Informationen für Nicht-Mediziner stellt die DGK auf den Seiten ihres Magazins „HerzFit-macher“ zusammen: http://www.herzfitmacher.de

Weitere Informationen:
http://www.dgk.org/presse

(nach oben)


Die seismische Chronik einer Sturzflut

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die wissenschaftliche Beschreibung des katastrophalen Bergsturzes vom 7. Februar 2021 im indischen Dhauli-Ganga-Tal liest sich wie ein gerichtsmedizinischer Bericht. Ein Bergsturz und die anschließende Flut hatten mindestens hundert Menschen getötet und zwei Wasserkraftwerke zerstört. In der Fachzeitschrift Science vom 1.10.2021 zeichnen Forschende des Deutschen GeoForschungsZentrums (GFZ) gemeinsam mit Kolleg*innen des Nationalen Geophysikalischen Forschungsinstituts Indiens (NGRI) die Katastrophe anhand der Daten eines Netzes von Seismometern Minute für Minute nach. Dem Team zufolge könnten seismische Netzwerke genutzt werden, um ein Frühwarnsystem für Hochgebirgsregionen einzurichten.

Obwohl der endgültige Auslöser des massiven Bergsturzes, der in einer Höhe von mehr als 5500 Metern begann, nach wie vor ungeklärt ist, ist eines sicher: Am Sonntag, 7. Februar 2021, um kurz vor halb elf Uhr vormittags, begannen mehr als 20 Millionen Kubikmeter Eis und Gestein ins Tal des Ronti Gad zu stürzen. Seismometer registrierten das Signal um 10:21 Uhr und 14 Sekunden Ortszeit. 54 Sekunden später traf die Masse in 3730 Metern Höhe auf den Talboden und verursachte einen Aufprall, der einem Erdbeben der Stärke 3,8 entsprach. Im Tal mobilisierte die Mischung aus Gestein und Eis Schutt und zusätzliches Eis, das sich – vermischt mit Wasser – als gigantischer Murgang durch die Täler der Flüsse Ronti Gad und Rishi Ganga wälzte. Erstautorin Kristen Cook vom GFZ schätzt, dass die Masse zunächst mit fast 100 Kilometern pro Stunde bergab schoss; nach etwa zehn Minuten verlangsamte sich die Bewegung auf knapp 40 Kilometer pro Stunde.

Um 10:58 Uhr und 33 Sekunden erreichte die Flut eine wichtige Straßenbrücke bei Joshimath. Innerhalb von Sekunden stieg das Wasser dort um 16 Meter. Dreißig Kilometer weiter unten im Tal verzeichnete die Pegelstation Chinka einen Sprung des Wasserstandes um 3,6 Meter, und weitere sechzig Kilometer weiter stieg der Pegel noch um einen Meter.

Auf der Grundlage der von den seismischen Stationen aufgezeichneten Bodenerschütterungen identifizierten Forschende aus den drei GFZ-Sektionen Geomorphologie, Erdbebengefährung und dynamische Risiken sowie Erdbeben- und Vulkanphysik gemeinsam mit den Kolleg*innen des NGRI drei verschiedene Phasen der Flutkatastrophe. Phase 1 war der Bergsturz und sein massiver Aufschlag auf den Talboden. Es folgte Phase 2 mit der Mobilisierung enormer Materialmengen – Eis, Geröll, Schlamm –, die eine verheerende Wand aus Material bildeten, die durch ein enges und gewundenes Tal raste. In dieser Phase blieb viel Material zurück und die Energie nahm rasch ab. Diese Phase dauerte etwa dreizehn Minuten. Phase 3 (fünfzig Minuten Dauer) war eher flutartig, mit gewaltigen Wassermassen, die flussabwärts flossen und große Felsbrocken von bis zu 20 m Durchmesser mit sich führten.

Die wichtigste Erkenntnis: „Die Daten der seismischen Instrumente eignen sich als Grundlage für ein Frühwarnsystem, das vor dem Eintreffen solcher katastrophalen Murgänge warnt“, sagt Niels Hovius, Letztautor der Studie in Science (1.10.2021) und kommissarischer wissenschaftlicher Vorstand des Deutschen GeoForschungsZentrums GFZ. Ein weiterer wichtiger Punkt ist die Verfügbarkeit eines dichten seismischen Netzes, wie es von indischen Forschenden am Indian National Geophysical Research Institute (NGRI) betrieben wird. Hovius‘ Kollegin Kristen Cook, Erstautorin der Studie, fügt hinzu: „Die verfügbare Vorwarnzeit für Standorte in Tälern hängt von der Entfernung und der Geschwindigkeit der Strömungsfront flussabwärts ab.“ Joshimath zum Beispiel, wo der Flusspegel während des Hochwassers um 16 Meter anstieg, lag 34,6 km flussabwärts vom Erdrutsch. Kristen Cook: „Das bedeutet, dass die Menschen in und um Joshimath etwa eine halbe Stunde vor dem Eintreffen der Flut gewarnt worden sein könnten.“ Für weiter flussaufwärts gelegene Regionen, in denen die Welle nur wenige Minuten nach dem Erdrutsch eintraf, hätte die Zeit möglicherweise immer noch ausgereicht, um Kraftwerke abzuschalten.

Warum also gibt es ein solches Warnsystem nicht schon lange? Fabrice Cotton, Leiter der Sektion Erdbebengefährdung und Risikodynamik, sagt: „Das Problem sind die unterschiedlichen Anforderungen an seismische Messstationen, die dazu führen, dass viele Stationen in unseren weltweiten und regionalen Erdbebennetzen weniger geeignet sind, um Felsstürze, Murgänge oder große Überschwemmungen zu erkennen. Gleichzeitig helfen Stationen, die Hochwasser und Murgänge in ihrer unmittelbaren Umgebung überwachen sollen, nicht so gut bei der Erkennung von Ereignissen in der Ferne.“ Die Lösung, an der die GFZ-Forschende gemeinsam mit ihren Kolleg*innen in Indien und Nepal arbeiten, ist ein Kompromiss: An strategisch günstigen Stellen müssten Stationen eingerichtet werden, die das Rückgrat eines Hochgebirgs-Flutwarnsystems bilden. GFZ-Forscher Marco Pilz: „Dieser Kompromiss ist gewissermaßen ein Optimierungsproblem, mit dem sich künftige Studien befassen müssen und bei dem wir bereits systematische Fortschritte gemacht haben, zum Beispiel in der Niederrheinischen Bucht. Weitere Analysen von Sturzfluten und Murgängen werden dazu beitragen, besser zu verstehen, wie seismische Signale bei der Frühwarnung helfen können.“

Erste Ideen, ein solches Frühwarnsystem auf Basis eines seismologischen Ansatzes zu etablieren, entstanden bereits vor der Katastrophe als Ergebnis eines gemeinsamen Workshops von Helmholtz-Forschenden und indischen Kolleg*innen in Bangalore im Frühjahr 2019. Das aktuelle Projekt der Studie wurde von Virendra Tiwari vom NGRI und Niels Hovius initiiert. Es nutzte die zufällige räumliche Nähe des Hochwassers zu einem regionalen seismischen Netzwerk, das bereits vom NGRI aufgebaut worden war. Hovius: „Die Frühwarnung wird immer dringlicher, da Gebirgsflüsse zunehmend für die Erzeugung von Wasserkraft genutzt werden, die als Motor für die wirtschaftliche Entwicklung der ärmsten Bergregionen der Welt gilt.“ Im Zuge der Klimaerwärmung schwinden Gletscher rapide und es sammelt sich viel Schmelzwasser in hochgelegenen Gletscherstauseen. Hovius mahnt: „Katastrophale Überschwemmungen werden deshalb wahrscheinlich häufiger werden und so werden die Risiken in Zukunft noch weiter steigen.“

Kontakt für Medien:

Kontakt für Medien:
Josef Zens
0331-288-1040
josef.zens@gfz-potsdam.de

Wissenschaftliche Ansprechpartner:
Dr. Kristen Cook
0331-288-28829
kristen.cook@gfz-potsdam.de

Prof. Dr. Niels Hovius
0331-288-1015
niels.hovius@gfz-potsdam.de

Originalpublikation:
K. Cook et al.: „Detection, Tracking, and Potential for Early Warning of Catastrophic Flow Events Using Regional Seismic Networks“, Science; DOI: 10.1126/science.abj1227

Weitere Informationen:
https://media.gfz-potsdam.de/gfz/wv/pm/21/11522_Spectogramm-mp4_Kristen-Cook-GFZ… („Übersetzung“ der seismischen Aufzeichnungen in akustische Wellen; der Bergsturz und die Flut werden hörbar)

(nach oben)


Durch die intelligente Kopplung von Strom- und Wärmeproduktion sowohl Ressourcen als auch CO2 einsparen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Ende 2019 fiel der Startschuss für das Projekt »Quartiersentwicklung auf Basis von Nahwärmeinseln mit flexiblen KWK-Systemen und Teilsanierung« – kurz: QUENTIN. Seitdem hat sich in Oberhausen-Tackenberg einiges getan. Die vier Nahwärmeinseln, die in Zukunft über 800 Wohneinheiten, zwei Schulen und eine Sporthalle mit klimaschonender Wärmeenergie versorgen, nehmen nach und nach Gestalt an. Zeit für einen Ortstermin in der Flöz-Matthias-Straße. Dort sind die Arbeiten besonders weit fortgeschritten: Die Fertigstellung des Nahwärmenetzes ist vor Beginn der diesjährigen Heizperiode geplant.

Die Projektpartner luden Medienvertreterinnen und -vertreter Ende September zu einem Richtfest. Dabei ordneten sie die bisherigen Arbeiten ein und wagten auch die ein oder andere Zukunftsprognose. Wolfgang Hoffmann, Vorstand der GE-WO Osterfelder Wohnungsgenossenschaft, stellte beispielsweise heraus, wie sehr ihn sowohl die neuartige technische Konzeption als auch die Verbindung von Forschung und Entwicklung mit der praktischen Anwendung vor Ort beeindruckt haben. Auf diese Weise seien kurz- und mittelfristige Erfolge möglich gewesen. Mit Blick auf die Bedeutung von QUENTIN sagte er: »Das Thema CO2-Reduzierung rollt derzeit mit voller Wucht auf die Wohnungswirtschaft zu. Die Bepreisung von CO2 ist erst der Anfang einer Entwicklung hin zu mehr Klimaneutralität. Wenn erst einmal die Gebäudebestände, die für ein Drittel der CO2-Emissionen verantwortlich sein sollen, in den Emissionshandel einbezogen werden, wie die EU das plant, muss das einen langfristigen Strategiewandel unserer Branche zufolge haben.«

Auch Olaf Rabsilber, Vorstand der Sterkrader Wohnungsgenossenschaft, betrachtete QUENTIN vor dem Hintergrund von Klimaschutz und CO2-Einsparung. Er verschwieg aber auch nicht die Herausforderungen, die mit dem Projekt verbunden sind: »Indem wir an den Bestand gehen, tun wir etwas für unsere Mieterinnen und Mieter. Das heißt aber auch: Wir müssen etwas leisten. QUENTIN ist ein Mammutprojekt, das wir erfolgreich mit allen Partnern stemmen. Dafür an dieser Stelle ein herzlicher Dank an alle, die eingebunden sind.«

Christian Basler, technischer Vorstand der Energieversorgung Oberhausen AG (evo), stellte vor allem die Bedeutung von QUENTIN für die Umwelt heraus. »Bei der evo legen wir großen Wert auf Klimaschutz und wollen mit gutem Beispiel vorangehen. Sowohl in unseren Kraftwerken als auch bei unseren Nahwärmeprojekten wie hier im QUENTIN-Projekt, setzen wir auf innovative und ressourcenschonende Verfahren. In Zukunft werden hier im Quartier durch die intelligente Kopplung von Wärme- und Stromerzeugung Energie gespart und zudem klimaschädliche CO2-Emissionen verringert. Zusätzlich, um die Energiewende noch weiter voran zu treiben, werden an einigen Heizzentralen noch Lademöglichkeiten für Elektroautos gebaut. Zukunftsweisende Projekte wie dieses zur sicheren Versorgung unserer Kundinnen und Kunden sind uns bei der evo eine Herzensangelegenheit.«

Annedore Mittreiter, Leiterin der Abteilung »Energiesysteme« am Fraunhofer UMSICHT, blickte durch die Forschungsbrille auf das Projekt. »Für uns ist QUENTIN etwas ganz Besonderes. Und das aus mehreren Gründen«, betonte sie. »Da ist zum einen das Konzept. Es verbindet eine effiziente KWK-Anlage sowohl mit einem zentralen Wärmespeicher in der Energiezentrale als auch mit dezentralen Wärmespeichern in den Netzanschlusspunkten. Das gibt uns die Möglichkeit, zu untersuchen, welche energetischen Einsparpotenziale durch die Bereitstellung von zusätzlicher Flexibilität realisiert werden können und welchen Einfluss das Speichermanagement darauf hat. In diesem Zuge sind wir besonders gespannt auf den demnächst startenden Demonstrationsbetrieb.«

Ein weiterer Grund: Das vom Fraunhofer UMSICHT entwickelte Energieversorgungskonzept wird bei QUENTIN durch Gebäudesanierungen der Wohnungsgenossenschaften ergänzt. Auf diese Weise können die Forschenden nachvollziehen, wie sich die durch die Sanierungsmaßnahmen verursachten Energieeinsparungen auf den Betrieb des Energiesystems auswirken und so zu integralen Konzepten kommen. »Wir haben den Anspruch, dass QUENTIN Vorbild-Charakter entwickelt. Die hier gewonnenen Erkenntnisse sollen nach dem Projekt auf vergleichbare Quartiere übertragen werden können, um auch an anderen Standorten die lokale Energiewende voranzutreiben«, so Mittreiter.

Hubert Beyer vom Energiemanagement der SBO Servicebetriebe Oberhausen sieht auch enorme Vorteile durch den Anschluss der beiden Schulen und vier weiterer städtischer Gebäude an das Nahwärmenetz. Im Vergleich zu den Gasheizungen im Bestand erzeugten die Anlagen zur Kraft-Wärme-Kopplung einen signifikant geringeren CO2-Ausstoß. Gleichzeitig werde durch die flexible und daher »netzdienliche« Fahrweise der KWK-Anlage die unstetige Einspeisung von regenerativem Strom ins Netz grundsätzlich erleichtert.

Sowohl der Bereich Schule der Stadt Oberhausen als auch die Schulen selbst begrüßen diese Modernisierung der Wärmeerzeugung und stellen ihre Technikräume für die Technikzentralen der Nahwärmenetze zur Verfügung. Die Schülerinnen und Schüler erhalten eine verlässliche Wärmeversorgung und könnten z.B. durch einen »Physikunterricht im Technikraum« als Multiplikatoren für die Akzeptanz und Popularität dieser innovativen Technologie wirken.

Im Anschluss an die Statements gab es Gelegenheit, Fragen zu stellen und auch die Technikzentrale des Nahwärmenetzes in der Flöz-Matthias-Straße zu besichtigen.

Förderhinweis
Das Projekt »Quartiersentwicklung auf Basis von Nahwärmeinseln mit flexiblen KWK-Systemen und Teilsanierung« – kurz: QUENTIN – wird vom Bundesministerium für Wirtschaft und Energie (BMWi) im Forschungsschwerpunkt EnEff:Stadt gefördert.

Originalpublikation:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2021/energ…

(nach oben)


Covid-19-Impfung: Sterblichkeit nach seltener Nebenwirkung sinkt

Marcel Wyler Wissenschaftskommunikation
Universitätsspital Bern
Eine gross angelegte internationale Studie mit Co-Projektleitung des Inselspitals und der Universität Bern untersuchte die sehr seltene Verstopfung von Hirnvenen (Sinusvenenthrombosen) nach Gabe der Impfstoffe von Oxford-AstraZeneca und Janssen/Johnson&Johnson. Beide Impfstoffe werden in der Schweiz bisher nicht eingesetzt. Die Sterblichkeit aufgrund dieser Komplikation sank von 61% auf 42% nachdem der Mechanismus zu ihrer Entstehung im Frühjahr 2021 geklärt werden konnte.

In sehr seltenen Fällen entsteht nach der Impfung mit SARS-CoV-2-Impfstoffen von Oxford-AstraZeneca und Janssen/Johnson&Johnson ein Mangel an Blutplättchen (Thrombozyten) und zugleich steigt die Tendenz zur Bildung von Thrombosen (Verklumpungen im Blut). Am häufigsten sind hierbei Hirnvenenthrombosen (Sinusvenenthrombosen). Als dieses Phänomen neu entdeckt wurde, fiel zunächst die hohe Sterblichkeit auf. Die vom University Medical Center (UMC) Amsterdam und vom Stroke Center am Inselspital, Universitätsspital Bern geleitete weltweite Studie ging der Frage nach, welche Eigenschaften und welche Sterblichkeit verschiedene Untergruppen von Patientinnen und Patienten aufwiesen, die nach der Impfung mit den genannten beiden Impfstoffen eine Sinusvenenthrombose erlitten. Die Studienresultate sind für die Schweiz von Interesse, da hier Impfungen mit dem Produkt von Janssen/Johnson&Johnson bald zur Verfügung stehen werden.

Blutplättchenmangel (Thrombozytopenie) mit tödlichem Verlauf
Von den insgesamt 116 Patientinnen und Patienten der Studie wiesen 78 (76 davon nach AstraZeneca Impfstoff) Hirnvenenthrombosen mit Blutplättchenmangel auf. Diese Patienten waren bei Zuweisung ins Spital besonders oft im Koma (24%), wiesen Hirnblutungen (68%) und begleitende Thrombosen auf. Fast die Hälfte dieser Patientinnen und Patienten starben im Spital.
Die Studie zeigt, dass diejenigen Patientinnen und Patienten, die nach der Impfung einen Abfall der Konzentration von Blutplättchen aufwiesen, häufig einen schweren Verlauf der Komplikation hatten. Damit unterschieden sich Patienten mit einer Thrombozytopenie (Blutplättchenarmut) deutlich von den übrigen Patientinnen und Patienten mit einer Hirnvenenthrombose nach der Impfung.

Sterblichkeit durch angepasste Therapien reduziert
Schon früh waren Hinweise aufgetaucht, dass die Kombination von Blutplättchenarmut und Thrombosen nach Impfung mit den beiden genannten Impfstoffen eine besondere und sehr seltene Gruppe von Patientinnen und Patienten bildet. Antikörper gegen den Blutplättchenfaktor PF4 wurden bereits früh als wichtiger Faktor bei der Verklumpung von Thrombozyten mit der Folge einer Thrombozytopenie erkannt. Seither kamen gezielte Therapien zum Einsatz wie Immunglobuline und Plasmaaustausch (therapeutische Plasmapherese). Die aktuelle Studie stellte fest, dass seit dieser Erkenntnis und aufgrund entsprechend angepasster Therapien, die Sterblichkeit nach Hirnvenenthrombose bei Blutplättchenarmut von 61% auf 42% gefallen ist. Neuere noch unveröffentlichte Daten und eine bereits publizierte britische Studie weisen in die gleiche Richtung und zeigen eine nochmals deutlich reduzierte Sterblichkeit.

Zur Methodik der Studie
Die Forschung bei sehr seltenen Nebenwirkungen ist anspruchsvoll. Die Fälle verteilen sich auf zahlreiche Zentren, und die Vergleichbarkeit der dezentral erstellten Protokolle muss mit standardisierten Formularen zuerst sichergestellt werden. Aufgrund der Seltenheit der Komplikationen haben die meisten Zentren nur einen oder gar keine Patienten. Für die vorliegende Studie wurden Daten aus 81 Spitälern in 19 Ländern in einem prospektiven webbasierten Register zusammengetragen. Aus der Schweiz wurden Patienten der Kontrollgruppe beigetragen. Die Studie wurde von der World Stroke Organisation, der European Academy of Neurology und der European Stroke Organisation unterstützt. Insgesamt konnten weltweit 116 Fälle von Sinusvenenthrombosen nach einer SARS-CoV-2-Impfung analysiert werden. 78 Personen erkrankten an einer Thrombose mit Blutplättchenarmut. Davon hatten 76 den Impfstoff von Oxford/AstraZeneca erhalten. Aus der Schweiz wurde kein einziger Fall gemeldet. Als Vergleichsgruppe dienten 207 Personen, die vor der Pandemie eine Sinusvenenthrombose ohne Impfung erlitten hatten. Ausgeschlossen waren ebenso Personen, die eine Blutverdünnung (Heparin) brauchten, da Sinusvenenthrombosen mit Blutplättchenarmut auch im Zusammenhang mit einer Anwendung von Heparin auftreten können.

Gefährdete Gruppe früher erkennen und mit mehr Erfolg therapieren
Die vorliegende, grösste internationale Studie zu dieser Erkrankung hat ein umfangreiches Profil derjenigen Patientinnen und Patienten erhoben, die nach einer Impfung mit einem der beiden genannten Impfstoffe eine Sinusvenenthrombose erlitten. Dabei wurde der Gruppe, die Sinusvenenthrombosen mit Blutplättchenarmut aufwies, besondere Aufmerksamkeit geschenkt. Der Co-Studienleiter Prof. Dr. med. Marcel Arnold, Chefarzt Universitätsklinik für Neurologie und Leiter Stroke Center erklärt: «Die Risikofaktoren für einen Hirnschlag wurden systematisch erhoben, ebenso der klinische Befund ab Eintritt in die Klinik. Dank dem so gewonnenen, detaillierten Profil könnte es künftig möglich sein, diese besonders gefährdete Gruppe noch früher zu erkennen und so die Sterblichkeit durch eine gezielte Therapie weiter zu senken». Das Register wird weitergeführt und die Autoren erhoffen sich weitere Erkenntnisse auch über die Langzeitprognose der Erkrankung und die besten Therapieoptionen für die Patienten.

Wissenschaftliche Ansprechpartner:
– Prof. Dr. med. Marcel Arnold, Chefarzt Universitätsklinik für Neurologie, Leiter Stroke Center, Inselspital, Universitätsspital Bern und Universität Bern
– PD Dr. med. Mirjam Heldner, Stv. Leiterin Ambulantes Neurovaskuläres Zentrum, Inselspital, Universitätsspital Bern
– Prof. Dr. med. Johanna Anna Kremer Hovinga, Leitende Ärztin, Universitätsklinik für Hämatologie und Hämatologisches Zentrallabor, Inselspital, Universitätsspital Bern und Universität Bern

Originalpublikation:
M. Sanchez van Kammen, D. Aguiar de Souza, S. Poli et al. : Characteristics and Outcomes of Patients with Cerebral Venous Sinus Thrombosis in SARS-CoV-2 Vaccine-induced Thrombotic Thrombocytopenia ; Jama Neurology
DOI : 10.1001/jamaneurol.2021.3619

(nach oben)


Wie Geologie die Artenvielfalt formt

Lina Ehlert Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Dank eines neuen Computermodells können Forschende der ETH Zürich nun besser erklären, weshalb die Regenwälder Afrikas weniger Arten beherbergen als die Tropenwälder Südamerikas und Südostasien. Der Schlüssel zu einer hohen Artenvielfalt ist, wie dynamisch sich die Kontinente über die Zeit entwickelt haben.

Tropische Regenwälder sind die artenreichsten Lebensräume der Erde. Sie beherbergen eine riesige Zahl von verschiedenen Pflanzen, Tieren, Pilzen und weiterer Organismen. Diese Wälder liegen mehrheitlich auf drei Kontinenten, darunter das Amazonasbecken in Südamerika, das Kongo-Becken in Zentralafrika und das riesige Inselarchipel Südostasiens.

Nun könnte man annehmen, dass alle tropischen Regenwälder aufgrund des stabil warmfeuchten Klimas und ihrer geografischen Lage rund um den Äquator in etwa gleich artenreich sind – das trifft jedoch nicht zu. Verglichen mit Südamerika und Südostasien ist die Artenzahl in feuchten Tropenwäldern Afrikas bei vielen Organismengruppen deutlich kleiner.

Palmenvielfalt in Afrika viel kleiner
Diese ungleiche Verteilung – Forschende sprechen von der «pantropischen Diversitätsdisparität» (PDD) – lässt sich anhand von Palmen gut illustrieren: Von den weltweit 2500 Arten kommen 1200 in Südostasien und 800 in den Tropenwäldern Südamerikas vor, aber nur 66 in afrikanischen Regenwäldern.

Weshalb dem so ist, ist unter Biodiversitätsforschenden umstritten. Einige Indizien sprechen dafür, dass das gegenwärtige Klima für die geringere Artenvielfalt in Afrikas Tropenwäldern die Ursache ist. So ist das Klima in Afrikas Tropengürtel trockener und kühler als das in Südostasien und Südamerika.

Andere Hinweise sprechen eher dafür, dass sich die unterschiedliche Entwicklung der Umwelt und der Plattentektonik der drei Tropenwaldzonen über Dutzende Millionen von Jahren auf die Entstehung unterschiedlich grosser Biodiversität auswirkte. Zu solchen Veränderungen gehören beispielsweise die Bildung von Gebirgen, Inseln oder Trocken- und Wüstengebieten.

Die beiden Faktoren – gegenwärtiges Klima und Umweltgeschichte – lassen sich jedoch nur schwer auseinanderhalten.

Gebirgsbildung förderte Artenvielfalt
Forschende der ETH Zürich unter der Federführung von Loïc Pellissier, Professor für Landschaftsökologie, sind nun dieser Frage mithilfe eines neuen Computermodelles nachgegangen. Dieses Modell erlaubt es ihnen, die Evolution und Diversifizierung der Arten über viele Millionen von Jahren hinweg zu simulieren. Die Forschenden kommen zum Schluss, dass das gegenwärtige Klima nicht der Hauptgrund sei, weshalb die Artenvielfalt in den Regenwäldern Afrikas geringer ist. Die Artenvielfalt, so schliessen sie aus den Simulationen, wurde durch die Dynamik der Gebirgsbildung und Klimaveränderungen hervorgebracht. Die Ergebnisse der Simulationen decken sich weitgehend mit den heute beobachtbaren Mustern der Biodiversitätsverteilung.

«Unser Modell bestätigt, dass Unterschiede in der Dynamik der frühzeitlichen Umwelt die ungleiche Verteilung der Artenvielfalt hervorbrachten und nicht aktuelle klimatische Faktoren», sagt Pellissier. «Geologische Prozesse sowie globale Temperaturflüsse bestimmen, wo und wann Arten entstehen oder aussterben.»

Entscheidend für eine hohe Artenvielfalt auf einem Kontinent ist insbesondere die Dynamik geologischer Prozesse. Aktive Plattentektonik fördert die Gebirgsbildung, wie die Anden in Südamerika, oder die Entstehung von Insel-Archipelen wie in Südostasien. Beide Prozesse führen dazu, dass sich viele neue ökologische Nischen bilden, in denen wiederum zahlreiche neue Arten entstehen. Der Regenwaldgürtel Afrikas hingegen war in den vergangenen 110 Millionen Jahre tektonisch weniger aktiv. Auch war dieser Tropenwald verhältnismässig klein, da er von Trockengebieten im Norden und Süden begrenzt war und sich nicht weiter ausdehnen konnte. «Arten aus Regenwäldern können sich kaum an die Verhältnisse der umgebenden Trockengebiete anpassen», betont Pellissier.

Neues Modell
Das von ETH-Forschenden entwickelte Modell «gen3sis» wurde erst kürzlich im Fachjournal PLoS Biology vorgestellt. Es ist ein mechanistisches Modell, in welchem die primären Rahmenbedingungen wie die Geologie und das Klima sowie die biologischen Mechanismen eingebaut sind und aus welchen die Biodiversitätsmuster hervorgehen. Um die Entstehung der Biodiversität zu simulieren, müssen folgende wichtige Prozesse im Modell integriert werden: Ökologie (jede Art hat ihre begrenzte ökologische Nische), Evolution, Artbildung (engl: speciation) und Ausbreitung (engl: dispersal).

«Mit diesen vier grundlegenden Regeln können wir die Bestandsdynamik von Organismen vor dem Hintergrund von sich verschiebenden Umweltbedingungen simulieren. Dadurch können wir auch sehr gut erklären, wie die Organismen entstanden», sagt Pellissier.

Indem die Forschenden ihr Modell auf diesen grundlegenden evolutionären Mechanismen aufbauen, können sie die Artenvielfalt simulieren, ohne dass sie es mit (Verbreitungs-)Daten für jede einzelne Art füttern müssen. Das Modell braucht jedoch Daten über die Dynamik der betrachteten Kontinente in der Erdgeschichte sowie über die Feuchtigkeit und Temperaturen aus Klimarekonstruktionen.

Pellissier und seine Mitarbeitenden sind nun dabei, das Modell zu verfeinern. Mit weiteren Simulationen wollen sie verstehen, wie Biodiversität in anderen artenreichen Regionen entstanden ist, etwa in den Gebirgen Westchinas. Der Modellcode und die Rekonstruktionen der frühzeitlichen Umwelt sind quelloffen. Alle interessierten Evolutions- und Biodiversitätsforschenden können ihn nutzen, um die Bildung von Artenvielfalt in verschiedensten Regionen der Welt zu untersuchen.

Wissenschaftliche Ansprechpartner:
Loïc Pellissier, Professor für Landschaftsökologie, +41 44 632 32 03,loic.pellissier@usys.ethz.ch

Originalpublikation:
https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3001340

(nach oben)


Genetische Abstammung und Erbe der Etrusker entschlüsselt

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen
Forschungsteam präsentiert umfassende DNA-Analysen zum genetischen Ursprung der Menschen in der eisenzeitlichen Hochkultur Mittelitaliens und ihren Einfluss auf die spätere Bevölkerung

Die Etrusker, deren Hochphase in der Eisenzeit in Mittelitalien rund 800 Jahre v. Chr. begann, waren eng mit ihren Nachbarn verwandt, den Latinern in der Region Roms. Große Anteile des gemeinsamen genetischen Erbes deuten auf Vorfahren aus der osteuropäischen Steppe hin, die während der Bronzezeit nach Italien und Europa kamen, und die mit der Verbreitung der indogermanischen Sprachen in Europa in Verbindung gebracht werden. Das ergab eine genetische Studie an Überresten von 82 Individuen aus zwölf etruskischen Fundstätten in Mittel- und Süditalien, die im Zeitraum von 800 v. Chr. bis 1000 n. Chr. lebten. Die Ergebnisse stehen in starkem Kontrast zu einer früheren Vermutung, nach der die Etrusker Zuwanderer aus Anatolien oder der Ägäis gewesen sein könnten. Die Forscher liefern eine mögliche Erklärung dafür, warum die Etrusker eine eigene, inzwischen ausgestorbene Sprache beibehielten, die nicht mit den bis heute in Europa vorherrschenden indo-germanischen Sprachen verwandt ist.

Die Studie wurde von einem internationalen Forschungsteam durchgeführt, unter der Leitung von Professor Cosimo Posth vom Senckenberg Centre for Human Evolution and Palaeoenvironment an der Universität Tübingen, Professor Johannes Krause von den Max-Planck-Instituten für Menschheitsgeschichte und evolutionäre Anthropologie sowie Professor David Caramelli von der Universität Florenz. Veröffentlicht wurde sie in der Fachzeitschrift Science Advances.

Phasen von Beständigkeit und Wandel
Die Etrusker bewohnten während der Eisenzeit große Gebiete Mittelitaliens, die heutigen Regionen Toskana, Latium und Umbrien mit lokalen Ausläufern in benachbarte Regionen. Ihre Kultur ist bekannt für die besonderen Fähigkeiten bei der Metallbearbeitung, ihre hochentwickelte Kunst und ihre Sprache, die noch nicht in allen Teilen entschlüsselt ist und nicht zur Sprachfamilie der Indoeuropäischen Sprachen gehört. „Die Etrusker traten so verschieden von ihren Nachbarn auf, dass in der Wissenschaft schon lange darüber diskutiert wird, ob diese Bevölkerung lokal entstand oder zugewandert war. Unsere Ergebnisse zeigen einen lokalen Ursprung“, berichtet Cosimo Posth.

Ziehe man in Betracht, dass die in der Bronzezeit nach Italien zugewanderten Menschen aus der Steppe für die Ausbreitung der indogermanischen Sprachen verantwortlich waren, sei rätselhaft, wie sich bei den Etruskern mehr als 1500 Jahre später eine ganz andere ältere Sprache erhalten konnte. „Diese sprachliche Beständigkeit über den genetischen Wandel hinweg stellt bisherige einfache An-nahmen in Frage, dass Gene und Sprachen zusammengehören. Wahrscheinlich war das Geschehen komplexer. Möglicherweise integrierten die Etrusker im zweiten Jahrtausend v. Chr. frühe italisch sprechende Menschen in ihre eigene Sprachgemeinschaft“, sagt David Caramelli.

Die für die Studie ausgewählten 82 Individuen überspannen den Zeitraum von 800 v. Chr. bis 1000 n. Chr. „Wir sind schrittweise vorgegangen: Zunächst haben wir ein genetisches Porträt der Etrusker erstellt und dann über die Zeit verfolgt, welche Einflüsse sich durch eventuelle Zuwanderer oder Durchmischung mit anderen Populationen im Laufe von 2000 Jahren abzeichnen“, sagt Johannes Krause. Obwohl einige Individuen aus dem Nahen Osten, Nordafrika und Mitteleuropa nach Mittelitalien zugewandert sein müssen, sei der Genpool der Etrusker für mindestens 800 Jahre in der Eisen-zeit und der Periode der Römischen Republik stabil geblieben. „Ein großer genetischer Umbruch kam für die Menschen in Mittelitalien mit der Römischen Kaiserzeit. Damals mischten sie sich mit Populationen aus dem östlichen Mittelmeerraum, worunter wahrscheinlich auch Sklaven und Soldaten waren, die innerhalb des Römischen Reichs verschleppt oder umgesiedelt wurden“, sagt Krause. „Diese genetische Verschiebung bringt die Rolle des Römischen Reichs bei der Vertreibung und Umsiedlung von Menschen im großen Maßstab zutage.“

Genetische Verschiebung im frühen Mittelalter
Als das Team die genetische Verwandtschaft der Mittelitaliener analysierte, die gegen Ende des Untersuchungszeitraums im frühen Mittelalter gelebt hatten, stellten sie fest, dass sich Nordeuropäer nach dem Zusammenbruch des Weströmischen Reichs über die ganze italienische Halbinsel ausbreiteten. So durchmischten sich die Mittelitaliener mit germanischen Migranten, die zum Beispiel zur Zeit des Königreichs der Langobarden in die Region einwanderten. „Nach dieser frühmittelalterlichen Vermischung blieb die Population in den heutigen Regionen Toskana, Latium und Basilikata bis heute weitgehend stabil. Die genetische Zusammensetzung heute lebender Menschen in Mittel- und Süditalien hat sich in den letzten 1000 Jahren kaum verändert“, sagt Cosimo Posth.

Um die Studienergebnisse im Detail zu erhärten, sollen weitere Genomanalysen von Individuen aus den letzten zweitausend Jahren aus ganz Italien durchgeführt werden. „Vor allem die Römische Kaiserzeit, in den ersten 500 Jahren unserer Zeitrechnung, scheint einen langfristigen Einfluss auf das genetische Profil der Südeuropäer gehabt zu haben. Dadurch wurde die vorherige genetische Lücke zwischen Europäern und Menschen im östlichen Mittelmeerraum geschlossen“, sagt Posth.

Hochaufgelöstes Bildmaterial erhalten Sie unter
https://shh-cloud.gnz.mpg.de/index.php/s/nErr77fyXmieiPe
Bitte beachten Sie die Quellenangaben.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Cosimo Posth
Universität Tübingen
Institut für Naturwissenschaftliche Archäologie
Senckenberg Centre for Human Evolution and Palaeoenvironment
cosimo.posth@uni-tuebingen.de

Prof. Dr. Johannes Krause
Max-Planck-Institute für evolutionäre Anthropologie und für Menschheitsgeschichte
krause@eva.mpg.de

Originalpublikation:
Cosimo Posth, Valentina Zaro, Maria A. Spyrou, David Caramelli, Johannes Krause et. al.: The origin and legacy of the Etruscans through a 2000-year archeogenomic time transect. Science Advances, https://doi.org/10.1126/sciadv.abi7673

(nach oben)


An COVID-19 erkrankte Menschen haben ein fast dreifach erhöhtes Dialyse-Risiko

Dr. Bettina Albers Pressearbeit
Deutsche Gesellschaft für Nephrologie e.V. (DGfN)
Alarmierende Zahlen: Patientinnen und Patienten, die COVID-19 überstanden haben, sind laut einer neuen Studie [1] mit über 1,5 Millionen US-Veteranen stark gefährdet, eine chronische Nierenerkrankung (CKD) zu erleiden. Gegenüber nicht erkrankten Menschen ist ihr Lebenszeitrisiko, Dialysepatientin/Dialysepatient zu werden, sogar fast dreimal so hoch. Bei allen ehemals Erkrankten wurde im Verlauf ein sigifikant erhöhter, jährlicher Verlust der glomerulären Filtrationsrate (eGFR) beobachtet, Wichtig für die Nachsorge: Die typischen „Long-COVID-Symptome“ wie Fatigue oder Kopfschmerzen können auch auf eine Nierenschädigung hindeuten.

Langzeitfolgen einer symptomatischen SARS-CoV-2-Infektion können die Lunge und verschiedene andere Organe betreffen. Darunter sind auch die Nieren, jedoch waren bisher detaillierte Analysen zum renalen Post-COVID-Outcome nicht verfügbar. Nun wurde eine Studie veröffentlicht [1], die eine Kohorte von 1.726.683 US-Veteranen untersuchte. Darunter waren fast 100.000 (n=89.216) ehemalige COVID-19-Patientinnen und -Patienten („30-Tage-Überlebende“ nach postivem Testergebnis im Zeitraum von März 2020 bis März 2021, Erkrankte, die binnen der ersten 30 Tage der Erkrankung verstarben, waren in dieser Erhebung nicht eingeschlossen worden) und 1.637.467 nicht-infizierte Kontrollen. Die mediane Nachbeobachtungszeit der Betroffenen (90,1% waren männlich) betrug 164 (127-268) Tage, bei den Kontroll-Veteranen (91,4% waren männlich) 172 (133-282) Tage. Analysiert wurden das Risiko einer AKI (akute Nierenschädigung), eine Abnahme der glomerulären Filtrationsrate (eGFR), Notwendigkeit einer chronischen Dialysebehandlung und schwere renale Ereignisse (MAKE „major adverse kidney events“). MAKE waren definiert als eGFR-Verlust von mindestens 50%, chronische Dialysepflicht oder Todesfälle. Die Daten wurden für präspezifizierte demografische und gesundheitsbezogene Merkmale wie Begleiterkrankungen, Medikamente und paraklinische Befunde statistisch adjustiert.

Die Ergebnisse zeigten, dass die COVID-Überlebenden gegenüber nicht-infizierten Veteranen auch nach der akuten Erkrankungsphase ein erhöhtes MAKE-Risiko (adj. HR 1,66) hatten. Das Risiko für eine akute Nierenschädigung (AKI) war fast doppelt so hoch (adj. HR 1,94), das Risiko für einen chronischen eGFR-Verlust von mindestens 50% war ebenfalls erhöht (adj. HR 1,62) und eine Dialysepflicht trat fast dreimal so häufig auf (adj. HR 2,96). COVID-Überlebende hatten einen deutlich über das zu erwartende Maß hinausgehenden Nierenfunktionsverlust gegenüber den Kontroll-Veteranen, bei denen der jährliche eGFR-Rückgang bei ungefähr 0,5 ml/min/1,73 m2 lag. Der eGFR-„Exzess-Verlust“ (= der eGFR-Verlust zusätzlich zu den 0,5 ml/min/1,73 m2, den auch die Kontrollpatientinnen/-patienten erlitten) betrug bei ambulant behandelten COVID-19-Patientinnen und -Patienten 3,26 ml/min/1,73 m2, nach Hospitalisierung 5,2 ml/min/1,73 m2 und bei ehemals intensivpflichtigen Patientinnen und Patienten sogar 7,69 ml/min/1,73 m2. Wer in der akuten COVID-19-Erkrankungsphase ein akutes Nierenversagen (AKI) erlitten hatte,wies sogar einen Exzess-Verlust von 8,41 ml/min/1,73 m2 auf.

Der Anstieg des Risikos von Post-COVID-Nierenschäden war somit zwar abhängig vom Schweregrad der akuten COVID-19-Erkrankung, doch festzuhalten ist, dass bereits bei den Erkrankten, die nur ambulant behandelt werden mussten, das renale Risiko deutlich erhöht war. Bei ihnen war der jährliche Rückgang der eGFR im vergleich zu den Kontrollpatientinnen/-patienten fast um das Siebenfache erhöht (3,26 ml/min/1,73 m2 gegenüber 0,5 ml/min/1,73 m2).

„Diese Daten sind alarmierend – nach jeder überstandenen COVID-19-Erkrankung, insbesondere aber nach schwereren Verläufen, muss bei der Nachbetreuung die Nierenfunktion im Auge behalten werden.
Bei bereits eingeschränkter Nierenfunktion oder auffälligen Urinbefunden sollte unbedingt eine nephrologische Mitbetreuung und nephroprotektive Therapie durchgeführt werden“, kommentiert Frau Prof. Dr. Julia Weinmann-Menke, Pressesprecherin der DGfN, auf der Pressekonferenz der 13. DGfN-Jahrestagung in Rostock.

Wie die Expertin hervorhebt, können die „typischen“ Symptome eines sogenannten Long-COVID-Syndroms – wie Müdigkeit, verminderte Belastbarkeit, Konzentrationsschwäche oder Kopfschmerzen – auch Symptome einer chronischen Nierenerkrankung sein. „Bei entsprechenden Long-COVID-Symptomen muss also auch an eine chronische Nierenerkrankung gedacht werden. Die Abklärung der Nierenwerte ist also von besonderer Bedeutung in der Nachsorge von COVID-19-Patientinnen und -Patienten.“

[1] W Bowe B, Xie Y, Xu E et al. Kidney Outcomes in Long COVID. J Am Soc Nephrol 2021 Sep 1; ASN.2021060734. doi: 10.1681/ASN.2021060734. Online ahead of print.

[2] Yende S, Parikh CR. Long COVID and kidney disease. Nature Reviews Nephrology. Published: 09 September 2021. https://www.nature.com/articles/s41581-021-00487-3

Pressekontakt
Pressestelle der DGfN
Dr. Bettina Albers
presse@dgfn.eu
Tel. 03643/ 776423 / Mobil 0174/ 2165629

(nach oben)


Entwicklung von Ammoniak-Technologien für den Transport von Grünem Wasserstoff – Start von TransHyDE

Dr. Hans Sawade Stab – Wissenschaftsmanagement
Leibniz-Institut für Plasmaforschung und Technologie e.V.
TransHyDE geht an den Start, eines von drei Wasserstoff-Leitprojekten des Bundesministeriums für Bildung und Forschung (BMBF) aus dem Zukunftspaket zur Umsetzung der 2020 beschlossenen „Nationalen Wasserstoffstrategie“ in Deutschland. Mit seiner bislang größten Forschungsinitiative zum Thema „Energiewende“ unterstützt das BMBF Deutschlands den Einstieg in die Wasserstoffwirtschaft. Über vier Jahre sollen die Leitprojekte vorhandene Hürden, die den Einstieg Deutschlands in eine Wasserstoffwirtschaft erschweren, aus dem Weg räumen. TransHyDE erforscht und entwickelt Technologien für den Transport von Wasserstoff.

Um Deutschland auf dem Weg zur Klimaneutralität voranzubringen, braucht es mehrere Hundertmillionen Tonnen Wasserstoff jährlich. Einen Teil davon wird Deutschland selbst produzieren – der deutlich größere Teil muss aus wind- und sonnenreichen Regionen importiert werden. In beiden Fällen braucht es funktionierende und effiziente Transport-Infrastrukturen, denn nur selten wird Wasserstoff auch dort genutzt, wo er hergestellt wird. Deshalb werden Transport-Infrastrukturen für kurze, mittlere und lange Strecken dringend benötigt.

Das Leitprojekt TransHyDE mit über 80 Partnern aus Industrie, Verbänden, Universitäten und Forschungseinrichtungen wird daher Transport-Technologien umfassend weiterentwickeln – und zwar technologieoffen entlang verschiedener möglicher Entwicklungspfade. TransHyDE treibt in vier Umsetzungs- und fünf begleitenden Forschungsprojekten die Transporttechnologien weiter voran: den Wasserstofftransport in Hochdruckbehältern, den Wasserstoff-Flüssig-Transport, den Wasserstoff-Transport in bestehenden und neuen Gasleitungen sowie den Transport von in Ammoniak gebundenem Wasserstoff. Die TransHyDE-Forschungsprojekte befassen sich mit der Erstellung einer Roadmap zur Wasserstoff-Infrastruktur. Dafür braucht es neue Standards, Normen und Sicherheitsvorschriften von Wasserstoff-Transporttechnologien sowie notwendige Materialien, Werkstoffen und Sensoren. Die Forschung zur effizienten Herauslösung von Wasserstoff aus Ammoniak und das Betanken von Behältern mit flüssigem, tiefkaltem Wasserstoff gehört mit zu den Forschungsprojekten.

Als größtes Umsetzungsprojekt in TransHyDE bündelt das regionale Partner-Bündnis CAMPFIRE unter der Koordination des Leibniz-Institutes für Plasmaforschung und Technologie e.V. (INP) in Greifswald, des Zentrums für Brennstoffzellentechnik in Duisburg und der Inherent Solution Consult GmbH & Co KG in Rostock die Forschungs- und Entwicklungsaktivitäten für Technologien zur Umsetzung der gesamten Transportkette für grünes Ammoniak. Am Standort Poppendorf auf dem Industriegelände der YARA Rostock werden dafür industrierelevante Prüf- und Testfelder im COIL – CAMPFIRE Open Innovation Lab für die neuen Technologien aufgebaut. Im Fokus stehen dabei die Entwicklung von Logistikstrukturen und Betankungsanlagen für den Ammoniak-Import und Betrieb von Schiffen mit grünem Ammoniak, lastflexible Ammoniak-Anlagen für die saisonale Erzeugung von Ammoniak aus erneuerbarer Energie und dynamische Wandlungstechnologien für stationäre und mobile Energieversorgung sowie Ammoniak-zu-Wasserstoff-Tankstellen. Von den Partnern werden sowohl Konzepte für die wirtschaftliche Distribution von Ammoniak im industriellen Umfeld als auch der Rechtsrahmen sowie Pfade für die Erhöhung der Akzeptanz für Ammoniak in der Bevölkerung und bei Kunden erarbeitet. „Es geht bei diesen Vorhaben um die Eröffnung von neuen wirtschaftlichen Potentialen für unsere regionalen Unternehmen. Zum einen sollen die Unternehmen an die Entwicklung der Technologiefelder und den Aufbau der Verwertungsketten im Zukunftsfeld Ammoniak und Wasserstoff herangeführt werden. Zum anderen bieten die im TransHyDE-Projekt CAMPFIRE entwickelten Technologien neue wirtschaftliche Möglichkeiten für Unternehmen, ihren Carbon-Footprint zu minimieren. Im besonderen Fokus steht auch die Entwicklung eines europaweit sichtbaren Standortes für grüne Ammoniak- und Wasserstoff-Technologien auf dem Industriegelände in Rostock-Poppendorf“, erklärt Dr. Angela Kruth, Sprecherin und Koordinatorin von CAMPFIRE.
Neue Technologien für die Implementierung von Ammoniak als einen kohlenstofffreien Wasserstoffträger stellen eine wichtige Voraussetzung für das Erreichen der Klimaziele dar, d.h. die notwendige Minderung der Treibhausgasemissionen um 95 Prozent bis 2050.

Infokasten:
In den Wasserstoff-Leitprojekten „TransHyDE“, „H2Mare“ und „H2Giga arbeiten über 240 Partner aus Wissenschaft und Industrie zusammen. Insgesamt wird die Förderung über 740 Millionen Euro betragen.

Das CAMPFIRE-Bündnis wurde 2018 im Rahmen des BMBF WIR! „Wandel durch Innovation“-Programmes gegründet. Die mittlerweile über 60 Partner mit einem Unternehmensanteil von ca. 80% sind hauptsächlich in der Region Nord-Ost angesiedelt. Sie verfolgen gemeinsam das Ziel, die Unternehmen der Region Nord-Ost und Deutschland zu einem Exporteur von neuen Technologien für ein zukünftiges globales kohlenstofffreies Ammoniak-Wasserstoff-Energiesystem zu befähigen.

Kontakt:
Dr. Gesine Selig
Kommunikation/ Presse
Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP)
Tel.: +49 3834 554 3942, Fax: +49 3834 554 301
mailto: gesine.selig@inp-greifswald.de
https://www.leibniz-inp.de

Wissenschaftliche Ansprechpartner:
Dr. Angela Kruth
Koordinatorin & Sprecherin CAMPFIRE
Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP)
Tel.: +49 3834 554 38460, Fax: +49 3834 554 301
mailto: angela.kruth@inp-greifswald.de
http://www.wir-campfire.de

(nach oben)


Prognosen für die Abfluss- und Stauregelung am Neckar bei Starkregenereignissen

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
Forschungsergebnisse aus dem BMVI-Expertennetzwerk machen die Schifffahrt auf dem Neckar sicherer

Starkregenereignisse in urbanen Regionen können die Wasserstände in staugeregelten Wasserstraßen sprunghaft ansteigen lassen. Insbesondere können Regenwassereinleitungen bei Niedrigwasserabfluss, wie sie vor allem bei Sommergewittern auftreten, ein Vielfaches des Abflusses in der Wasserstraße betragen. Auf diese schnellen Abflussänderungen muss die Abfluss- und Stauregelung an der unterhalb liegenden Stauanlage vorausschauend reagieren, da ansonsten für die Schifffahrt die Gefahr von Brückenanfahrungen oder Grundberührungen besteht.

Als Folge des Klimawandels sind Extremwetterereignisse mit Starkregen künftig häufiger zu erwarten. Aus diesem Grund entwickelt die Bundesanstalt für Wasserbau (BAW) derzeit ein Prognosesystem, mit dessen Hilfe die Einleitungen rechtzeitig vorhergesagt werden können, sodass das für die Abfluss- und Stauregelung an der unterhalb liegenden Staustufe verantwortliche Betriebspersonal vorausschauend reagieren kann. Die Entwicklung des Prognosesystems findet im Rahmen eines Forschungsprojekts des BMVI-Expertennetzwerks statt. Als Pilotprojekt wird der Nesenbach betrachtet, der als Hauptsammler der Stuttgarter Kanalisation bei Starkregen große Mengen Mischwasser in den Neckar einleitet. Etwa sechs Kilometer unterhalb der Einleitung liegt die Neckar-Staustufe Hofen.

Das Prognosesystem basiert auf hochauflösenden Niederschlagsprognosen mit einem Vorlauf von zwei Stunden. Hierzu arbeitet die BAW eng mit dem Deutschen Wetterdienst zusammen. Mit Hilfe eines stark vereinfachten Modells der Stuttgarter Kanalisation werden regeninduzierte Einleitungen aus dem Nesenbach in den Neckar vorhersagt. Darüber hinaus berechnet das Prognosesystem einen optimierten Wasserstands- und Abflussverlauf für die Staustufe Hofen. Dies ermöglicht dem Betriebspersonal, frühzeitig auf die ankommende Abflusswelle zu reagieren und die Wasserstandschwankungen auf ein für die Schifffahrt unschädliches Maß zu begrenzen.
Derzeit implementiert die BAW einen Prototyp des Prognosesystems. Die Abflussvorhersagen für den Nesenbach werden bereits in Zusammenarbeit mit der Neckar AG, die die Wasserkraftwerke am Neckar betreibt, getestet. Anschließend soll der Prototyp um die Komponente zur Unterstützung bei der Abfluss- und Stauregelegung ergänzt werden. Damit trägt das Forschungsprojekt dazu bei, die Schifffahrt auf dem Neckar resilienter gegenüber extremen Wetterereignissen und dem Klimawandel zu machen.

Das BMVI-Expertennetzwerk ist das verkehrsträgerübergreifende Forschungsformat in der Ressortforschung des BMVI. Unter dem Leitmotiv „Wissen – Können – Handeln“ haben sich sieben Ressortforschungseinrichtungen und Fachbehörden des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) 2016 zu einem Netzwerk zusammengeschlossen. Ziel ist es, drängende Verkehrsfragen der Zukunft unter anderem in den Bereichen Klimawandel, Umweltschutz, alternde Infrastruktur und Digitalisierung zu erforschen und durch Innovationen eine resiliente und umweltgerechte Gestaltung der Verkehrsträger zu ermöglichen.

Wissenschaftliche Ansprechpartner:
Pressekontakt
Bundesanstalt für Wasserbau
Sabine Johnson
sabine.johnson@baw.de
Telefon +49 721 97263060

(nach oben)


Frühe Homo sapiens-Gruppen in Europa waren subarktischem Klima ausgesetzt

Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie
Anhand der Analyse stabiler Sauerstoffisotope im Zahnschmelz von in der Bacho-Kiro-Höhle (Bulgarien) von Menschen geschlachteten Tieren, zeigen Max-Planck-Forscher, dass Menschengruppen, die während einer frühen Ausbreitungswelle unserer Spezies Europa erreichten und die Höhle vor etwa 46.000 bis 43.000 Jahren bewohnten, mit sehr kalten klimatischen Bedingungen konfrontiert waren.

Der Prozess, wie sich unsere Spezies in der Vergangenheit neue Umgebungen erschloss, stellt einen wichtigen evolutionären Wendepunkt dar, der letztlich dazu führte, dass Homo sapiens alle Kontinente und eine große Vielfalt von Klimazonen und Umgebungen besiedelte. Die Mechanismen, die anfängliche Ausbreitungswellen begünstigt haben könnten, sind nach wie vor umstritten. Die meisten Modelle, die auf der Korrelation archäologischer Stätten mit räumlich entfernten Klimaarchiven beruhen, deuteten bisher jedoch darauf hin, dass Menschen auf wärmere Klimabedingungen angewiesen waren, um sich in neue, nördlichere Umgebungen auszubreiten.

Anhand von Belegen direkt aus den archäologischen Schichten der Bacho-Kiro-Höhle konnte das Max-Planck-Team nun hingegen zeigen, dass Menschen mehrere tausend Jahre lang sehr kalte klimatische Bedingungen überdauert haben, die im Vergleich eher für das heutige Nordskandinavien typisch wären. „Wir konnten belegen, dass diese Menschengruppen flexibler in Bezug auf die von ihnen genutzten Umgebungen und anpassungsfähiger an unterschiedliche klimatische Bedingungen waren als bisher angenommen“, sagt Erstautorin Sarah Pederzani, Forscherin am Max-Planck-Institut für evolutionäre Anthropologie (MPI-EVA) und der Universität Aberdeen. Jean-Jacques Hublin, Direktor der Abteilung für Humanevolution am MPI-EVA, fügt hinzu: „Auf der Grundlage dieser neuen Erkenntnisse müssen nun neue Modelle für die Ausbreitung unserer Spezies über Eurasien erstellt werden, die ihre größere klimatische Flexibilität berücksichtigen.“

Archäologische Funde aus der Bacho-Kiro-Höhle in Bulgarien
Durch die direkte Verwendung von archäologischem Material – wie zum Beispiel den Überresten von Tieren, insbesondere Pflanzenfressern, die von den damals in der Höhle lebenden Menschen geschlachtet wurden – um Klimadaten zu generieren, konnte das Paläoklima-Forschungsteam unter der Leitung von Pederzani und Kate Britton, die ebenfalls am MPI-EVA und an der Universität Aberdeen forscht, eine sehr robuste Aufzeichnung lokaler klimatischer Bedingungen erstellen, die sich speziell auf die Zeit bezieht, in der Menschen die Bacho-Kiro-Höhle bewohnten. „Diese Technik ermöglicht eine zuverlässigere Zuordnung des lokalen klimatischen Kontextes als die üblicherweise verwendete chronologische Korrelation zwischen archäologischen Daten und Klimaarchiven verschiedener Orte, die die Grundlage für einen Großteil der bisherigen Forschung zur klimatischen Anpassungsfähigkeit des Menschen bildete – sie gibt uns wirklich einen Einblick in das Leben ‚vor Ort‘“, sagt Britton. „Aufgrund der zeitaufwändigen Analyse und der Abhängigkeit von der Verfügbarkeit bestimmter Tierreste sind Sauerstoffisotopenstudien oder andere Techniken, Klimadaten direkt aus archäologischen Stätten zu gewinnen, für den Zeitraum, in dem sich der Homo sapiens erstmals in Eurasien ausbreitete, jedoch nach wie vor rar“, fügt Pederzani hinzu. In der Tat ist diese Max-Planck-Studie die erste dieser Art, die im Zusammenhang mit dem Initial Upper Paleolithic durchgeführt wurde und konnte daher so überraschende Ergebnisse liefern.

Aufzeichnung vergangener Temperaturen über mehr als 7.000 Jahre
Pederzani verbrachte ein Jahr mit Laborarbeiten, von der Bohrung von Probensequenzen aus Tierzähnen über die nasschemische Aufbereitung bis hin zur stabilen Isotopenmassenspektrometrie, um alle notwendigen Daten zusammenzutragen. „Durch diese zeitintensive Analyse, die insgesamt 179 Proben umfasste, war es möglich, eine sehr detaillierte Aufzeichnung vergangener Temperaturen zu erstellen, einschließlich Schätzungen der Sommer-, Winter- und Jahresmitteltemperaturen für den Aufenthalt von Menschen in der Höhle über einen Zeitraum von mehr als 7.000 Jahren“, sagt Pederzani.

Die von einem internationalen Team unter der Leitung der MPI-EVA-Forschenden Jean-Jacques Hublin, Tsenka Tsanova und Shannon McPherron sowie Nikolay Sirakov vom Nationalen Institut für Archäologie mit Museum der Bulgarischen Akademie der Wissenschaften in Sofia, Bulgarien, durchgeführten Ausgrabungsarbeiten in der Bacho-Kiro-Höhle wurden 2015 erneut aufgenommen und ergaben eine Fülle an Informationen über menschliche Aktivitäten in der Höhle: dazu zählen auch die Überreste früherer Bewohner der Höhle, der ältesten bisher bekannten Vertreter des Homo sapiens aus dem europäischen Jungpaläolithikum. Die Ablagerungen im unteren Teil der Fundstätte enthielten eine große Anzahl von Tierknochen, Steinwerkzeugen, Anhängern und sogar menschlichen Fossilien und bildeten die Grundlage für die Klimastudie zur Untersuchung der Umweltbedingungen, denen die Menschen ausgesetzt waren, als sie sich erstmals von der Levante aus nach Südosteuropa ausbreiteten.

Wissenschaftliche Ansprechpartner:
Dr. Sarah Pederzani
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
sarah_pederzani@eva.mpg.de

Prof. Dr. Jean-Jacques Hublin
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
hublin@eva.mpg.de

Dr. Tsenka Tsanova
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
tsenka_tsanova@eva.mpg.de

Originalpublikation:
Sarah Pederzani, Kate Britton, Vera Aldeias, Nicolas Bourgon, Helen Fewlass, Tobias Lauer, Shannon P. McPherron, Zeljko Rezek, Nikolay Sirakov, Geoff M. Smith, Rosen Spasov, N.-Han Tran, Tsenka Tsanova, Jean-Jacques Hublin
Subarctic climate for the earliest Homo sapiens in Europe
Science Advances, 22 September 2021, https://doi.org/10.1126/sciadv.abi4642

(nach oben)


Leistungsstarke Brennstoffzellen für die Elektromobilität in hoher Stückzahl

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Universität Stuttgart an trilateralem DFG-Projekt zur Verbesserung des Produktionsprozesses von Bipolarplatten beteiligt

Bipolarplatten (BPP) stellen eine Schlüsselkomponente in modernen Brennstoffzellen dar und sind damit essenziel für den Ausbau der Elektromobilität im Personen- und Nutzkraftwagenverkehr. Forschende der Universität Stuttgart, des Fraunhofer-Instituts für Physikalische Messtechnik in Freiburg sowie der Firmen thyssenkrupp System Engineering und Chemische Werke Kluthe suchen im Rahmen des Forschungsprojekts „AKS-Bipolar“ nach Wegen, um den Ausschuss bei der Produktion metallischer Bipolarplatten zu reduzieren sowie die Bereitstellung der für die Energiewende erforderlichen hohen Stückzahlen zu ermöglichen. Das Projekt hat ein Gesamtvolumen von rund 1,43 Millionen Euro und wird von der Deutschen Forschungsgemeinschaft DFG und der Fraunhofer-Gesellschaft im Rahmen der Linie trilateraler Transferprojekte gefördert.

„Baden-Württemberg ist führend in Forschung und Wissenschaft. Denn dort wachsen die Rohstoffe der Zukunft: Wissen, Kreativität und Innovation. Die Landesregierung unterstützt den Struktur- und Technologiewandel und die damit verbundene Transformation unseres Industriestandorts. Die Forschung der Universität Stuttgart zur Verbesserung des Produktionsprozesses von Bipolarplatten im Rahmen des trilateralen DFG-Projekts trägt wegweisend zum Ausbau der leistungsfähigen Elektromobilität und zur Schlüsseltechnologie Brennstoffzelle bei. Unsere exzellenten Wissenschaftlerinnen und Wissenschaftler zeigen, wie Forschungsprojekte angegangen und umgesetzt werden können, um neues Wissen konkret in die Anwendung und damit unser Land voranzubringen“, so Wissenschaftsministerin Theresia Bauer.

Eine Brennstoffzelle besteht aus zahlreichen stapelartig angeordneten Membran-Elektroden-Einheiten (MEA), in denen die Umwandlung von chemischer zu elektrischer Energie stattfindet. Bipolarplatten liegen zwischen diesen Einheiten und übernehmen die Funktion, die hierfür erforderlichen Reaktionsgase zu- und das entstehende Wasser abzuleiten. In modernen Brennstoffzellsystemen sind je nach Typ und Größe 300 – 600 BPP verbaut!

Lange Zeit dominierten BPP aus Graphit den Markt, doch der Trend geht aus wirtschaftlichen Gründen und aufgrund der höheren Leitfähigkeit hin zu metallischen BPP. Um diese herzustellen, kommen Verfahren der Umformtechnik zum Einsatz, die im Vergleich zu spanenden Fertigungsverfahren geringere Kosten sowie deutlich schnellere Taktzeiten ermöglichen. Bei der Blechumformung können allerdings bereits leicht schwankende Prozessparameter zu Umformfehlern wie Reißern, Falten oder Wölbungen (Springbeul-Effekte) führen, die die Montage der Zellenstapel erschweren.

Gesamtsystem zur Prozesskontrolle und Qualitätssicherung
Bisher lassen sich die meisten dieser Fehlerbilder der metallischen BPP nicht konsistent erkennen oder vermeiden, weshalb die Qualitätsprüfung nachgelagert in kosten- und zeitintensiven Stichprobentests erfolgt. Vor diesem Hintergrund wollen die Forschenden im Projekt „AKS-Bipolar“ (Aktive Prozesskontrolle bei der Serienfertigung hochpräzise geprägter Bipolarplatten) ein Gesamtsystem zur aktiven Prozesskontrolle und Qualitätssicherung entwickeln, das eine vollflächige 3D-Messtechnik direkt in die Produktionslinie der Bauteile integriert und alle Prozessstufen in einer Gesamtsimulation (Toolchain) abbildet.

Hierbei setzen die Projektpartner an hochgenauen 3D-Daten an, die durch die digital-holographische Sensortechnik des Fraunhofer IPM erstmals in hohem Umfang und in Echtzeit zur Verfügung stehen. Diese werden sehr schnell und akkurat mit Simulationsergebnissen verglichen, die am Institut für Umformtechnik (IFU) der Universität Stuttgart zur Prozessauslegung verwendet werden. Dabei nutzt das IFU die Erkenntnisse aus zahlreichen Forschungsprojekten auf den Gebieten der Blech- und Massivumformung, darunter zwei vorausgegangene DFG-Projekte zur Modellierung von Blechwerkstoffen.

Auf dieser Datenbasis generiert und optimiert die im Projekt zu entwickelnde Simulations-Toolchain unter anderem einen Digitalen Zwilling des betrachteten Umformprozesses, mit welchem wiederkehrende Fertigungsprobleme wie Risse, Falten oder der Springbeul-Effekt numerisch erfasst und geeignete Gegenmaßnahmen zielgerichtet eingeleitet werden.

Der Erfolg des Projektes wird mittels eines Demonstrators an einem konkreten, industriellen Fertigungsbeispiel nachgewiesen. Dazu wird ein Experimentalsystem zunächst im Labor- und später im Industriemaßstab aufgebaut.

Mit den im Jahr 2019 ins Leben gerufenen trilateralen Projekten fördern die Deutsche Forschungsgemeinschaft (DFG) und die Fraunhofer-Gesellschaft den Transfer von Erkenntnissen aus DFG-geförderten Vorhaben in die Wirtschaft. In der diesjährigen dritten Ausschreibungsrunde waren zunächst 24 Projektskizzen eingegangen, zur Förderung bewilligt wurden fünf Projekte.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Mathias Liewald MBA, Universität Stuttgart, Institut für Umformtechnik, Tel.: +49 711 685-83840, E-Mail: mathias.liewald@ifu.uni-stuttgart.de

(nach oben)


Vom Laien zum Experten

Dr. Stefanie Merker Presse und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie
Ist es ein Rembrandt oder ein Vermeer? Laien fällt es oft schwer, Gemälde dieser beiden alten Meister zu unterscheiden. Das geübte Auge hingegen hat damit keinerlei Schwierigkeiten. Wissenschaftler:innen am Max-Planck-Institut für Neurobiologie haben nun nachgewiesen, dass auch Mäuse Experten darin werden können, Bilder in Kategorien zu sortieren. Die Studie zeigt, dass Teile dieses Expertenwissens bereits in den frühen visuellen Hirnarealen vorhanden sind. Das verdeutlicht, wie weit verteilt semantische Erinnerungen im Gehirn gespeichert werden.

Haben Sie schon einmal versucht ein Gemälde von Rembrandt von einem von Vermeer zu unterscheiden? Vermutlich würde dies einem Ratespiel ähneln: Die Unterschiede sind für ein ungeübtes Auge subtil. Kunstliebhaber hingegen haben keine Schwierigkeiten bei der Zuordnung und das, obwohl es nur wenige allgemeingültige Anhaltspunkte gibt. Wie ist das möglich?

Das semantische Gedächtnis ist ein Speicherort für Expertenwissen
Ein Schlüssel zum Erfolg ist Üben: Kunstexperten betrachten Tag ein, Tag aus hunderte von Gemälden. Dabei entwickeln sie allmählich ein Gespür für die Merkmale, die bei der Unterscheidung eine Rolle spielen. Dieses Gespür ist nichts Anderes als erlerntes Wissen und wird in ihrem semantischen Gedächtnis gespeichert. Das ist die Sammlung aller abstrakten Informationen, die nicht mit einem bestimmten Erlebnis verknüpft sind: zum Beispiel das allgemeine Wissen, dass Vermeer ein niederländischer Maler ist – im Gegensatz zu der konkreten Erinnerung, wo sie zum ersten Mal ein Vermeer-Gemälde gesehen haben.

Bis heute wissen wir jedoch wenig darüber, wie das semantische Gedächtnis funktioniert. Der Neurobiologe Pieter Goltstein arbeitet zusammen mit Mark Hübener in der Abteilung von Tobias Bonhoeffer und erklärt: „Um zu untersuchen, wie solche Informationen gespeichert werden, müssen wir zunächst herausfinden, wo wir sie im Gehirn finden können. Wir kamen deshalb auf die Idee, Mäusen eine ähnliche Aufgabe wie Kunstexperten zu stellen und zu testen, ob auch sie solch komplexes Wissen erlernen können.“

Mäuse werden zu Experten im Kategorisieren
Zusammen mit Sandra Reinert zeigte Pieter Goltstein Mäusen unterschiedliche Streifenmuster, die sie in zwei Kategorien einteilen sollten. Dazu mussten die Mäuse verschiedene Aspekte abwägen und sowohl die Breite als auch Orientierung der Streifen miteinbeziehen.

Überraschenderweise ordneten die Mäuse nach einer anfänglichen Lernphase die Bilder zuverlässig der richtigen Kategorie zu. Sie waren zu Experten geworden und konnten ihr neu erlerntes Kategorie-Wissen ohne weiteres auf Muster anwenden, die sie während des Lernens noch nicht gesehen hatten – sie extrapolierten die Merkmale der Kategorien, die sie als semantische Information gespeichert hatten.

Der visuelle Kortex hilft beim Kategorisieren
Doch liegt die Information über Kategorien bereits im visuellen Kortex, wo visuelle Reize eintreffen und analysiert werden? Oder findet es sich erst nach vielen anfänglichen Verarbeitungsschritten in höheren Hirnarealen?

Mit einem kleinen Trick gingen die Wissenschaftler:innen dieser Frage auf den Grund: Da Nervenzellen im visuellen Kortex auf visuelle Reize an einem bestimmten Ort reagieren, zeigten sie den Mäusen zunächst nur Streifenmuster in einem Teil ihres Sehfelds. So trainierten die Tiere gezielt eine spezifische Nervenzellgruppe. Verlagerten die Forschenden die Muster an einen anderen Ort, wurden die Reize von anderen Nervenzellen verarbeitet und die Mäuse konnten nicht mehr so gut kategorisieren. Darüber hinaus führte die Inaktivierung des visuellen Kortex zu einem ähnlichen Ergebnis. Zusammen deutete dies darauf hin, dass Nervenzellen im visuellen Kortex am Erlernen von Kategorien beteiligt sind.

Teile semantischer Informationen finden sich bereits im visuellen Kortex
Parallel zum Kategorie-Training konnten die Wissenschaftler:innen wiederholt die Aktivität vieler Nervenzellen messen und Veränderungen im Verlauf des Lernens feststellen. Interessanterweise unterschieden einige Regionen des visuellen Kortex am Ende des Lernprozesses die Kategorien besser. Mark Hübener, der Studienleiter, erklärt: „Die Nervenzellen in diesen Regionen erhalten zweierlei Input. Sie reagieren auf einen bestimmten visuellen Reiz und erhalten zusätzlich die Information, wenn die Maus ein Bild der richtigen Kategorie zugeordnet hat. So können die Nervenzellen wichtige visuelle Reize, die mit Kategorien zusammenhängen, identifizieren und ihre Reaktion darauf verstärken.“

Die Neuronen im visuellen Kortex sind also in der Lage, ihre Reaktion beim Lernen anzupassen. Aber nicht nur das: Bei der Analyse der Daten stach eine Region des visuellen Kortex, genannt POR, besonders hervor. Die Forschenden fanden Anzeichen, dass dort abstrakte Kategorie-Information gespeichert wird. Damit zeigt die Studie, dass abstraktes Lernen bereits auf den ersten Ebenen der visuellen Verarbeitung beginnt.

KONTAKT:
Dr. Christina Bielmeier
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: presse@neuro.mpg.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mark Hübener
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
Email: mark@neuro.mpg.de

Prof. Dr. Tobias Bonhoeffer
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: office.bonhoeffer@neuro.mpg.de

Originalpublikation:
Pieter M. Goltstein, Sandra Reinert, Tobias Bonhoeffer, Mark Hübener
Mouse visual cortex areas represent perceptual and semantic features of learned visual categories
Nature Neuroscience, online September 20, 2021
DOI: 10.1038/s41593-021-00914-5

Weitere Informationen:
https://www.neuro.mpg.de/bonhoeffer/de – Webseite der Forschungsabteilung
https://www.neuro.mpg.de/news/2021-09-bonhoeffer/de – Hier finden Sie eine Audioversion der Pressemitteilung

(nach oben)


Unternehmensgeschichte: Bevölkerung erwartet Selbstkritik bei Fehlern und Krisen

Axel Grehl Pressestelle
Hochschule Pforzheim
Neues Forschungszentrum von Hochschule Pforzheim und Uni Leipzig startet mit Tagung

Ob NS-Vergangenheit oder Managementfehler: Mehr als zwei Drittel der Menschen in Deutschland erwarten von Traditionsunternehmen, dass sie Verantwortung für die eigene Geschichte übernehmen (69 Prozent) – und darüber öffentlich kommunizieren (68 Prozent). Das geht aus einer bevölkerungsrepräsentativen Studie der Hochschule Pforzheim unter 1.004 Befragten hervor. Die Untersuchung ist eines der ersten Ergebnisse des neuen Center for History and Corporate Communication, an dem die Hochschule Pforzheim und die Universität Leipzig beteiligt sind. Es vereint Grundlagenforschung zur Geschichte des Kommunikationsberufsfelds und zu Unternehmensgeschichte als Gegenstand professioneller Kommunikation.

Für 66 Prozent der Befragten sind Unternehmen mit Tradition bei der Jobsuche besonders attraktiv. Als Kunden würden 45 Prozent das Produkt eines Traditionsunternehmens bevorzugen. Unternehmen mit Geschichte müssen sich aber andererseits auch Verbrechen, Skandalen und Katastrophen in der Vergangenheit stellen. Ein Unternehmen, das dieser Verantwortung nicht gerecht wird, käme für 44 Prozent der Befragten als Arbeitgeber nicht infrage und würde immerhin auch von 34 Prozent der Befragten beim Einkauf gemieden. Im Kontext der Entschädigung von NS-Zwangsarbeitern war Unternehmensgeschichte in den 1990ern verstärkt Thema. Jüngst wurden Verstrickungen zur Kolonialzeit sowie Geschäfte mit dem SED-Regime kritisch hinterfragt. „Die Geschichte prägt die Identität von Traditionsunternehmen. Sie darf aber nicht nur mit Höhepunkten ins Schaufenster gestellt werden“, so Professor Dr. Felix Krebber von der Business School der Hochschule Pforzheim. „Viele Großunternehmen gehen heute verantwortungsvoll mit der eigenen Geschichte um und sind selbstkritisch – besonders bei der Aufarbeitung der Verstrickungen im Nationalsozialismus. Andere große Marken werden dieser Verantwortung bis heute nicht gerecht. “

Auch seien die Kaiserzeit oder Profite aus Ost-West-Geschäften auf den Geschichtsseiten der größten deutschen Unternehmen kaum Thema, auch wenn Unternehmen zu dieser Zeit bereits existierten. Die Gesellschaft erwarte zurecht, dass sich Unternehmen ihrer Verantwortung stellen, die eigene Geschichte durch unabhängige Historiker*innen aufarbeiten zu lassen und über die Ergebnisse die Öffentlichkeit zu unterrichten, bekräftigt der Kommunikationswissenschaftler. „Mit dem Center for History and Corporate Communication werden wird durch unsere Forschung Impulse in die Praxis geben, wie verantwortungsvolle Geschichts-Kommunikation aussehen kann und werden Qualitätsstandards definieren“, so Krebber. Im Rahmen einer digitalen Tagung am 23. September an der Uni Leipzig wird das Center offiziell gegründet und es werden diese und weitere Forschungsergebnisse mit Wissenschaft und Praxis diskutiert.

Das Center for History and Corporate Communication ist einer Initiative der Günter-Thiele-Stiftung für Kommunikation und Management im Stifterverband für die Deutsche Wissenschaft in Kooperation mit der Universität Leipzig und der Hochschule Pforzheim. Es bündelt Forschung zur Geschichte des Kommunikationsberufsfelds sowie zur kommunikativen Vermittlung der Unternehmensgeschichte. Geleitet wird es von Prof. (em.) Dr. Günter Bentele (Universität Leipzig) sowie von Prof. Dr. Felix Krebber (Hochschule Pforzheim).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Felix Krebber, Hochschule Pforzheim
E-Mail: felix.krebber@hs-pforzheim.de

(nach oben)


Worauf die Wissenschaft nach der Hochwasserkatastrophe Antworten finden muss

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die Überflutungen in der Eifel im Juli waren weit mehr als ein Problem von zu viel fließendem Wasser. Wie das Mitreißen von Totholz und Sedimenten die Auswirkungen der Flut verstärkt hat – und was daraus für künftige Forschung folgt, schreiben die GFZ-Forscher Michael Dietze und Ugur Öztürk heute in der Zeitschrift Science. Ein Bericht mit Eindrücken vom Ablauf der Flut.

Am 14. Juli 2021 fielen in der Eifel in nur 22 Stunden zwischen 60 und 180 mm Regen, eine Menge, die sonst in mehreren Monaten fällt, und die zu katastrophalen Überflutungen geführt hat. Die Ereignisse waren weitaus zerstörerischer, als bestehende Modelle vorhergesagt hatten. Forschende des Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ machen dafür eine Reihe von Effekten verantwortlich, die bisher in Mitteleuropa kaum aufgetreten und daher in diesen Regionen noch nicht genug berücksichtigt wurden. Dazu gehört insbesondere das Mitreißen von Totholz und Sedimenten, beides Effekte, die mit fortschreitendem Klimawandel weiter an Bedeutung gewinnen dürften. Über die Mechanismen, die die Auswirkungen der Flut verstärkt haben, berichten Michael Dietze und Ugur Öztürk heute in der Zeitschrift Science. Sie geben auch einen Ausblick auf ein neues Forschungsvorhaben, das hier ansetzt, um künftige Vorhersagen realistischer zu gestalten.

Forschende als zufällige Zeugen der Hochwasserkatastrophe
Der 14. Juli ist ein regnerischer Tag. GFZ-Forscher Michael Dietze ist mit Kolleg*innen aus Potsdam und der Uni Bonn auf dem Rückweg von Geländearbeiten in der südlichen Eifel. Im Auto zurück Richtung Norden wird ihnen schnell klar, dass hier gerade mehr passiert als nur ein langer kräftiger Regen: Der Liveview des Pegels Altenahr steigt 15-minütig rasant an, schneller als die eigentliche Vorhersage – und als es den Forschenden lieb ist, denn eigene Messungen sind davon betroffen. Überflutungen der Ahr sind nichts Ungewöhnliches: Im Rahmen eines Forschungsprojektes haben Dietze und Kolleg*innen einige Wochen zuvor auf einer drei Meter hohen Terrasse im Ahrtal mehrere Seismik-Stationen aufgebaut. Damit wollten sie die Bodenbewegungen messen, die durch turbulent fließendes Wasser und Gerölltransport im Fluss bei „regulären“ Hochwassern entstehen. Nun ist der Pegel schon einen Meter über dem Terrassenniveau, die Stationen sind verloren.

Bekannte Effekte – aber aus anderen Gegenden der Welt
Was die Forschenden hier erleben, ist allerdings nur ein kleiner Ausschnitt der eigentlichen Katastrophe, die in den Tälern von Ahr, Erft und Rur ihren Lauf nimmt. „Die Flut in den Tälern der Eifel war weitaus gewaltiger, schneller und unberechenbarer, als wir das für ein solches Ereignis in der Mitte Europas bislang angenommen haben“, sagt Michael Dietze, PostDoc in der Sektion Geomorphologie am GFZ und am Geographischen Institut der Universität Bonn. „Die Ursachen dafür sind vielfältig und uns durchaus bekannt – allerdings bisher nicht aus Mitteleuropa, sondern aus Wüsten und den Tropen.“

Schnell gesättigter Boden
Der Regen konnte nicht mehr in den durch wochenlang auftretende Regenfälle schon gesättigten Untergrund einsickern. Er war auch zu stark, um dann nur als dünner Wasserfilm die Hänge herunterzulaufen. Stattdessen verwandelten sich Hänge regelrecht in breite Flüsse und transportierten das Wasser statt mit einer Geschwindigkeit von einigen Zentimetern plötzlich mit einigen Metern pro Sekunde, also bis zu hundert Mal schneller. Dadurch konnte es in den Haupttälern viel schneller zu einer Flutwelle zusammenlaufen.

Enorme Erosionskraft des Wassers
Zusätzlich entwickelte das Wasser eine enorme Erosionskraft: Zum einen grub es sich in die Hänge und konnte in den so erzeugten Erosionsrinnen nochmals schneller abfließen. Zum anderen mobilisierte es erhebliche Mengen Sediment und Totholz. Einmal in den Tälern angekommen, trieben die Baumstämme und Äste auf die zahlreichen Brücken zu, die es zum Beispiel im Ahrtal gibt. Dort verfingen sie sich und führten zu sogenannten Verklausungen. Dadurch wurde der Abfluss behindert, das Wasser staute sich und erreichte auch höher gelegene Gebiete.

Unerwartete Effekte an Kiesgrube und Straßen
Im Zuge dieser Ereignisse entstanden bisher in der Region nicht für möglich gehaltene Effekte und sogenannte gekoppelte Gefahren. Die normalerweise fünf Meter breite Erft trat bei der Stadt Blessem über die Ufer und ergoss sich über ein Feld direkt in eine Kiesgrube. Auch hier wurde ein schwach geneigter Hang zu einem breiten Fluss und der Grubenrand fraß sich über eine Länge von 300 Metern wie ein Wasserfall stromaufwärts in Richtung Blessem. Dabei unterhöhlte er die ersten Häuser und ließ sie einstürzen.
Auch die Straße durch Blessem wurde zu einem Fluss, der an unbefestigten Rändern beginnend den gesamten Straßenaufbau unter- und wegspülte, sodass allein die Abwasserrohre zurückblieben. Diese Erosion ebbte nur durch Zufall ab, als immer weniger Wasser die Erft herabfloss.

Gekoppelte Gefahren: der Staudamm der Steinbachtalsperre
Eine besondere Gefahr ging von der nur 35 Kilometer stromaufwärts liegenden Steinbachtalsperre aus. Dieser Erddamm hält 1,2 Mio. Kubikmeter Wasser zurück. Er wurde in der Nacht zum 15. Juli auf einer Breite von 150 Metern knietief überspült, weil der Notüberlauf die ankommenden Wassermassen nicht abführen konnte. Der überspülte Damm erodierte massiv, so dass ein Bruch unmittelbar bevorstand. Wäre dies passiert, hätte die Flutwelle die Prozesse in Blessem erneut entfacht, und darüber hinaus in den Ortschaften direkt unterhalb der Talsperre massive Zerstörungen verursacht. „Dieses Beispiel macht deutlich, wie eng gekoppelt auch scheinbar weit voneinander entfernte Örtlichkeiten sind“, betont Dietze.

Ausblick: Identifikation neuer Forschungsansätze
„Mit anhaltendem Klimawandel werden wir Niederschlagsereignisse wie das am 14. Juli 2021 ziemlich häufig erleben. Daher muss die Forschung jetzt beginnen, durch Starkregen ausgelöste Hochwässer nicht nur als Phänomen von zuviel schnell fließendem Wasser zu verstehen, sondern auch die damit einhergehenden selbstverstärkenden Effekte einzubeziehen, die teilweise ebenfalls durch den Klimawandel begünstigt werden“, sagt Dietze. Dazu gehören die Zerschneidung der Hänge vor allem in den oberen Einzugsgebieten, die Mobilisierung von Totholz und von erodierten vitalen Bäumen sowie deren Rolle bei der Verklausung von menschlicher Infrastruktur. Außerdem müssen neue gekoppelte Gefahren identifiziert und berücksichtigt werden.

Neues Forschungsprojekt liefert wichtige Daten für künftige Modelle
Ein wichtiger Schritt in diese Richtung wird sein, die Spuren der Katastrophe vom Juli 2021 rasch und hoch aufgelöst zu sichern. Das gilt vor allem für die Gebiete, in denen die Flut ihre Kraft gewonnen hat und die bisher kaum im öffentlichen Fokus standen: die oberen Einzugsgebiete der Flüsse bis hin in die Quellgebiete ihrer Nebenflüsse. Mit einem kürzlich bewilligten Projekt, gemeinsam finanziert durch das GFZ und das Graduiertenkolleg NatRiskChange der Universität Potsdam, werden jetzt gezielt diese Gebiete beflogen, um die Landschaft aus Flugzeugen heraus mittels Laser abzuscannen. Daraus entstehen dann hochaufgelöste 3D-Modelle der veränderten Landschaft. Sie können mit bestehenden Datensätzen verglichen werden, die bereits vor der Flut gewonnen wurden. So können die Schlüsselinformationen zu erodierten Hängen, mobilisiertem Holz und überfluteten Flächen gesichert und ausgewertet werden, um zukünftige Modelle durch gemessene Daten zu verbessern. Und dann können Dietze und seine Kolleg*innen auch ihre Seismik-Stationen zur Analyse der flutbedingten Sedimentfracht an tatsächlich sicheren Standorten neu installieren.

Verstopfung eines kleinen Zuflusses der Ahr durch hölzerne Abfälle. Das führt zu zeitweiligen Aufstauungen, massiven Sedimentablagerungen und Überschwemmungen. (Foto: M. Dietze, GFZ)
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11520_Flood-debris.jpg

Ein Eigentümer zeigt den Wasserstand des Hochwassers vom 14. Juli an seinem Haus in Walporzheim. Man beachte die ~2,2 m Wasserstandsmarke des Hochwassers von 1804 und die ~0,6 m Marke von 2016 zum Vergleich. (Foto: M. Dietze, GFZ).
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11519_Flutmarke-Walportzheim.jpg

Medienkontakt:
Dr. Uta Deffke
Referentin Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1049
E-Mail: uta.deffke@gfz-potsdam.de

Wissenschaftliche Ansprechpartner:
Dr. Michael Dietze
Sektion Geomorphologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28827
E-Mail: Michael.Dietze@gfz-potsdam.de

Originalpublikation:
Dietze, M., Öztürk, U., A flood of disaster response challenges. Science (2021). DOI: 10.1126/science.abm0617
https://www.science.org/doi/10.1126/science.abm0617

(nach oben)


Kunststoffrecycling aus Altfahrzeugen neu denken

Mandy Schoßig Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie
Stoßfänger, Sitzpolster, Dichtungen, Kabelummantelungen und mehr – rund 1,5 Millionen Tonnen unterschiedlichster Kunststoffe werden jährlich in Pkw in Deutschland verbaut. Bei der heutigen Altfahrzeugaufbereitung kann nur ein geringer Teil der Kunststoffe stofflich wiederverwertet werden, der Großteil geht über industrielle Schredderanlagen in die energetische Verwertung.

Ein neues Projekt will nun die Herausforderungen beim Kunststoffrecycling von Altfahrzeugen mit Hilfe neuer Sortier- und Recyclingverfahren systemisch lösen. Dafür arbeitet das Öko-Institut mit BASF SE, der Volkswagen AG, der SICON GmbH sowie der Technischen Universität Clausthal in einem vom Bundesministerium für Bildung und Forschung geförderten Projekt zusammen.
Die Projektpartner aus Industrie und Wissenschaft entwickeln dafür zunächst ein umfassendes Konzept für die Trennung des hochkomplexen Materialmix, basierend auf einem Prozess, der bereits über die letzten 20 Jahre von Volkswagen und SICON entwickelt wurde. Über optimal austarierte mechanische, chemische und thermische Aufbereitungsverfahren sollen Kunststoffe aus dem Pkw-Sektor umfassend gelenkt und marktgerecht verwertet werden. „Im Rahmen des European Green Deal spielt die Circular Economy eine zentrale Rolle“, erläutert Dr. Winfried Bulach, Projektleiter am Öko-Institut. „Unser Projekt soll dazu einen entscheidenden Beitrag leisten.“
Herausforderungen des Kunststoffrecyclings
Alterungseffekte, Verunreinigungen und geänderte Materialkonzepte stellen mechanische Recyclingverfahren vor große Herausforderungen. Verbesserte Sortiertechniken und das chemische Recycling als komplementäre Lösung zum mechanischen Recycling können dazu beitragen, dass zukünftig die Recyclingquote von Altfahrzeugen im Hinblick auf Kunststoffe gesteigert wird. Davon soll auch die Rezyklateinsatzquote in Neufahrzeugen profitieren. Parallel dazu wird die Wirtschaftlichkeit des Recyclings von Kunststoffen aus Altfahrzeugen verbessert. Für die optimale Nutzung von Potenzialen aus Sekundärrohstoffen werden Industrie 4.0-basierte Methoden zur Steuerung der Stoffströme eingesetzt.
„Die Kunststoffe besser voneinander zu trennen, um sie effektiver zu recyceln, ist ein zentrales Anliegen in unserem Projekt“, betont Heiner Guschall von Projektpartner SICON. „Dafür erarbeiten wir ein Konzept, das für jede der resultierenden Kunststofffraktionen die ökologisch und ökonomisch sinnvollste Verwertung ermöglicht.“
Dies soll die Basis für eine umfassende Umsetzungsphase in einem Folgeprojekt sein. Dabei werden die in den Pilotanlagen bewährten Verfahren optimiert, neue entwickelt und für die unterschiedlichen Teilfraktionen bestmöglich kombiniert.
Dialog mit Praxispartnern für die Umsetzungsphase
Im Dialog mit weiteren Stakeholdern aus Industrie und Wissenschaft evaluieren die Partner die Vorschläge des Projekts in einem Workshop. Dieser hat das Ziel, weitere Partner zu gewinnen und Vorschläge für die Umsetzung in der Praxis zu entwickeln.
Das Projekt „KuRT (Konzeptphase): SyKuRA – Systemisches Kunststoffrecycling aus Altfahrzeugen“ wird vom Bundesministerium für Bildung und Forschung als Teil der Ausschreibung „Ressourceneffiziente Kreislaufwirtschaft – Kunststoffrecyclingtechnologien (KuRT)“ im Rahmenprogramm „Forschung für Nachhaltige Entwicklung – FONA3“ gefördert.

Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.
www.oeko.de | blog.oeko.de | twitter.com/oekoinstitut | www.oeko.de/e-paper

Wissenschaftliche Ansprechpartner:
Dr. Winfried Bulach
Senior Researcher im Institutsbereich
Ressourcen & Mobilität
Öko-Institut e.V., Büro Darmstadt
Telefon: +49 6151 8191-144
E-Mail: w.bulach@oeko.de

Dr. Johannes Betz
Wissenschaftlicher Mitarbeiter im Institutsbereich
Ressourcen & Mobilität
Öko-Institut e.V., Büro Darmstadt
Telefon: +49 6151 8191-174
E-Mail: j.betz@oeko.de

Anhang
PM_SyKuRA_Öko-Institut

(nach oben)


RWI-Konjunkturprognose: Materialengpässe verzögern die wirtschaftliche Erholung

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Das RWI erwartet für dieses Jahr einen Anstieg des Bruttoinlandsprodukts um 3,5 Prozent, für das Jahr 2022 von 4,9 Prozent. Allerdings stellen neben den verbleibenden Risiken der Pandemie derzeit Lieferengpässe bei Rohstoffen und Vorprodukten das größte Hindernis für die wirtschaftliche Erholung dar. Für dieses Jahr erwartet das RWI im Jahresdurchschnitt eine Inflationsrate von 3,0 Prozent. Im kommenden Jahr dürfte sie auf 2,4 Prozent und im Jahr 2023 auf 1,6 Prozent zurückgehen.Die Zahl der Erwerbstätigen dürfte 2021 insgesamt etwa auf dem Niveau von 2020 liegen. Für 2022 und 2023 prognostiziert das RWI einen Anstieg der Erwerbstätigkeit um 1,5 bzw. 1,0 Prozent.

Das Wichtigste in Kürze:
• Das RWI erwartet, dass das deutsche Bruttoinlandsprodukt (BIP) in diesem Jahr um 3,5 Prozent ansteigt. Im Juni war es mit 3,7 Prozent von einem leicht höheren Anstieg für dieses Jahr ausgegangen. Für 2022 prognostiziert das RWI ein Wirtschaftswachstum von 4,9 Prozent (Juni-Prognose: 4,7 Prozent), für 2023 von 1,2 Prozent.

• Aufgrund von Sondereffekten und von Lieferengpässen bei Rohstoffen und Vorprodukten steigt die Inflationsrate stark. In diesem Jahr dürfte sie durchschnittlich bei 3,0 Prozent liegen. Für die kommenden Jahre erwartet das RWI eine Normalisierung der Inflationsrate auf 2,4 Prozent im Jahr 2022 und 1,6 Prozent im Jahr 2023.

• Der Arbeitsmarkt steht vor einer Normalisierung, wobei die Zahl der Menschen in Kurzarbeit erst im ersten Quartal 2022 wieder auf das Vorkrisenniveau sinken dürfte. Durch den Rückgang der Kurzarbeit steigt die durchschnittliche Arbeitszeit in diesem Jahr um 1,8 Prozent im Vergleich zum Vorjahr, während gleichzeitig die Arbeitsproduktivität je Erwerbstätigenstunde um 1,6 Prozent zunimmt. Auch 2022 werden diese Werte in ähnlichem Tempo steigen.

• Die Zahl der Erwerbstätigen dürfte 2021 insgesamt etwa auf dem Niveau von 2020 liegen, wobei die Zahl der sozialversicherungspflichtig Beschäftigten im Verlauf des Jahres leicht zunimmt, während die Zahl der Selbstständigen und ausschließlich geringfügig Beschäftigten sinkt. 2022 und 2023 dürfte die Erwerbstätigkeit durch den Aufschwung am Arbeitsmarkt wieder deutlich steigen, um 1,5 bzw. 1,0 Prozent.
• Das Defizit der öffentlichen Haushalte dürfte im Jahr 2021 gut 158 Milliarden Euro betragen. Ausgabenseitig belasten in diesem Jahr die Impf- und Testkampagne, umfangreiche Corona-Hilfen für Unternehmen sowie steigende Subventionen die öffentlichen Haushalte. Im kommenden Jahr dürfte das Finanzierungsdefizit knapp 63 Milliarden Euro betragen. 2023 rechnet das RWI mit einem Finanzierungsdefizit von knapp 57 Milliarden Euro.

• Die Corona-Pandemie stellt für die wirtschaftliche Erholung in Deutschland nach wie vor ein beachtliches Risiko dar. Da bedeutende Teile der Bevölkerung noch nicht geimpft sind und sich Covid-19 in der Gruppe der Ungeimpften schnell ausbreitet, besteht nach wie vor das Risiko, dass sich die Hospitalisierungsrate in den kommenden Wochen stark erhöht. Allerdings besteht neben einem erneuten Shutdown nun auch die Möglichkeit, den Zugang zu kontaktintensiven Dienstleistungen nur für Geimpfte und Genesene zu erlauben (2G). In diesem Fall sind Wertschöpfungsverluste von 13 Milliarden Euro zu erwarten – verglichen 52 Milliarden Euro im Falle eines erneuten Shutdowns wie im vergangenen Winter.

„Lieferengpässe haben einige Branchen hart getroffen und dämpfen die wirtschaftliche Erholung“, sagt RWI-Konjunkturchef Torsten Schmidt. Er fügt hinzu: „Es bestehen nach wie vor große Risiken in Bezug auf den weiteren Verlauf der Pandemie und die Auslastung des Gesundheitssystems. Ein weiterer Lockdown ist unbedingt zu vermeiden. Aus wirtschaftlicher Sicht wäre es besser, stärker auf das 2G-Modell zu setzen, insbesondere in Regionen mit stark ausgelasteten Kliniken.“

Dieser Pressemitteilung liegt der RWI-Konjunkturbericht 3/2021 zugrunde. Weitere Informationen zur RWI-Konjunkturberichterstattung: http://www.rwi-essen.de/forschung-und-beratung/wachstum-konjunktur-oeffentliche-….

Ihre Ansprechpartner/in dazu:
Prof. Dr. Torsten Schmidt, torsten.schmidt@rwi-essen.de, Tel.: (0201) 8149-287,
Sabine Weiler (Kommunikation), sabine.weiler@rwi-essen.de, Tel.: (0201) 8149-213

Wissenschaftliche Ansprechpartner:
Prof. Dr. Torsten Schmidt, torsten.schmidt@rwi-essen.de, Tel.: (0201) 8149-287

Originalpublikation:
https://www.rwi-essen.de/presse/mitteilung/450/
RWI-Konjunkturbericht Jahrgang 72 (2021), Heft 3, Die wirtschaftliche Entwicklung im Ausland und im Inland zur Jahresmitte 2021

Weitere Informationen:
https://www.rwi-essen.de/kb – Hier finden Sie die RWI-Konjunkturberichte auf der RWI-Homepage

(nach oben)


Seegraswiesen als Vibrionen-Fänger – Kieler Forschende beweisen eine weitere Leistung des Ostsee-Ökosystems

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Sie helfen, den Klimawandel zu mindern und Algenblüten zu verhindern – und sie können laut neuesten Forschungsergebnissen auch die Konzentrationen potenziell gesundheitsschädlicher Bakterien im Meerwasser senken: Seegraswiesen erbringen einer jetzt veröffentlichten Studie von Kieler Forschenden zufolge eine weitere Ökosystemleistung für uns Menschen. Die Ergebnisse liefern einen weiteren Anreiz für den Schutz und die Wiederherstellung dieser lange unterschätzen Ökosysteme in der deutschen Ostsee.

Schon länger ist bekannt, dass Seegraswiesen Nährstoffe aufnehmen und so die Überdüngung der Meere und damit Algenblüten verhindern können. Außerdem wird auch zunehmend ihre wichtige Rolle als mariner Kohlenstoffspeicher wahrgenommen, wodurch sie dem Treibhauseffekt entgegenwirken können. Ein Team aus Forschenden des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel hat in einer jetzt in der Fachzeitschrift Marine Biology veröffentlichten Studie nachgewiesen, dass heimische Seegraswiesen auch die Wasserqualität in Bezug auf potenziell gefährliche Bakterien verbessern können: Wasser aus den dicht bewachsenen untermeerischen Flächen enthält weniger Vibrionen – natürlich vorkommende Bakterien, die in hohen Konzentrationen gesundheitsschädlich sein können.

An fünf Standorten der Kieler Bucht nahmen Taucher gezielt Wasserproben aus bewachsenen und vegetationsfreiem Sandgrund. Im Labor wurden diese auf einer mit Nährlösung bestrichenen Platte aufgebracht. Nach einigen Tagen wurden die sich bildenden Vibrio-Kolonien gezählt. Die Analysen zeigten, dass Wasser aus Seegraswiesen im Vergleich zu unbewachsenen Flächen durchschnittlich von 39 Prozent weniger Vibrionen und 63 Prozent weniger des potenziell gesundheitsschädlichen Typs Vibrio vulnificus/cholerae enthielt.

Der zugrundeliegende Wirkmechanismus soll zukünftig genauer untersucht werden. „Denkbar ist sowohl, dass die erhöhte Sedimentation in der dichten Wiese zum Absetzen feiner Partikel führt, an welchen auch Vibrionen anhaften“, erklärt Professor Thorsten Reusch, Meeresbiologe am GEOMAR und Leiter der Studie. „Aber es könnte auch sein, dass chemische Substanzen aus den Seegrasblättern das Wachstum der Bakterien hemmen.“

„Unsere Pilotstudie war motiviert von einer Science-Veröffentlichung aus dem Jahr 2017, die für tropische Wiesen eine Reduktion von Korallen- und Humanpathogenen überall dort gezeigt hat, wo dichte Seegraswiesen zwischen menschlichen Siedlungen und Riffen wachsen“, so Prof. Thorsten Reusch. „Nun konnten wir ähnliche Funktionen erstmals für unsere heimischen Gewässer nachweisen.“

Die neuen Ergebnisse sind von besonderer Bedeutung, weil alle Klimamodelle für die Zukunft eine überdurchschnittliche Erwärmung in Verbindung mit einer Aussüßung der Ostsee vorhersagen. „Dies sind exakt die Umweltbedingungen, die zur weiteren Ausbreitung von Vibrionen auch an Badestränden im Sommer führen werden“, so Professorin Ute Hentschel Humeida, Mikrobiologin am GEOMAR und Koautorin der Publikation. Die Studie unterstreicht außerdem die entscheidende Bedeutung von Seegraswiesen als naturbasierte Lösung für die Gesundheit von Flachwasser-Ökosystemen und ihrer Wasserqualität. Damit liefert sie weitere Anreize für den Schutz und die Wiederherstellung dieser lange unterschätzten Küstenökosysteme.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Reusch treusch@geomar.de

Originalpublikation:
Reusch, T.B.H., Schubert, P.R., Marten, S.M. Gill, D., Karez, R., Busch, K., Hentschel, U, (2021): Lower Vibrio spp. abundances in Zostera marina leaf canopies suggest a novel ecosystem function for temperate seagrass beds. Marine Biology, doi: https://doi.org/10.1007/s00227-021-03963-3

(nach oben)


Kostengünstige und netzfreundliche Erzeugung von Wasserstoff aus regenerativen Energiequellen im H2Giga-Projekt HyLeiT

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Grüner Wasserstoff zu wirtschaftlichem Preis
Forscher der Professur Leistungselektronik der TU Dresden erforschen die kostengünstige und netzfreundliche Erzeugung von Wasserstoff aus regenerativen Energiequellen in dem H2Giga-Projekt HyLeiT

Der Klimawandel ist eine der größten Herausforderungen unserer Zeit. Das Erreichen der Klimaneutralität in Deutschland bis zum Jahr 2045 erfordert eine Transformation in nahezu allen Lebensbereichen. Erneuerbare Energien werden zukünftig das Rückgrat moderner Volkswirtschaften darstellen. Häufig müssen etablierte Technologien, die auf der Verbrennung fossiler Brennstoffe basieren, durch elektrische Alternativen ersetzt werden. Dies wird besonders beim Thema Elektromobilität deutlich.

In der Praxis können jedoch nicht alle Prozesse auf die Nutzung energiereicher Brennstoffe verzichten. So sind zum Beispiel die Stahlindustrie oder der Flugverkehr auf energiereiche Brennstoffe angewiesen. Gleichzeitig stellt die hohe Volatilität, also die intensiven Schwankungen regenerativer Energiequellen, die Elektroenergieversorgung vor große Herausforderungen. Für beide Probleme stellt die Erzeugung von Grünem Wasserstoff eine attraktive Lösung dar.

So kann mit überschüssiger Elektroenergie Wasserstoff erzeugt und als regenerativer Brennstoff verwendet werden. Allein in Deutschland wird der zukünftige jährliche Wasserstoff-Bedarf mehrere Hundertmillionen Tonnen betragen. Das Thema Wasserstoff stellt für die deutsche Industrie eine große Chance dar, die Zukunft zu gestalten. Notwendig sind effiziente, langlebige, robuste, kostengünstige, skalierbare und netzfreundliche Elektrolyseanlagen.

Die Energieversorgung stellt eine zentrale Komponente einer Wasserstoff-Elektrolyse-Anlage dar. Das Ziel des H2Giga-Projektes HyLeiT ist eine neue Generation von Elektrolyse-Stromrichtern und elektrischer Systemtechnik für die Wasserstoff-Elektrolyse. Im Vergleich zu dem heutigen Stand der Technik sollen durch neue Technologien die Systemkosten der Elektrotechnik vom Netzanschlusspunkt bis zum DC-Anschluss am Elektrolyseur halbiert, sowie Zuverlässigkeit, Sicherheit und Elektroenergiequalität erhöht werden. Dabei sind die gesamte Wirkungskette vom elektrischen Netz bis zur Gasverteilung, die Einbettung in Szenarien mit 100% regenerativer Energie und die weltweite Einsetzbarkeit zu berücksichtigen.

In dem H2Giga-Projekt HyLeiT arbeiten Akteure aus Wissenschaft und Industrie eng zusammen, um eine praxisnahe Forschung und Entwicklung zu gewährleisten. Zu den Projektpartnern gehören das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE (Projektkoordinator), die SMA Solar Technology AG, die Infineon Techno-logies AG, die Technische Universität Dresden und die Hochschule Bonn-Rhein-Sieg. Das H2Giga-Projekt HyLeit wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Der TU Dresden werden dazu etwa 3,6 Millionen Euro zur Verfügung gestellt.

HyLeit ist Teil des Leitprojekts H2Giga. Insgesamt drei Wasserstoff-Leitprojekte des BMBF leisten einen zentralen Beitrag zur Umsetzung der Nationalen Wasserstoffstrategie der Bundesregierung. In Summe bilden diese die größte Förderinitiative des Bundesforschungsministeriums zum Thema Energiewende überhaupt. Sie setzen somit einen entscheidenden Impuls für Deutschlands Einstieg in die Wasserstoffwirtschaft.

Drei Professuren der elektrischen Energietechnik der TU Dresden sind an dem H2Giga-Projekt HyLeit beteiligt. An der Professur Leistungselektronik wird an einer neuen Generation von Elektrolysegleichrichtern geforscht, die sich durch reduzierte Kosten sowie eine Erhöhung der Effizienz, Leistungsdichte und Energiequalität auszeichnen. Dieser im Gesamtprojekt wichtige Teilaspekt stellt einen wichtigen Schritt auf dem Weg zu einer technisch und wirtschaftlich optimierten Lösung der Elektrolyse-Energieversorgung dar. Zur Erhöhung der Effizienz und Zuverlässigkeit forscht die Professur Hochspannungs- und Hochstromtechnik an der elektrischen Verbindungstechnik in Elektrolysegleichrichtern. Dabei stehen insbesondere die thermische Auslegung sowie Untersuchungen zum Kontakt- und Langzeitverhalten im Vordergrund. Die Professur für Elektroenergieversorgung untersucht neuartige Schutzkonzepte für die elektrische Systemtechnik. Hierzu müssen Fehler zuverlässig erkannt und selbständig geklärt werden, wodurch die Robustheit des Systems steigt. Die ausgezeichnete Abstimmung der Forschungsschwerpunkte und –aufgaben sowie eine enge Kooperation der beteiligten Ingenieure ermöglichen die Erarbeitung eines optimalen Gesamtkonzepts für Topologie und Komponenten.

Über die Wasserstoff-Leitprojekte
In den Wasserstoff-Leitprojekten arbeiten über 240 Partner aus Wissenschaft und In-dustrie zusammen. Im Frühjahr sind die Projekte auf Basis unverbindlicher Förder-Inaussichtstellungen gestartet. Insgesamt wird die Förderung etwa 740 Millionen Euro betragen.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Steffen Bernet
TU Dresden
Professur für Leistungselektronik
E-Mail: steffen.bernet@tu-dresden.de
Tel.: 03514 63-42137

(nach oben)


Die Bekämpfung von Diabetes und Adipositas muss vorrangiges Politikziel werden

Michaela Richter Pressestelle
Deutsche Diabetes Gesellschaft
Keine Krankheit belastet das Sozial- und Gesundheitssystem so sehr wie Adipositas – noch nicht einmal die Coronapandemie. Der im Bundestag beratene Gesetzentwurf zur Weiterentwicklung der Gesundheitsversorgung (GVWG) sieht nun die Einführung eines DMP Adipositas vor. Allerdings drängt die Zeit: Daher empfiehlt die Deutsche Diabetes Gesellschaft (DDG), bei der Ausgestaltung des neuen DMP Adipositas bestehende Strukturen und Expertise aus dem DMP für Typ-2-Diabetes zu nutzen. Außerdem müssen in der nächsten Legislaturperiode endlich auch Maßnahmen zur Primärprävention von Übergewicht wie eine gesunde Mehrwertsteuer oder eine verbindliche Ampelkennzeichnung eingeführt werden.

Jeder zweite Erwachsene in Deutschland ist übergewichtig, jeder vierte adipös. Weltweit hat sich in den letzten Jahrzehnten die Zahl der übergewichtigen Menschen erhöht, in Deutschland sogar verdreifacht. Grund dafür ist laut Professor Dr. med. Matthias Blüher, Vorstandsmitglied der DDG und Direktor des Helmholtz Instituts für Metabolismus-, Adipositas- und Gefäßforschung des Helmholtz Zentrums München an der Universitätsmedizin Leipzig, die hierzulande weit verbreitete ungesunde Ernährungsweise, der immobile Lebensstil und die hochtechnisierte Arbeitswelt, die Ernährung und Bewegung zusätzlich negativ beeinflusse.

Über 60 Krankheiten stehen im Zusammenhang mit Übergewicht – allen voran Diabetes, aber auch Krankheiten von Herz und Gefäßen, Leber oder Lunge, Beschwerden des Bewegungs-apparates sowie verschiedene Krebsarten. „Die Adipositas-Welle muss eingedämmt werden, sonst werden wir ganz abgesehen von den individuellen Schicksalen und Problemen auch volkswirtschaftliche Nachteile erleiden“, warnt DDG Präsident Professor Dr. med. Andreas Neu. Denn Adipositas habe dramatische biologische und gesellschaftliche Folgen. Die Fehlzeiten wegen Arbeitsunfähigkeit, aber auch die Zahl der Frühverrentungen steigt bei Menschen mit starkem Übergewicht deutlich an. „30 Milliarden Euro Kosten entfallen jedes Jahr allein auf Gesundheitsmaßnahmen im Zusammenhang mit Adipositas“, so Blüher. Die indirekten Kosten belaufen sich sogar auf 60 Milliarden jährlich.

Das jetzt geplante DMP Adipositas ist ein notwendiger Schritt, um die Versorgung der Menschen mit krankhaftem Übergewicht deutlich zu verbessern und damit auch die Zahl der Neuerkrankungen an Diabetes Typ 2 zu reduzieren. „Viele dachten lange Zeit, man müsse sich doch einfach mehr bewegen und weniger essen“, sagt Blüher. Doch eine Krankheit lasse sich nicht mit Appellen bekämpfen. „Wir müssen verstehen, warum Menschen zu viel essen und sich zu wenig bewegen.“ Um krankmachende Verhaltensmuster aufzubrechen, brauche es ein multimodales Konzept aus Ernährung, Bewegung, Verhaltenstherapie – gegebenenfalls auch einer medikamentösen und chirurgischen Therapie.

„Es ist wichtig, dass das künftige DMP Adipositas genau solche Konzepte bei der Versorgung von Menschen mit starkem Übergewicht unterstützt“, so die Forderung der DDG. Daher sollten bei der Entwicklung des neuen Behandlungsprogramms etablierte Strukturen und Expertise aus dem DMP Diabetes Typ 2 genutzt werden. Damit bekämen Menschen mit Adipositas Zugang zu einer kontinuierlichen, strukturierten und qualitätsgesicherten Therapie. Vor allem die sektorenübergreifende und interdisziplinäre Verzahnung und das wirkungsvolle Zusammenspiel zwischen Ärzteschaft und Diabetes-Beratungsberufen bietet nicht nur optimale Voraussetzungen für die Begleitung von Menschen mit Diabetes, sondern auch mit Adipositas.

Das DMP Adipositas ist ein wichtiger Schritt zur Umsetzung der 2020 verabschiedeten Nationalen Diabetes Strategie. „Unverzichtbar sind aber auch verhältnispräventive Maßnahmen, die sicherstellen, dass Adipositas gar nicht erst auftritt“, betont DDG Geschäftsführerin Barbara Bitzer: Es bedarf einer verbindlichen Lebensmittelkennzeichnung und eines Verbots von Werbung für ungesunde Lebensmittel, die sich an Kinder und Jugendliche richtet. Schon lange fordert die DDG auch die Einführung einer „Gesunden Mehrwertsteuer“, die gesunde Lebensmittel mit geringem Anteil an Zucker, Fetten und/oder Salz steuerlich entlastet, eine Stunde Bewegung am Tag für Kinder und Jugendliche sowie verbindliche Ernährungsstandards für das Essen in Kitas und Schulen. Nur dadurch kann langfristig ein Durchbruch bei der Prävention von Adipositas und Diabetes erzielt werden. „Wie auch immer die künftige Bundesregierung zusammengesetzt sein wird: Ein konkreter Umsetzungsplan für die Bekämpfung dieser Krankheiten muss oberstes Politikziel werden“, so Bitzer.

Link zur Stellungnahme der DDG zum DMP Adipositas vom November 2020:
https://www.deutsche-diabetes-gesellschaft.de/politik/stellungnahmen/stellungnah…

(nach oben)


Schönere Beine, längeres Leben?

Veronika Wagner M.A. Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Forschende der Universitätsmedizin Mainz gewinnen neue Erkenntnisse zur chronischen Venenschwäche – Die chronisch-venöse Insuffizienz (CVI) ist eine Erkrankung der Beinvenen, die zu schweren Venen- und Hautveränderungen bis hin zu chronischen Wunden führen kann. Bislang wurde die Erkrankung vorwiegend als ein ästhetisches und lokales Problem der Venen betrachtet. Jedoch zeigen neue Daten, dass die chronische Venenschwäche mit einem erhöhten Risiko für Herz-Kreislauf-Erkrankungen sowie einer höheren Sterblichkeit einhergeht.

Diese bisher unbekannten Erkenntnisse von Wissenschaftler:innen des Centrums für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz und des Deutschen Zentrums für Herzkreislaufforschung (DZHK) legen nahe, die CVI zukünftig als Vorhersagekriterium für das Auftreten von Herz-Kreislauf-Erkrankungen zu nutzen. Die Ergebnisse der Mainzer Studie wurden jetzt in der Fachzeitschrift „European Heart Journal“ veröffentlicht.

„Unsere Untersuchung ist die erste und umfangreichste bevölkerungsbezogene Studie, die systematisch das gesamte Spektrum der Veneninsuffizienz untersucht und in Verbindung mit etablierten Herz-Kreislauf-Erkrankungen auswertet“, erläutert Dr. Jürgen Prochaska, Oberarzt am Zentrum für Kardiologie der Universitätsmedizin Mainz und Arbeitsgruppenleiter am CTH.

„Wir konnten zeigen, dass die chronisch-venöse Insuffizienz ausgesprochen verbreitet ist: Bei rund 41 Prozent der 40- bis 80-jährigen Probanden der bevölkerungsbasierten Gutenberg-Gesundheitsstudie (GHS) wurde eine symptomatische chronische Venenschwäche mit Ödemen, Hautveränderungen oder offenen Wunden der unteren Gliedmaßen diagnostiziert.“ Die Studiendaten belegen, dass die Häufigkeit der chronisch-venösen Insuffizienz mit zunehmendem Alter deutlich ansteigt. Während bei den 40- bis 50-Jährigen mehr als jeder Fünfte betroffen ist, sind es bei den 70- bis 80-Jährigen sogar mehr als zwei Drittel. Eine weitere Erkenntnis der Studie: Frauen erkranken etwas häufiger als Männer.

Zudem stellte das Mainzer Forscherteam fest, dass Personen mit einer chronisch-venösen Insuffizienz mit einer etwa 60 Prozent höheren Wahrscheinlichkeit gleichzeitig eine schwere Herz-Kreislauf-Erkrankung aufweisen als Personen mit gleichem Alter und Geschlecht ohne CVI. Die Wissenschaftler:innen konnten darüber hinaus zeigen, dass das Risiko, in den nächsten zehn Jahren an einer Herz-Kreislauf-Erkrankung wie Herzinfarkt, Schlaganfall, Herzschwäche oder der Herzrhythmusstörung Vorhofflimmern zu erkranken, bei Personen mit CVI fast doppelt so hoch ist wie bei Personen ohne Zeichen einer Venenschwäche.

„Unsere Daten offenbaren eine weitere alarmierende Erkenntnis“, betont Univ.-Prof. Dr. Philipp Wild, Leiter der Präventiven Kardiologie am Zentrum für Kardiologie der Universitätsmedizin Mainz und Leiter der Klinischen Epidemiologie und Systemmedizin am CTH. „Wir haben in der Studie nachgewiesen, dass die Gesamtsterblichkeit über alle Todesursachen hinweg bei Menschen mit chronisch-venöser Insuffizienz unabhängig von allen anderen Faktoren, wie etwa Alter, Geschlecht, Risikofaktoren und Begleiterkrankungen, deutlich erhöht ist. Dies unterstreicht in Verbindung mit der hohen Verbreitung die Notwendigkeit, die Krankheit ernst zu nehmen und als möglichen Indikator für das Vorliegen einer kardiovaskulären Erkrankung zu nutzen.“ Die Sterblichkeit von Personen mit fortgeschrittener Venenschwäche war im Beobachtungszeitraum von etwas mehr als sechs Jahren um etwa das 1,7-fache höher als bei Personen ohne diese Erkrankung.

Der Direktor des Zentrums für Kardiologie der Universitätsmedizin Mainz, Univ.-Prof. Dr. Thomas Münzel, sieht die gemeinsamen kardiovaskulären Risikofaktoren als eine mögliche Ursache für die Verbindung zwischen arterieller und venöser Erkrankung: „Unsere Daten weisen darauf hin, dass klassische Risikofaktoren für eine Herz-Kreislauf-Erkrankung, beispielsweise Bluthochdruck, Diabetes mellitus, Übergewicht oder Rauchen, zu einer fortgeschrittenen Venenschwäche beitragen. Mit der Diagnose einer chronisch-venösen Insuffizienz sollte daher immer auch nach Risikofaktoren und Herz-Kreislauf-Erkrankungen gesucht werden.“

Die Wissenschaftler:innen teilten die erhobenen Befunde zu den Venenveränderungen systematisch nach Schweregraden ein. Diese reichten von keinen Zeichen einer Venenveränderung bis hin zum Vorliegen einer sehr fortgeschrittenen Veneninsuffizienz. Bei einer deutlichen Mehrheit von rund 90 Prozent zeigte sich eine Venenveränderung: 36,5 Prozent der Personen hatten eine sogenannte Varikosis (z. B. Besenreiser) und 13,3 Prozent wiesen Varizen (Krampfadern) auf. Beides sind Venenveränderungen, die häufig im Laufe des Lebens zu einer fortgeschrittenen Venenschwäche führen. Mit einem Anteil von 40,8 Prozent aller untersuchten Personen wies ein hoher Anteil eine manifeste chronisch-venöse Insuffizienz auf.

Für die Untersuchung wurden die Daten von rund 12.400 Teilnehmenden der Gutenberg-Gesundheitsstudie (GHS) aus Mainz und dem Landkreis Mainz-Bingen sowie von mehr als 2.400 Teilnehmenden der MyoVasc-Studie berücksichtigt. Die Bestimmung des Schweregrads einer Venenveränderung wurde mittels standardisierter digitaler Bildaufnahme, einer klinischen Untersuchung der Beine und per Befragung zu typischen Symptomen erhoben. Zudem lagen Daten zu kardiovaskulären Risikofaktoren und Begleiterkrankungen für alle Studienteilnehmenden vor.

Originalpublikation:
Prochaska JH, Arnold N, Falcke A, Kopp S, Schulz A, Buch G, Moll S, Panova-Noeva M, Jünger C, Eggebrecht L, Pfeiffer N, Beutel M, Binder H, Grabbe S, Lackner KJ, Ten Cate-Hoek A, Espinola-Klein C, Münzel T, Wild PS. Chronic venous insufficiency, cardiovascular disease, and mortality: a population study. Eur Heart J. 2021 Aug 13:ehab495. Online ahead of print. PMID: 34132336.
DOI: 10.1093/eurheartj/ehab495

Kontakt:
Univ.-Prof. Dr. Philipp Wild, Zentrum für Kardiologie und Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz, Telefon 06131 17-7439,
E-Mail: philipp.wild@unimedizin-mainz.de

Pressekontakt:
Veronika Wagner M.A., Unternehmenskommunikation, Universitätsmedizin Mainz,
Telefon: 06131 17-8391, E-Mail: pr@unimedizin-mainz.de

Über die Gutenberg-Gesundheitsstudie (GHS):
Die Gutenberg Gesundheitsstudie (GHS) ist eine interdisziplinäre, populationsbasierte, prospektive, monozentrische Kohorten-Studie, die seit 2007 an der Universitätsmedizin Mainz durchgeführt wird. Bei der GHS handelt es sich um eine der weltweit größten Studien ihrer Art, in die über 15.000 Frauen und Männer aus der rheinland-pfälzischen Landeshauptstadt und dem Landkreis Mainz-Bingen im Alter zwischen 35 und 74 Jahren eingeschlossen wurden. Im Rahmen der Studie werden Herz-Kreislauf-Erkrankungen, Krebserkrankungen, Augenerkrankungen, metabolische Erkrankungen sowie Erkrankungen des Immunsystems und der Psyche untersucht. Ziel der Studie ist es, die Risikovorhersage für den Einzelnen für diese Erkrankungen zu verbessern. Hierzu werden Lebensstil, psychosoziale Faktoren, Umwelt, laborchemische Parameter sowie das Ausmaß der subklinischen Erkrankung berücksichtigt. Eine umfangreiche Biomaterialbank ermöglicht molekularbiologische Untersuchungen, unter anderem auch in einem systembiologischen Ansatz. Weitere Informationen im Internet unter www.gutenberg-gesundheitsstudie.de

Über die MyoVasc-Studie
Die MyoVasc-Studie ist eine epidemiologische, prospektive Kohortenstudie zur Untersuchung der Herzinsuffizienz und der Interaktion mit Gefäßerkrankungen. Die Studie wird seit 2012 durch die Präventive Kardiologie und Medizinische Prävention (Leitung: Univ.-Prof. Dr. Philipp Wild) am Zentrum für Kardiologie der Universitätsmedizin Mainz durchgeführt. Insgesamt werden mehr als 3.200 Personen mit verschiedenen Formen der Herzinsuffizienz und Kontrollpersonen ohne Herzinsuffizienz über jeweils sechs Jahre regelmäßig untersucht. Ziel ist, den Verlauf der Herzinsuffizienz noch besser zu verstehen und Risikofaktoren zu identifizieren. Weitere Informationen im Internet unter Präventive Kardiologie und Medizinische Prävention | MyoVasc (unimedizin-mainz.de)
Über das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK)
Das Bundesministerium für Bildung und Forschung (BMBF) hat im Rahmen seiner Bemühungen, optimale Forschungsbedingungen zur Bekämpfung von Volkskrankheiten zu schaffen, die Deutschen Zentren der Gesundheitsforschung (DZG) gegründet. Eines dieser sechs Zentren ist das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK). Dieses Zentrum setzt sich aus insgesamt 29 Institutionen zusammen, die auf sieben Standorte verteilt sind. Die Ziele des Zentrums sind die Verbesserung von Prävention, Diagnostik und Therapie von kardiovaskulären Erkrankungen. Die Universitätsmedizin Mainz gehört dem Standort RheinMain des DZHK an und hat im Netzwerk den Schwerpunkt in der patientenorientierten Forschung zu kardiovaskulären Erkrankungen.

Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten und jährlich mehr als 300.000 Menschen stationär und ambulant versorgen. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.000 Studierende der Medizin und Zahnmedizin sowie mehr als 600 Fachkräfte in den verschiedensten Gesundheitsfachberufen, kaufmännischen und technischen Berufen werden hier ausgebildet. Mit rund 8.600 Mitarbeitenden ist die Universitätsmedizin Mainz zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter www.unimedizin-mainz.de.

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Philipp Wild, Zentrum für Kardiologie und Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz, Telefon 06131 17-7439,
E-Mail: philipp.wild@unimedizin-mainz.de

Originalpublikation:
Prochaska JH, Arnold N, Falcke A, Kopp S, Schulz A, Buch G, Moll S, Panova-Noeva M, Jünger C, Eggebrecht L, Pfeiffer N, Beutel M, Binder H, Grabbe S, Lackner KJ, Ten Cate-Hoek A, Espinola-Klein C, Münzel T, Wild PS. Chronic venous insufficiency, cardiovascular disease, and mortality: a population study. Eur Heart J. 2021 Aug 13:ehab495. Online ahead of print. PMID: 34132336.

https://doi.org/10.1093/eurheartj/ehab495

(nach oben)


Ökoeffizientes Düngen schont Natur, Gesundheit und Geldbeutel

Dr. Katharina Baumeister Corporate Communications Center
Technische Universität München
Harnstoff ist ein wertvoller Stickstoff-Dünger und wird in der Landwirtschaft regelmäßig zur Düngung großer Ackerflächen genutzt. Die Freisetzung von Harnstoff in die Atmosphäre hat jedoch weitreichende Folgen für die Umwelt und die menschliche Gesundheit. Abhilfe schaffen kann der Zusatz von „Urease-Inhibitoren“, die die gasförmigen Ammoniak-Verluste verringern. Ein Forscherteam der Technischen Universität München (TUM) hat berechnet, wie durch den Einsatz ökoeffizienter Dünger Ausgaben in Milliardenhöhe im Umwelt- und Gesundheitsbereich eingespart werden können.

Harnstoff hilft den Pflanzen beim Wachstum. Über die Hälfte aller synthetischen Dünger, die weltweit genutzt werden, basieren auf diesem Stoff, da er einfach zu lagern, transportieren und auszubringen ist. „Harnstoff als Dünger wird jedoch nur in geringem Maße direkt von den Pflanzen aufgenommen. Erst nach seiner Umwandlung in Ammonium oder Nitrat steht er den Pflanzen als Stickstoff-Quelle zur Verfügung“, erklärt Urs Schmidhalter, Professor am Lehrstuhl für Pflanzenernährung der TUM.

Harnstoff tritt in Böden und Gewässer ein
Bei dieser Umwandlung wird Ammoniak freigesetzt, das sich in der Atmosphäre verflüchtigt und auch in tiefere Bodenschichten und damit auch in das Grundwasser eindringt. Das bringt zweierlei Probleme mit sich: Zum einen bedeuten die Stickstoff-Verluste einen hohen finanziellen Aufwand und Ertragseinbußen für die Landwirte, zum anderen sind sie verantwortlich für die Versauerung und Nährstoffanreicherung in Böden und Gewässern.

80 bis 95 Prozent der gesamten Ammoniak-Emissionen in der Europäischen Union waren 2018 auf diese Stickstoff-Verluste zurückzuführen. Synthetische und organische Düngemittel tragen zu den Verlusten wesentlich bei. Aus der Feinstaubbildung von Ammoniak können damit Gesundheitsschäden wie Atemwegserkrankungen sowie Herz-Kreislauf-Erkrankungen entstehen.

Austritt von Ammoniak in die Atmosphäre kann verringert werden
Doch es gibt eine Lösung: Der Zusatz von sogenannten „Urease-Inhibitoren“ verringert die gasförmigen Ammoniak-Verluste. Diese Enzyme werden dem Düngemittel beigemischt und blockieren die Urease-Enzyme für einen gewissen Zeitraum, der für die Umwandlung von Harnstoff in Ammonium und Kohlendioxid nötig ist. „Studien haben gezeigt, dass solche Urease-Inhibitoren die Emissionen um 50 bis 80 Prozent reduzieren können. Statt sich in der Atmosphäre zu verflüchtigen steht also eine deutlich größere Stickstoff-Menge den Pflanzen zur Ertragsbildung zur Verfügung“, sagt Schmidhalter.

Deutschland ist das erste Land, das den Zusatz von Urease-Inhibitatoren zu granuliertem Harnstoff durch die nationale Düngemittelverordnung 2020 bereits vorschreibt. Die Europäische Union verlangt bis 2030 verpflichtend eine Reduktion von Ammoniak-Emissionen von allen Mitgliedsländern.

Ökoeffizientes Düngen als kostengünstige Schutzmaßnahme
Ein Forscherteam des Lehrstuhls für Pflanzenernährung an der TUM hat nun ein Konzept erstellt, um den gesellschaftlichen und ökologischen Nutzen des Einsatzes solcher Urease-Inhibitoren zu berechnen. Dabei errechnen sie einen Nutzen der Harnstoff-Emissionsminderung für die Ökosysteme und die menschliche Gesundheit von durchschnittlich 17,5 Euro pro Kilogramm Harnstoff-Ausstoß. Die Kosten für den Harnstoffdünger erhöhen sich dabei nur um rund 10 Prozent, welches Mehrkosten von weniger als 10 Cent pro Kilogramm Stickstoff entspricht.

„Die Kosten-Nutzen Abschätzung für die Maßnahmen zur Verringerung des Harnstoff-Ausstoßes wird es den politischen Entscheidungsträgern ermöglichen, die spezifischen Maßnahmen umzusetzen“, meinen Schmidhalter und sein Mitarbeiter Privatdozent Yuncai Hu. Ihre Berechnungen sind auch für andere Regionen weltweit hilfreich. Während die Europäische Union 5 Prozent der weltweiten Harnstoff-Emissionen produziert, sind China für 30 Prozent, Indien für 24 Prozent und die USA für weitere 5,4 Prozent verantwortlich.

„Für das Jahr 2018 betragen die für Deutschland berechneten Kosteneinsparungen bei Einsatz von Urease-Hemmstoffen 0,3 Milliarden Euro, für Europa 3 Milliarden, für China 9 Milliarden und für die ganze Welt 63 Milliarden Euro. Wir haben diese Zahlen ergänzend zum Artikel berechnet und die allerneuesten Informationen mit einbezogen“, sagt Prof. Schmidhalter.

Der Einsatz von Urease-Hemmstoffen stellt laut Schmidhalter die kostengünstigste Maßnahme zur Reduktion von Ammoniak-Emissionen aus der Landwirtschaft dar. „Weitere Einsparungen, insbesondere aus der Tierhaltung, werden sehr viel kostenintensiver sein“, begründet Schmidhalter.

Wissenschaftliche Ansprechpartner:
Prof. Urs Schmidhalter
TUM School of Life Sciences
Lehrstuhl für Pflanzenernährung
Tel: 08161/ 71-3391
E-Mail: schmidhalter@wzw.tum.de

Originalpublikation:
Yuncai Hu und Urs Schmidhalter (2021): Urease inhibitors: opportunities for meeting EU national obligations to reduce ammonia emission ceilings by 2030 in EU countries. Environ. Res. Lett. 16 084047. URL: https://iopscience.iop.org/article/10.1088/1748-9326/ac16fe

Weitere Informationen:
https://mediatum.ub.tum.de/1624250 (Bildmaterial)
https://www.wzw.tum.de/index.php?id=2 (TUM School of Life Sciences)
https://www.hef.tum.de/startseite/ (Hans-Eisenmann-Forum für Agrarwissenschaften an der TUM)

(nach oben)


Warum uns mit dem Alter Wörter schlechter einfallen

Bettina Hennebach Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kognitions- und Neurowissenschaften
Wenn wir älter werden, fällt es uns zunehmend schwerer, im entscheidenden Moment die richtigen Wörter parat zu haben – und das, obwohl unser Wortschatz im Laufe des Lebens eigentlich kontinuierlich anwächst. Bislang war unklar, woran das liegt. Forscherinnen das Max-Planck-Instituts für Kognitions- und Neurowissenschaften und der Universität Leipzig haben nun herausgefunden: Es sind die Netzwerke im Gehirn, die ihre Kommunikation im Laufe der Zeit verändern. Das macht sie ineffizienter.

Untersucht haben die Forscher diese Zusammenhänge mithilfe von zwei Gruppen – jüngeren StudienteilnehmerInnen zwischen 20 und 35 Jahren und älteren zwischen 60 und 70 Jahren. Beide Gruppen sollten im MRT-Scanner Wörter nennen, die zu bestimmten Kategorien gehören, darunter Tiere, Metalle oder Fahrzeuge.
Dabei wurde deutlich: Beide Altersgruppen waren zwar gut darin, Begriffe zu finden. Die Jüngeren waren jedoch etwas schneller. Der Grund dafür könnte in den unterschiedlichen Hirnaktivitäten liegen. Bei den Jüngeren waren zum einen nicht nur die Sprachareale selbst aktiver. Bei ihnen zeigte sich auch ein intensiverer Austausch innerhalb zwei entscheidender Netzwerke: Dem Netzwerk für das semantische Gedächtnis, in dem Faktenwissen abgespeichert ist, und dem exekutiven Netzwerk, das für allgemeine Funktionen wie Aufmerksamkeit und Gedächtnis zuständig ist. Bei den Älteren war es umgekehrt. Hier zeigten exekutive Areale stärkere Aktivität, was darauf hinweist, dass die Aufgabe für diese Personen insgesamt schwieriger zu bewältigen war. Außerdem war der Austausch innerhalb der entscheidenden Netzwerke weniger effektiv als bei den Jüngeren. Am ehesten profitierte die ältere Gruppe vom Austausch zwischen den Netzwerken, der ist allerdings mit Einbußen verbunden. „Die Kommunikation innerhalb von neuronalen Netzwerken ist effizienter und damit schneller als zwischen ihnen“, erklärt Sandra Martin, Doktorandin am MPI CBS und Erstautorin der zugrundeliegenden Studie, die jetzt im Fachmagazin Cerebral Cortex erschienen ist.
Warum sich diese Aktivitätsmuster mit dem Alter verschieben, ist bislang nicht vollständig geklärt. Eine Theorie ist, so Martin, dass man sich im Laufe der Jahre mehr auf das Sprachwissen verlasse, das man habe, sodass der Austausch zwischen Netzwerken in den Fokus rückt, während sich jüngere Menschen stärker auf ihr schnelles Arbeitsgedächtnis und kognitive Kontrollprozesse verlassen. „Auf der strukturellen Ebene könnte außerdem der Abbau von grauer Hirnsubstanz eine Rolle spielen, der durch den Austausch zwischen den Netzwerken kompensiert wird“, sagt Martin.

Wissenschaftliche Ansprechpartner:
Sandra Martin, Doktorandin
martin@cbs.mpg.de

Gesa Hartwigsen, Forschungsgruppenleiterin
hartwigsen@cbs.mpg.de

Originalpublikation:
„Age-Dependent Contribution of Domain-General Networks to Semantic Cognition“ in Cerebral Cortex:
https://academic.oup.com/cercor/advance-article/doi/10.1093/cercor/bhab252/63603…

(nach oben)


BAuA stellt Daten zur mentalen Gesundheit bei der Arbeit bereit

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Ab sofort können Wissenschaftlerinnen und Wissenschaftler Daten der Studie zur Mentalen Gesundheit bei der Arbeit (S-MGA) der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) für ihre Forschung nutzen. Dazu stellt das Forschungsdatenzentrum der BAuA einen Scientific Use File zur Verfügung, der Daten aus der ersten und zweiten Befragungswelle der Studie enthält.

Die Studie zur Mentalen Gesundheit bei der Arbeit entstand in Zusammenarbeit zwischen der BAuA, dem Institut für Arbeitsmarkt- und Berufsforschung sowie dem infas Institut für angewandte Sozialwissenschaft. Die Studie untersucht Zusammenhänge zwischen Arbeitsbedingungen, mentaler Gesundheit, Arbeitsfähigkeit und Erwerbsteilhabe im Längsschnitt. Hierfür wurde eine repräsentative Stichprobe von sozialversicherungspflichtig Beschäftigten der Geburtsjahrgänge 1951 bis 1980 in ganz Deutschland wiederholt befragt. An der ersten Welle 2011/12 nahmen 4.511 Befragte teil, von denen 2.637 im Jahr 2017 wiederbefragt werden konnten.

Das Forschungsdatenzentrum der BAuA hat jetzt für die Weitergabe der in beiden Wellen erhobenen Daten an die wissenschaftliche Forschung einen Scientific Use File bereitgestellt. Dazu wurden die Befragungsdaten gezielt anonymisiert. Die dazugehörige umfangreiche Datendokumentation stellt den Inhalt des Datensatzes einschließlich der Aufbereitungs- und Anonymisierungsschritte dar. Die Daten für wissenschaftliche Zwecke stehen kostenfrei zur Verfügung. Den Datenzugang gibt es über einen Antrag an das Forschungsdatenzentrum der BAuA. Dazu schließt das Forschungsdatenzentrum einen Vertrag mit den Nutzenden über die Rechte und Pflichten bei der wissenschaftlichen Auswertung. Weiterführende Informationen zum Datensatz und zum Datenzugang finden sich auf der Homepage der BAuA unter www.baua.de/fdz

Das Forschungsdatenzentrum der BAuA, das der Rat für Sozial- und Wirtschaftsdaten im Juli 2021 akkreditierte, stellt darüber hinaus weitere Daten aus der Forschung der BAuA zur Verfügung.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 750 Beschäftigte.
www.baua.de

(nach oben)


Neues Fact Sheet zu Erkenntnissen zum Klimawandel im Ostseeraum

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Wie verläuft der Klimawandel in der Ostsee und was sind mögliche Auswirkungen auf die Meeresumwelt? Baltic Earth und HELCOM haben jetzt eine Zusammenfassung der aktuellen Forschungsergebnisse in Form eines kompakten Faktenblatts (Climate Change Fact Sheet) herausgegeben. Das Fact Sheet wurde am Freitag, 3. September 10:00 bis 12:00, im Rahmen einer virtuellen Pressekonferenz veröffentlicht.

Programm der Pressekonferenz
1. Vorstellung des Baltic Sea Climate Change Fact Sheets
2. Präsentation der wichtigsten Ergebnisse zum Klimawandel in der Ostsee
3. Fragen und Antworten mit Medienvertretern und Expertinnen und Experten aus dem Bereich Klimawandel von Baltic Earth und HELCOM

Grundlage für Entscheidungsträger und Information für die Öffentlichkeit
„Das Fact Sheet richtet sich vor allem an politische Entscheidungsträger, damit sie eine wissenschaftsbasierte und dabei gut verständliche Übersicht darüber erhalten, wie sich der Klimawandel bereits jetzt schon auf die Ostsee auswirkt und was wir für die Zukunft erwarten“, sagt Prof. Markus Meier vom Leibniz-Institut für Ostseeforschung Warnemünde und Vorsitzender der Baltic Earth Steuergruppe, der das Fact Sheet als führender Experte für den Klimawandel in der Ostseeregion zusammen mit einer internationalen Expertengruppe erarbeitet hat. „Mit dem Fact Sheet wollen wir Entscheidungsträgern helfen, sich in verständlicher Form über den aktuellen wissenschaftlichen Kenntnisstand zum Klimawandel und seinen Auswirkungen auf die marine Umwelt zu informieren“, sagt Jannica Haldin, die bei HELCOM die Arbeit zum Klimawandel leitet.

Das inhaltlich umfassende, kompakte und für Laien verständliche Fact Sheet ist eine Fortsetzung und Zusammenfassung der beiden bisherigen Ostsee-Klimaberichte (BACC), die sich als regionale Gegenstücke zu den global angelegten Berichten des Weltklimarates IPCC verstehen. „Die Erkenntnisse aus den BACC-Büchern von 2008 und 2015 sind weitestgehend immer noch gültig, und auch die neuen Baltic Earth Assessment Reports (BEAR) haben zur Erarbeitung des Fact Sheets beigetragen“, sagt Marcus Reckermann vom Internationalen Baltic Earth Sekretariat am Helmholtz-Zentrum Hereon. „So können sich auch interessierte Bürgerinnen und Bürger zu diesem Thema informieren“, so Reckermann.

Wassertemperaturen und Meeresspiegel steigen, Eisbedeckung nimmt ab
Das Faktenblatt zeigt auf, dass die Wassertemperatur und der Meeresspiegel in der Ostsee ansteigen und die Meereisbedeckung abnimmt, was wiederum Auswirkungen auf Ökosysteme und Meerestiere, aber auch auf die maritime Wirtschaft wie Schifffahrt, Fischerei und Aquakultur hat: „Die Wassertemperaturen der Ostsee sind in den letzten 100 Jahren deutlich angestiegen und werden im 21. Jahrhundert voraussichtlich weiter ansteigen“, führt Ozeanograph Meier aus und fügt hinzu, dass laut aktuellen Modellberechnungen die Ostsee bis zum Ende des Jahrhunderts in weiten Teilen im Durchschnitt eisfrei sein werde.

Das gemeinsam von Baltic Earth und HELCOM entwickelte Fact Sheet enthält Informationen über 34 Parameter, von der Luft- und Wassertemperatur bis hin zu den Ökosystemleistungen der Meere und Küsten, aufgeteilt in verschiedene Kategorien: Energie- und Wasserkreislauf, Kohlen- und Nährstoffkreislauf, Meeresspiegel und Windbedingungen, Biota und Ökosysteme, sowie menschliche Aktivitäten. Rund 100 Experten aus dem gesamten Ostseeraum waren im speziell für die Erstellung dieses Faktenblatts gebildeten Expertennetzwerks für den Klimawandel (EN CLIME) beteiligt. Es ist geplant, das Faktenblatt alle sieben Jahre zu aktualisieren.

Über Baltic Earth
Baltic Earth ist ein internationales wissenschaftliches Netzwerk, das ein verbessertes Verständnis des Erdsystems der Ostseeregion anstrebt als Grundlage für ein wissenschaftsbasiertes Management angesichts der Auswirkungen von Klima, Umwelt und Mensch in der Region. Baltic Earth wirddurch das Internationale Baltic Earth Sekretariat am Helmholtz-Zentrum Hereon koordiniert.
https://baltic.earth

Über HELCOM
Die Kommission für den Schutz der Meeresumwelt der Ostsee – auch bekannt als Helsinki-Kommission oder HELCOM – ist eine zwischenstaatliche Organisation, die 1974 gegründet wurde, um die Meeresumwelt der Ostsee vor Verschmutzungsquellen zu schützen. Ihre Mitglieder sind die neun Ostseeanrainerstaaten und die Europäische Union.
https://www.helcom.fi

Wissenschaftliche Ansprechpartner:
Für das Climate Change Fact Sheet und Baltic Earth:
Dr. Marcus Reckermann
Baltic Earth Sekretariat
Helmholtz-Zentrum Hereon
+49 (0)4152 87-1693
marcus.reckermann@hereon.de

Für HELCOM:
Dominik Littfass
HELCOM
dominik.littfass@helcom.fi
+358 40 647 3996

Weitere Informationen:
https://helcom.fi/ccfs-launch Anmeldung zur Pressekonferenz
https://helcom.fi/wp-content/uploads/2021/08/CCFS-embargoed.zip Climate Change Fact Sheet Medienvorschau

(nach oben)


Kopfschmerztag 2021: Auswirkungen des Corona-Lockdowns auf Patientinnen und Patienten mit primären Kopfschmerzen

Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.
Eine in Deutschland durchgeführte Studie [1] untersuchte, welche Auswirkungen der Lockdown auf Patientinnen und Patienten mit primären Kopfschmerzerkrankungen hatte. Es wurden die Einträge der Studienteilnehmenden in ein digitales Kopfschmerztagebuch analysiert. Zwar gaben viele eine anfängliche Stressreduktion durch den Lockdown an, aber es gab keine langfristigen positiven Auswirkungen auf die primären Kopfschmerzerkrankungen. Eine ähnliche Erhebung [2], die in Italien an Patientinnen/Patienten mit Migräne durchgeführt worden war, ergab, dass womöglich die Stressreduktion durch die Arbeit im Homeoffice positive Effekte hatte.

Am 5. September ist Kopfschmerztag. Ziel des Aktionstags ist, auf die häufig unterschätzten Kopfschmerzerkrankungen und das Leiden der Betroffenen hinzuweisen. Aktuell untersuchten zwei Erhebungen, wie es Kopfschmerzpatientinnen und -patienten im Lockdown ergangen ist.

Eine Studie [1] analysierte die Daten von deutschen Patientinnen und Patienten mit primären Kopfschmerzerkrankungen, die ein digitales Kopfschmerztagebuch mit der App „M-sense“ führten und die in den 28 Tagen vor dem Lockdown sowie in den ersten 28 Tag des Lockdowns regelmäßig ihre Daten eingepflegt hatten. Insgesamt konnten die Daten von 2.325 App-Nutzerinnen und -Nutzern ausgewertet werden. Analysiert wurden mögliche Veränderungen im Hinblick auf die monatlichen Kopfschmerztage, die monatlichen Migränetage, der akuten Bedarfsmedikation und der Schmerzintensität. Außerdem wurde erfasst, ob sich Schlafdauer, Schlafqualität, Lebensenergie, Gemütszustand, Stress- und Aktivitätslevel im Lockdown verändert hatten.

Im Ergebnis zeigte sich, dass es keinen signifikanten Unterschied im Hinblick auf die Kopfschmerztage gab (7,01 ± 5,64 vor dem Lockdown vs. 6,89 ± 5,47 währenddessen, p>0,999). Auch in Bezug auf die monatlichen Migränetage und die Schmerzintensität konnte kein Unterschied festgestellt werden. Allerdings hatte sich die Anzahl der Tage, an denen die Betroffenen eine Akuttherapie benötigten, signifikant reduziert – von 4,50 ± 3,88 auf 4,27 ± 3,81 (p < 0.001). Auch berichteten die App-User einen geringeren Stress- und Aktivitätslevel sowie längere Schlafzeiten, bessere Laune und mehr Energie. „Demnach war der Lockdown in einem gewissen Umfang positiv für Menschen mit Kopfschmerzerkrankungen. Es ist bekannt, dass es einen Zusammenhang zwischen hoher Arbeitsbelastung, mangelnder Erholung und Kopfschmerzen gibt, und offensichtlich führte der Lockdown dazu, dass die Betroffenen etwas ‚herunterfahren‘ konnten. Viele Arbeitnehmerinnen und Arbeitnehmer waren in Kurzarbeit und bei den anderen fielen die Wegezeiten zur Arbeit weg, was zu mehr Freizeit führte, außerdem dauerte es oft mehrere Tage oder gar Wochen, bis eine funktionierende Homeoffice-Infrastruktur etabliert war und sie in gewohnter Weise weiterarbeiten konnten“, erklärt Prof. Peter Berlit, Generalsekretär der DGN.

Allerdings war der positive Effekt nicht nachhaltig: In einer weiterführenden Analyse der Daten von 439 der Nutzerinnen und Nutzer wurden die monatlichen Kopfschmerztage, die monatlichen Migränetage, die akute Bedarfsmedikation und die Schmerzintensität dann erneut nach drei Monaten erhoben und mit den Ausgangswerten von vor dem Lockdown verglichen. Es zeigte sich, dass es nun keinerlei Unterschiede mehr gab, auch nicht in Bezug auf die Akutmedikation. Die Autorinnen und Autoren schlussfolgern, dass die anfängliche Stressreduktion durch den Lockdown keine langfristigen Auswirkungen auf die primären Kopfschmerzerkrankungen hatte. „Womöglich brachte der Lockdown neue Stressoren mit sich, durch das Homeschooling, die soziale Isolation oder auch durch Zukunftsängste und finanzielle Sorgen“, erklärt Prof. Berlit weiter.

Eine ähnliche Erhebung [2] war in Italien an Migränepatientinnen und -patienten mittels eines E-Mail-Fragebogens durchgeführt worden. 92 Betroffene nahmen an der Umfrage teil. Die Attackenhäufigkeit war bei 40,2% der Befragten während des Lockdowns konstant geblieben, bei 33,7% hatte sie sich erhöht, bei 26,1% reduziert. Die Dauer der Attacken war bei 55,4% gleichgeblieben, bei 23,9% war sie länger geworden, bei 20,7% hatte sie sich verkürzt. Der Migräneschmerz war bei 65,2% gleich oder vermindert, bei 34,8% hatte die Schmerzintensität zugenommen. Die Wirksamkeit der Migränemedikamente gaben 73,9% der Befragten mit gleich gut an, 17,4% nahmen sie als vermindert wahr, 8,7% als verbessert. Zusammenfassend hatte der Lockdown in dieser Erhebung bei ca. der Hälfte der Patientinnen und Patienten keinerlei Auswirkungen, bei einem Viertel führte er zu Verbesserungen, bei einem anderen Viertel zu Verschlechterungen.

Was aber besonders interessant war: Die Arbeitsgruppe analysierte auch Faktoren, die auf die Migräne Einfluss nehmen: Interessant war das Ergebnis, dass die Patientinnen/Patienten, die im Homeoffice arbeiteten, weniger Medikamente benötigten, eine geringere Schmerzintensität hatten sowie eine kürzere Attackendauer. Die Autorinnen und Autoren schlussfolgern, dass das Arbeiten im Homeoffice ein möglicher Weg sein könnte, um die Lebensqualität von Menschen mit Migräne zu verbessern. „Diese Hypothese ist nicht abwegig, denn wir wissen, dass bestimmte Trigger, wie beispielsweise Stress oder Lärm, Migräne-Attacken auslösen. Im Großraumbüro kann man sich dem weniger gut entziehen als im Homeoffice. Auch hat man zuhause immer einen Rückzugsraum und kann sich ‚rausnehmen‘, wenn eine Attacke beginnt, was die Intensität und Länge der Schmerzen günstig beeinflussen kann“, erklärt DGN-Pressesprecher Prof. Dr. Hans-Christoph Diener. „Arbeiten im Homeoffice kann also für Patientinnen und Patienten mit Migräne durchaus sinnvoll sein.“ Weitere Tipps, wie Betroffene mit der Migräne umgehen können, welche attackenauslösenden Faktoren es gibt und wie die Erkrankung durch medikamentöse und nichtmedikamentöse Therapien behandelt werden kann, finden sich im „Migräne-Therapiekompass“ von Prof. Diener [3].

Literatur
[1] Raffaelli, B., Mecklenburg, J., Scholler, S. et al. Primary headaches during the COVID-19 lockdown in Germany: analysis of data from 2325 patients using an electronic headache diary. J Headache Pain 22, 59 (2021).
https://thejournalofheadacheandpain.biomedcentral.com/articles/10.1186/s10194-02…

[2] Currò, C.T., Ciacciarelli, A., Vitale, C. et al. Chronic migraine in the first COVID-19 lockdown: the impact of sleep, remote working, and other life/psychological changes. Neurol Sci (2021).
https://link.springer.com/article/10.1007/s10072-021-05521-7

[3] Diener C. Der Migräne-Therapiekompass. Migräneattacken vorbeugen: Welche Medikamente und andere Therapien wirklich helfen. Trias Verlag. ISBN: 9783432114484

Pressekontakt
Pressestelle der Deutschen Gesellschaft für Neurologie
c/o Dr. Bettina Albers, albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als wissenschaftliche Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren über 10.000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern und zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org

Präsident: Prof. Dr. med. Christian Gerloff
Stellvertretender Präsident: Prof. Dr. Gereon R. Fink
Past-Präsidentin: Prof. Dr. med. Christine Klein
Generalsekretär: Prof. Dr. Peter Berlit
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org

Originalpublikation:
https://doi.org/10.1186/s10194-021-01273-z

(nach oben)


Ganz genau: Präzision für die Energiewende

Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Wie die Forschungsgruppe Photovoltaik der Hochschule Coburg erneuerbare Energien mit genauer Messtechnik unterstützt.

Minimale Abweichungen sind ok. „Aber wenn wir einen Liter Milch kaufen“, sagt Prof. Dr. Bernd Hüttl, „erwarten wir auch einen Liter.“ Nicht ein Tässchen mehr oder weniger. Der Professor für erneuerbare Energien der Hochschule Coburg versteht, dass die Kundschaft es genau nimmt. „Und bei der Photovoltaik wollen die Kunden eben genau wissen, wieviel Strom eine Anlage produziert. Die Banken als Geldgeber wollen es wissen.“ Die Hersteller würden es also gern exakt angeben, aber das ist nicht ganz einfach: Elektrische Parameter können zwar im Labor präzise gemessen werden, aber draußen verändern Wind und Wetter ständig die Bedingungen. Um solche Einflüsse wissenschaftlich zu untersuchen, betreibt die Hochschule Coburg ein Freiluftlabor auf dem Dach. Das Bundesforschungsministerium fördert das Projekt PV-FeldLab unter anderem mit dem Ziel, eine neue Messtechnik zu entwickeln.

Diffuse Strahlung
Das Leistungsverhalten und der Ertrag der Photovoltaik-Anlagen im so genannten Freifeld sollen damit genauso gut analysiert werden können wie im Labor. An dem Projekt arbeiten auch Studierende wie Tamara Beck mit: „Die natürliche Sonnenstrahlung besteht aus direkter, aber auch aus diffuser Strahlung“, erklärt sie. Diffuse Strahlung entsteht durch Streuung an Dunst oder Wolken. Sie dringt schlechter in die Solarmodule ein und reduziert etwas deren Wirkungsgrad, also die Effektivität. „Das muss bei Außenmessungen im Vergleich zu Laborbedingungen berücksichtigt werden.“ In ihrer Bachelorarbeit im Studiengang Energietechnik und Erneuerbare Energien hat Beck analysiert, wie stark die Reduktion der Effizienz bei natürlicher Solarstrahlung tatsächlich ist. „Das wurde erstmals untersucht.“ Hüttl freut sich, dass die Studentin mit den Messergebnissen auf dem Hochschuldach einen mathematischen Faktor bestimmt hat: Er zeigt, wie sich bei klarem Himmel die Energieausbeute einer Photovoltaikanlage durch die diffuse Strahlung reduziert – im Vergleich zur direkten Strahlung unter Laborbedingungen.

Coburg bei der europäischen Photovoltaikkonferenz
Becks Arbeit trägt zur exakten Kalibrierung der Photovoltaikmodule bei und fließt in eine größere Arbeit der Hochschule Coburg ein: Darwin Daume baut das Gesamtsystem zur Messung der elektrischen Leistung von Photovoltaikkraftwerken auf. Der Student hat bereits seinen Bachelor hier absolviert und schreibt nun seine Masterarbeit in Elektro- und Informationstechnik. Daume fügt verschiedene Methoden der Photovoltaikanalyse zu einem neuen Gesamtkonzept zusammen. Gemeinsam mit ihrem Professor präsentieren die Studierenden ihre Ergebnisse bei der EUPVSEC, der größten internationalen Photovoltaik-Konferenz Europas, die jedes Jahr im Herbst stattfindet. „In diesem Jahr leider nicht in Lissabon sondern nur online“, bedauert Hüttl. Er legt auch als Dekan der Fakultät Elektrotechnik und Informatik Wert darauf, dass die Studierenden möglichst viele, spannende Aspekte der Praxis kennen lernen. Im Oktober startet das neue Semester, und wie in den vielen anderen Studiengängen können sich Interessenten für Elektro- und Informationstechnik und für Energietechnik und Erneuerbare Energien im September noch bei der Hochschule Coburg bewerben. Tamara Beck fängt jetzt als Masterandin an. Darwin Daume arbeitet weiter am Messsystem.

Exakte Messung – weniger Ausfälle
„Die Genauigkeit der elektrischen Leistungsbestimmungen hat sich ja schon deutlich verbessert“, sagt Hüttl. Als er 2008 anfing, sich mit Photovoltaik zu beschäftigen, wurde die Leistung mit plus/minus fünf Prozent angegeben. Beim Liter Milch wären das 50 Milliliter mögliche Abweichung. Bei der Photovoltaik konnte die Messunsicherheit inzwischen auf etwa 1,5 Prozent gesenkt werden. „Unser neues Messverfahren wird auch helfen, die Standardisierung von Freifeldmessungen weiterzuentwickeln.“ Kommendes Jahr werde die neue Messmethode gemeinsam mit den Firmen IBC Solar und smart blue im Feld getestet. Alterungen und Fehler der Solarmodule sollen damit in Photovoltaik-Kraftwerken lokalisiert und Fehlertypen identifiziert werden, so dass die Betreiber eventuelle Ausfälle schnell erkennen oder sogar vorher vermeiden können.

(nach oben)


Neue Studie zeigt: Auch ältere Menschen profitieren von einer strikteren Blutdrucksenkung

Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Ende August wurde im „The New England Journal of Medicine“ eine Studie [1] publiziert, die aufhorchen lässt. Demnach erleiden ältere Menschen weniger Herz- und Gefäßerkrankungen, wenn ihr systolischer Blutdruckwert konsequent unter 130 mm Hg gesenkt wird. Im Vergleich zu Gleichaltrigen, deren Blutdruckwerte darüber lagen, war in der Gruppe der strikt eingestellten Patientinnen und Patienten die kardiovaskuläre Sterblichkeit um ein Viertel geringer und die Schlaganfallrate konnte sogar um ein Drittel gesenkt werden. Das Brisante an dem Ergebnis: Die europäischen Leitlinien der EHS/ESC empfehlen, bei über 65-Jährigen die systolischen Werte nicht unter 130 mm Hg zu senken. Zeit für ein Update?

Eine große chinesische Studie [1] mit mehr als 8.500 Teilnehmenden im Alter zwischen 60 und 80 Jahren verglich den Effekt einer strikteren Blutdrucksenkung (systolische Werte zwischen 110-130 mm Hg) mit dem einer weniger konsequenten (Werte zwischen 130-150 mm Hg) im Hinblick auf verschiedene kardiovaskuläre Endpunkte, darunter die kardiovaskuläre Sterblichkeit, das akute Koronarsyndrom, akute dekompensierte Herzinsuffizienz, Vorhofflimmern und Schlaganfall. Während des Follow-ups (im Median 3,34 Jahre) erlebten 147 Patientinnen und Patienten in der intensiv behandelten Gruppe einen der kardiovaskulären Endpunkte, in der Placebogruppe waren es lediglich 196 (p=0,007). Die HR (Hazard Ratio) betrug 0,74: Die striktere Blutdruckeinstellung konnte also jedes viertes Ereignis verhindern.

Betrachtetet man die einzelnen Endpunkte gesondert, war der Effekt bei einigen deutlich größer als bei anderen. Die Rate akuter Dekompensation der chronischen Herzinsuffizienz, ein u.U. lebensbedrohlicher Notfall, bei dem der Körper nicht mehr in der Lage ist, die Herzschwäche auszugleichen, war in der Gruppe der strikt eingestellten Patientinnen und Patienten auf ein Drittel reduziert (HR: 0,27) – zwei von drei kardialen Dekompensationen konnten also verhindert werden. Auch der Effekt der strikteren Blutdruckeinstellung auf die Schlaganfallrate und Rate des akuten Koronarsyndroms war beträchtlich. Die HR betrug für beide 0,67, es konnte also fast jeder dritte Schlaganfall und fast jedes dritte akute Koronarsyndrom verhindert werden.

„Dieser große Effekt ist insofern erstaunlich, da die Gruppen hinsichtlich ihrer real erreichten Zielwerte gar nicht so weit auseinanderlagen. Die mittleren systolischen Blutdruckwerte betrugen 126,7 mm Hg in der intensiv behandelten Gruppe und 135,9 mm Hg in der Vergleichsgruppe. Das bedeutet, dass selbst die weniger strikt behandelten Patientinnen und Patienten systolische Blutdruckwerte unter 140 mm Hg hatten, das ist die rote Linie, ab der die europäischen Leitlinien des ESC/ESH [2] erst generell eine medikamentöse Therapie empfehlen “, kommentiert Prof. Ulrich Wenzel, Vorstandsvorsitzender der Deutschen Hochdruckliga. „Doch gerade bei älteren Patienten sind wir großzügiger und tolerieren auch systolische Werte bis zu 140 mm Hg. Bei den über 65-Jährigen empfehlen die europäischen Leitlinien [2], die systolischen Werte nicht unter 130 mm Hg zu senken.“ Als Gründe führt der Experte an, dass es bei einer zu schnellen und zu tiefen Senkung zu Unwohlsein und Schwindel und in Folge zu Stürzen kommen kann und die Datenlage bislang so aussah, dass die Risiken den Nutzen zu überwiegen schienen. Auch in der vorliegenden Studie traten in der intensiv behandelten Gruppe mehr Fälle von Hypotonie auf (3,4% vs. 2,6%, p=0,03). Kritisch muss außerdem angemerkt werden, dass es sich in dieser Studienpopulation nicht wirklich um hochbetagte Menschen handelte. Zwar konnten Patientinnen und Patienten zwischen 60 und 80 Jahren eingeschlossen werden, das Durchschnittsalter betrug in dieser Studie aber letztlich „nur“ 66,2 Jahre.

„Mit den vorliegenden Daten müssen wir nun wahrscheinlich umdenken und zumindest die Altersgrenze von 65 Jahren für eine intensivere Therapie hinterfragen, denn der kardiovaskuläre Nutzen der strikteren Blutdruckeinstellung war doch erheblich“, so das Fazit von Professor Wenzel. Die amerikanischen Leitlinien [3] empfehlen ohnehin seit längerem auch bei älteren Patientinnen und Patienten eine konsequente Blutdrucksenkung auf Werte unter 130 mm Hg.

Referenz
[1] Zhang W, Zhang S, Deng Y et al. Trial of Intensive Blood-Pressure Control in Older Patients with Hypertension. NEJM, August 30, 2021. DOI: 10.1056/NEJMoa2111437
[2] Williams B, Mancia G, Spiering W et al.; ESC Scientific Document Group. 2018 ESC/ESH Guidelines for the management of arterial hypertension. Eur Heart J. 2018 Sep 1;39(33):3021-3104
[3] Whelton PK, Carey RM, Aronow WS et al. ACC/AHA/AAPA/ABC/ACPM/AGS/APhA/ASH/ASPC/NMA/PCNA Guideline for the Prevention, Detection, Evaluation, and Management of High Blood Pressure in Adults: A Report of the American College of Cardiology/American Heart Association Task Force on Clinical Practice Guidelines. J Am Coll Cardiol 2018; 71: e127-e248.

Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423

Weitere Informationen:
http://www.hochdruckliga.de

(nach oben)


Länderübergreifender Raumordnungsplan für den Hochwasserschutz in Kraft getreten

Christian Schlag Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
Am 1. September 2021 ist der länderübergreifende Raumordnungsplan des Bundesministeriums des Innern, für Bau und Heimat (BMI) für den Hochwasserschutz nach eingehenden Voruntersuchungen und nach umfassender Beteiligung der Öffentlichkeit und öffentlicher Stellen in Kraft getreten.

Am 1. September 2021 ist der länderübergreifende Raumordnungsplan des Bundesministeriums des Innern, für Bau und Heimat (BMI) für den Hochwasserschutz nach eingehenden Voruntersuchungen und nach umfassender Beteiligung der Öffentlichkeit und öffentlicher Stellen in Kraft getreten.

Dr. Markus Kerber, Staatssekretär im BMI: „Die jüngste Flutkatastrophe in Rheinland-Pfalz und in Nordrhein-Westfalen zeigt, dass es beim Hochwasserschutz nicht nur um herkömmliche Flusshochwasser gehen darf. Es sind auch Hochwasserereignisse in den Blick zu nehmen, die durch Starkregen hervorgerufen werden. Diese Ereignisse werden durch den Klimawandel weiter zunehmen. Daher müssen wir dem Wasser mehr Raum geben, und das Wasser muss überall so gut wie möglich im Boden versickern können.“

Entsprechend trifft der Raumordnungsplan neben Regelungen zum Hochwasserrisikomanagement, insbesondere im Hinblick auf Siedlungsentwicklung und Kritische Infrastrukturen, auch Regelungen zur Gewinnung und Freihaltung von Retentionsflächen sowie zur Erhaltung und Verbesserung des Wasserversickerungs- und Wasserrückhaltevermögens des Bodens.

Der Raumordnungsplan wurde vom BMI in Zusammenarbeit mit dem Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) entwickelt. Er soll das für den Hochwasserschutz primär zuständige Wasserrecht, aber auch die unterschiedliche Hochwasservorsorge der einzelnen Landesraumordnungsplanungen unterstützen.

Dr. Markus Eltges, Leiter des BBSR: „Hochwasser macht nicht an Landesgrenzen halt, daher müssen Schutzmaßnahmen die Flussgebiete als Ganzes erfassen. Mithilfe des länderübergreifenden Raumordnungsplans setzen wir erstmals bundesweit einheitlich geltende raumordnerische Standards in der Hochwasservorsorge. Jetzt kommt es darauf an, dass die Regelungen des Raumordnungsplans in den Ländern und vor Ort schnellstmöglich aufgegriffen und von der Wasserwirtschaft flankiert werden.“

Der länderübergreifende Raumordnungsplan für den Hochwasserschutz ist ein Vorhaben des Koalitionsvertrages von CDU/CSU und SPD. Weitere Informationen finden Sie unter: www.bmi.bund.de und www.bbsr.bund.de

Kontakt
Christian Schlag
Stab Direktor und Professor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
im Bundesamt für Bauwesen und Raumordnung (BBR)
Deichmanns Aue 31–37
53179 Bonn
Telefon: +49 228 99 401-1484
christian.schlag@bbr.bund.de

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) berät als Ressortforschungseinrichtung die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

(nach oben)


Totholz als Kohlenstoff-Speicher: Insekten beschleunigen den Abbau am Kilimanjaro

Christian Wißler Pressestelle
Universität Bayreuth
Weltweit bewirken klimatische Einflüsse, Insekten und andere Gliederfüßer sowie Mikroorganismen eine ständige Zersetzung von Totholz. Dieser natürliche Abbau setzt erhebliche Mengen von Kohlenstoff in die Umwelt frei und hat daher großen Einfluss auf den Kohlenstoff-Kreislauf der Erde. Dies belegt eine neue, in „Nature“ veröffentlichte Studie. In 55 Wald-Standorten auf sechs Kontinenten wurden Geschwindigkeit und Ursachen des Totholz-Abbaus untersucht. Dr. Andreas Hemp und Dr. Claudia Hemp von der Universität Bayreuth haben in diesem Rahmen den Totholz-Abbau in verschiedenen Klimazonen am Kilimanjaro erforscht.

Die beiden Biologen, die eine Forschungsstation am Kilimanjaro leiten, haben gemeinsam mit tansanischen Partnern zwei Waldflächen untersucht: eine Baumsavanne am Bergfuß des Kilimanjaro in 1.000 Metern Höhe, wo die mittlere Jahrestemperatur bei 23,9 Grad Celsius liegt, und einen Bergwald in 1.600 Metern Höhe. Hier ist es erheblich kühler, die mittlere Jahrestemperatur beträgt 16,5 Grad Celsius. Vor wenigen Jahren hat Dr. Andreas Hemp hier in einer Schlucht die höchsten Bäume Afrikas entdeckt. Wie sich bei den Messungen herausstellte, werden in der Baumsavanne jährlich etwa 21 Prozent des Totholzes auf natürlichem Weg abgebaut. Im etwas höher gelegenen Wald sind es hingegen nur 16 Prozent.

Der Unterschied ist darin begründet, dass in der Savanne erheblich mehr Insekten, vor allem Termiten, sowie zahlreiche andere Gliederfüßer (Arthropoden) heimisch sind. Sie dringen in das Totholz ein und leben von den darin enthaltenen Nährstoffen. In der Savanne gehen jährlich fast 30 Prozent des Totholzabbaus auf Insekten und andere Gliederfüßer zurück, im Bergwald ist ihr Einfluss hingegen nicht signifikant. Diesen Unterschied haben die Wissenschaftler festgestellt, indem sie auf beiden Untersuchungsflächen Totholz aufgeschichtet und in käfigartige undurchdringliche Netze eingehüllt haben. Unter den Netzen wurde der natürliche Holzabbau durch klimatische Einflüsse und Mikroorganismen, aber nicht durch Gliederfüßer vorangetrieben. Auch an allen anderen Wald-Standorten, die im Rahmen der weltweiten Studie untersucht wurden, dienten käfigartige Netze der Isolation des Totholzes von Insekten, Käfern und anderen Gliederfüßern.

„Unsere Untersuchungen belegen die wichtige Rolle des Zusammenwirkens von Klima und Gliederfüßern beim Totholz-Abbau in den Tropen. In einer weiteren, noch unveröffentlichten Studie zusammen mit Forschern der Universität Bern haben wir am Kilimanjaro beobachtet, dass die Totholzvorräte in mittleren Höhenlagen – also zwischen 1.500 und 3.000 Metern – deutlich höher liegen als weiter unten in der Baumsavanne. Hier finden Termiten, Käfer und andere Insekten offensichtlich besonders günstige Lebensbedingungen vor. Zugleich werden größere Totholzmengen in der Baumsavanne auch vom Menschen als Brennmaterial genutzt. Darüber hinaus ist zu berücksichtigen, dass die meisten Regenfälle am Kilimanjaro über den mittleren Höhenlagen niedergehen. Daher können Bäume hier sehr gut gedeihen, so dass auch aus diesem Grund die oberirdische Holzbiomasse – und somit auch die Menge des Totholzes – hier ihr Maximum erreicht“, sagt Dr. Andreas Hemp.

Vor kurzem hat er an einer anderen in „Nature“ veröffentlichten Studie mitgewirkt, die deutlich macht, welche große Bedeutung die tropischen Bergwälder Afrikas als Kohlenstoff-Speicher der Erde haben. Die oberirdische Biomasse dieser Bergwälder leistet einen erheblichen Beitrag zum Klimaschutz. „Unsere Untersuchungen haben ergeben, dass in den klimatisch unterschiedlichen Regionen des Kilimanjaro bis zu 37 Prozent der oberirdischen Holzbiomasse aus Totholz besteht. Insofern ist auch Totholz ein nicht zu unterschätzender Kohlenstoff-Speicher,“ sagt der Bayreuther Biologe.

„Die gesamte Bergregion des Klimamanjaro ist deshalb so faszinierend, weil sie sich auf mehrere Klimazonen verteilt, in denen ganz unterschiedliche Tier- und Pflanzenarten heimisch sind. Über das Zusammenwirken dieser Faktoren bei der Entstehung und dem Abbau von Totholz – und damit auch bei der Speicherung und Freisetzung von Kohlenstoff – ist im Einzelnen noch wenig bekannt. Hier sollten weitere Forschungsarbeiten ansetzen. Die Einflüsse der zunehmend intensiven Landnutzung durch den Menschen sollten dabei mitberücksichtigt werden,“ ergänzt Dr. Claudia Hemp.

Wissenschaftliche Ansprechpartner:
PD Dr. Andreas Hemp / Dr. Claudia Hemp*
Pflanzensystematik
Universität Bayreuth
Telefon: +49 (0) 921 / 55-2464 oder +49 (0)9246 / 980979
E-Mail: andreas.hemp@uni-bayreuth.de / claudia.hemp@uni-bayreuth.de
*Dr. Claudia Hemp ist zugleich Mitarbeiterin am Senckenberg Biodiversität und Klima Forschungszentrum (SBiK-F) in Frankfurt am Main.

Originalpublikation:
Seibold et al.: The contribution of insects to global forest deadwood decomposition. Nature (2021). DOI: https://dx.doi.org/10.1038/s41586-021-03740-8

(nach oben)


Woher kommt der Montagsblues? – Studie der Universität Leipzig zu gefühlt schwierigstem Arbeitstag der Woche

Susann Huster Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig
Der Montagsblues: Die meisten Menschen kennen das mulmige Gefühl zu Beginn der neuen Arbeitswoche. Es bindet bei Erwerbstätigen erstaunlich viel Energie und zehrt oft das Erholungspolster vom Wochenende schnell auf. Doch warum empfinden wir gerade den Montag oft als schwierigsten Tag der Arbeitswoche? – Der Arbeitspsychologe Dr. Oliver Weigelt und sein Team vom Institut für Psychologie – Wilhelm Wundt der Universität Leipzig haben sich in einer Studie mit dieser Thematik befasst und ihre Forschungsergebnisse im „Journal of Organizational Behavior“ veröffentlicht.

Im Rahmen einer Tagebuchstudie haben sie 87 Personen an zwei Wochenenden und in der dazwischenliegende Arbeitswoche morgens, mittags und nachmittags zu ihrem momentanen Erleben von Vitalität und Erschöpfung befragt. Außerdem wurden die Teilnehmenden morgens nach ihren Erholungserfahrungen am Vortag, nach ihrer Schlafqualität in der zurückliegenden Nacht und an Arbeitstagen zu ihren Erwartungen an den bevorstehenden Arbeitstag befragt. Am Ende von Arbeitstagen wurde zudem erfasst, wie sehr sich Personen an diesem Tag bei der Arbeit angestrengt hatten.

Entgegen der Empfindung des „Montagsblues“ fanden die Forschenden heraus, dass das Wohlbefinden montags nicht geringer ist als dienstags, mittwochs und donnerstags. „Der Kontrast zwischen Sonntag und Montag führt aber unter Umständen dazu, dass der erste Tag der Arbeitswoche als schlimmster Tag in der Woche wahrgenommen wird. Entgegen den Erwartungen fanden wir keine Belege dafür, dass Erschöpfung im Verlauf einer Arbeitswoche ansteigt“, sagt Weigelt. Vitalität und Erschöpfung entwickelten sich unabhängig von den beruflichen Anstrengungen, die Personen aufbringen.

Vorfreude auf neue Arbeitsaufgaben hilft gegen Montagsblues
Positive Erwartungen an den ersten Arbeitstag der Woche – also Vorfreude auf die bevorstehenden Aufgaben, helfen aber, möglichst viel von dem Schwung des Wochenendes mit in die neue Arbeitswoche zu nehmen und damit weniger Montagsblues zu erleben. Die Vitalität von erwerbstätigen Personen folgt einem Auf und Ab im Verlauf der Sieben-Tage-Woche. „Insbesondere am Übergang zwischen Wochenende und Arbeitswoche zeigen sich starke Veränderungen“, erklärt der Arbeitspsychologe weiter. Zum einen steige die Vitalität schon vor dem eigentlichen Beginn des Wochenendes im Sinne eines „Thank-God-It‘s-Friday“-Effekts. Dieser und die günstige Wirkung von Vorfreude zu Beginn der Arbeitswoche könnten negative Effekte der Arbeit ausgleichen.

Weigelt und sein Team fanden auch heraus, dass sich die Probandinnen und Probanden besser fühlten, wenn sie im Vergleich zur Arbeitswoche am Wochenende besser schlafen konnten. Umgekehrt zeigte sich bei ihnen ein Verlust im Wohlbefinden durch schlechtere Schlafqualität in der Nacht von Sonntag zu Montag. Aus Perspektive der Erholungsforschung sollten wir uns am Ende eines Wochenendes besser fühlen als vorher, weil die arbeitsfreie Zeit Gelegenheit bietet, den persönlichen Akku wiederaufzuladen. Dieser Überlegung widerspricht die empirische Forschung zum so genannten Montagsblues, die nahelegt, dass wir uns nach dem Wochenende schlechter fühlen als vorher. „Ziel unserer Studie war es, beide Perspektiven miteinander zu verbinden und besser zu verstehen, wann und wie sich das Wohlbefinden gemessen an Vitalität und Erschöpfung im Verlauf der Sieben-Tage-Woche verändert und wovon diese Veränderungen genau abhängen“, so Weigelt. Die Forschenden gingen davon aus, dass sich das Wohlbefinden im Verlauf des Wochenendes zwar kontinuierlich verbessert, aber beim Übergang vom Wochenende zurück zur Arbeitswoche mindestens einen Teil dieses aufgebauten Polsters wieder verbraucht ist, etwa weil Erwerbstätige ihren Tagesrhythmus umstellen müssen. Sie untersuchten außerdem vergleichend mögliche Ursachen für die Verbesserung des Wohlbefindens. Neben stark beforschten Erholungserfahrungen wie dem Abschalten von der Arbeit, der Entspannung, der Autonomie und dem Bewältigen von Herausforderungen analysierten sie insbesondere Veränderungen in der Schlafqualität.

Originalpublikation im „Journal of Organizational Behavior“:
„Continuity in transition: Combining recovery and day-of-week perspectives to understand changes in employee energy across the 7-day week“, doi.org/10.1002/job.2514

Wissenschaftliche Ansprechpartner:
Dr. Oliver Weigelt
Institut für Psychologie – Wilhelm Wundt der Universität Leipzig
Telefon: +49 341 9735956
E-Mail: oliver.weigelt@uni-leipzig.de

Weitere Informationen:
https://onlinelibrary.wiley.com/doi/10.1002/job.2514

(nach oben)


Boomender Klettersport: Verletzungen und Überlastungen an der Hand

Kathrin Reisinger Presse- und Öffentlichkeitsarbeit
Gesellschaft für Orthopädisch-Traumatologische Sportmedizin (GOTS)
Unsere Hände und vor allem die Finger sind zum Greifen gemacht. Im Alltag halten sie viele Bewegungen aus, ohne dass es je zu Überlastungen kommt. Anders sieht es im Klettersport aus. Der boomende Sport fordert die Aktiven zu immer kniffligeren Aktionen heraus. Epiphysenverletzungen, Ringbandverletzungen und Knotenbildungen in der Hohlhand können zum Beispiel die Folge sein.

In Deutschland entstehen immer mehr Kletterhallen. Längst ist der Klettersport nicht mehr an bestimmte Fels-Regionen gebunden. Und längst sind nicht mehr alle Sportler ausreichend trainiert, ehe es an bestimmten Abschnitten an den Wänden hoch hinaus geht.

Unter den Athleten der 10- bis 16-Jährigen, die sehr schnell sehr schwere Routen klettern, können Belastungen an den Wachstumsfugen der Finger entstehen. „Die Wachstumsfugen an den Fingergelenken werden, abhängig von den Klettergriffen und der Greif- und Klettertechnik, in Mitleidenschaft gezogen. Manchmal ist es sogar ein Bruch des Knochens“, erklärt Dr. med. Uwe Flötgen, Leitender Arzt der Sportorthopädie an der Klinik für Orthopädie des Heinrich-Braun-Klinikums Zwickau.

Schmerzen beim Festhalten und ein entsprechender Druckschmerz geben Hinweise. Je nach Verdacht erfolgt die weitere Diagnostik mittels Röntgen und/oder MRT. Liegen schwerwiegende Schäden vor, hilft nur noch eine Operation. Bei Epiphysenfugen-Verletzungen kann es zum Fehlwachstum des Fingers und zu vorzeitigem Gelenkverschleiß kommen.

Bei Kletterern, die viel an 1 oder 2 Fingerlöchern oder kleinen Leisten als Haltegriffe trainieren, können durch Belastungszüge an nur einem Finger ein oder mehrere Ringbänder reißen, welche die Beugesehnen halten müssen, so Flötgen. Hier erfolgt die Diagnostik per Ultraschall. Die Spannbreite der Therapie geht von einem Tape oder thermoplastischen Ring bis hin zur OP, wenn mehrere Ringbänder betroffen sind. Wird diese Verletzung nicht behandelt kann es zum „Bowstring-Phänomen“ kommen, bei dem die Sehne vom Knochen weggeht.

Weiterhin können Überlastungen zu Knotenbildungen und Verhärtungen in der Hohlhand führen. Der „Morbus Dupuytren“ ist meist bei 50 bis 60Jährigen anzutreffen. Doch bei Kletterern kann das schon Mitte 20 beginnen. Mikroverletzungen sorgen für eine Erkrankung der Hohlhandfaszie, einer straffen Bindegewebsschicht. Die Finger sind immer schwerer oder gar nicht mehr zu strecken, dazu kommen tastbare, teils schmerzhafte Knoten. Hierbei sind überwiegend Männer betroffen. In frühen Stadien sollte auf keinen Fall operiert werden. Per Nadelfasziotomie (Fibrosenperforation) werden die Dupuytren-Stränge so weit eingekerbt, bis sie gestreckt und zerrissen werden können. Alternativ kann aber die Injektion von Kollagenasen erfolgen. Enzyme lösen dabei das Kollagen auf.

Weitere Informationen:
https://www.zkos.de/

(nach oben)


TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Straßen als blaugrüne Oasen

Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss, um die Metropolen an die Folgen des Klimawandels anpassen zu können

Viel ist derzeit von der Schwammstadt im Zusammenhang mit den Flutereignissen, die sich Mitte Juli in Rheinland-Pfalz und Nordrhein-Westfalen ereigneten, die Rede. Schwammstadt bedeutet, dass eine Stadt in der Lage sein soll, bei Hochwasser und Starkregen das Wasser – eben wie ein Schwamm – aufzusaugen. Matthias Barjenbruch sieht diesen Begriff jedoch kritisch. Seiner Meinung nach erfasst er ein gravierendes Problem, worunter Städte zunehmend leiden, nicht: Es ist die Hitze. Städte werden zu Glutinseln, heizen sich für Menschen zum Teil lebensgefährlich auf. Anfang August herrschten in Athen über Tage 43 Grad Celsius, in der Nacht 30 Grad Celsius. „Deshalb müssen Städte auch in der Lage sein, Wasser zur Kühlung wieder verdunsten zu lassen. Dabei spielt die urbane Vegetation eine wichtige Rolle“, sagt der Professor für Siedlungswasserwirtschaft an der TU Berlin.

Starkregen und Hitzewellen beurteilt die Wissenschaft mittlerweile als Folgen des Klimawandels. „Für die Stadtentwicklung heißt das, dass vielfältige Strategien gleichzeitig und gleichrangig verfolgt werden müssen, damit sich die Städte diesen Klimafolgen anpassen können. Für die Nutzung städtischer Flächen bedeutet das, dass Straßen, Dächer, Fassaden, Gehwege, Spielplätze, Grünflächen, Parks, Parkplätze – nicht mehr nebeneinander, sondern in Bezug zueinander entwickelt und diese Flächen multifunktional genutzt werden müssen. Die Herausforderung für die Stadtentwickler besteht in einer transdisziplinären Planung aller Sektoren. Straßen-, Wasser-, Wohnungsbau, Grünflächen, Verkehr – alles muss zusammengedacht werden, um zu integrierten Lösungen zu gelangen“, sagt Matthias Barjenbruch.

Was es bedeutet, wenn Hitzeprävention und Vermeidung von Überflutungen bei Starkregen transdisziplinär angegangen werden müssen und Flächen wie der Straßenraum multifunktional werden mit dem Ziel, klimaangepasst zu sein, das untersucht ein Konsortium von acht Forschungseinrichtungen sowie Planungs- und Ingenieurbüros unter Beteiligung der TU-Fachgebiete Siedlungswasserwirtschaft und Ökohydrologie und Landschaftsbewertung in dem Projekt „BlueGreenStreets“ – als multicodierte Strategie zur Klimafolgenanpassungen“.

In diesem „BlueGreenStreets“-Konzept sind Straßen nicht nur Straßen, sondern werden zu sogenannten Retentionsräumen, also Räumen, die bei Starkregen die Wassermassen zurückhalten und auch ableiten können. Das kann dadurch geschehen, dass das Regenwasser dezentral im oder neben dem Straßenraum versickert wird, indem zum Beispiel die Parkstände für Autos tiefergelegt werden. Oder Straßen übernehmen bei Starkregen die Funktion von Notwasserwegen durch den Einbau von Mittelrinnen (V-Profil) in die Straßen, von Hochborden oder Schwellen. Dadurch kann das oberflächige Niederschlagswasser kontrolliert auf angrenzende Freiräume wie Parks, Grünflächen, Spielplätze oder unversiegelte Parkplätze geleitet werden, wo es versickert. Häuser, Straßen, aber auch die Kanalisation werden so vor Überflutung geschützt, und diese gezielte Ableitung des Niederschlages reduziert Überflutungsschäden. In Dürrephasen wiederum steht das versickerte Regenwasser der urbanen Vegetation zur Verfügung, kann über die Pflanzen verdunsten, was Kühlung bringt, und ist nicht über die Kanalisation abgeflossen.

Und Bäume sind in diesem Konzept mehr als Bäume. Sie fungieren als temporäre Zwischenspeicher, indem verschiedene Typen von Versickerungsbaumgruben angelegt werden. Ein solcher Versickerungsbaumgruben-Typ ist die Baumrigole. Das sind Versickerungsflächen für Regenwasser, das unter anderem von Dach- und Verkehrsflächen wie Parkplätzen zu den Bäumen geleitet wird. Unterirdisch werden die Baumrigolen durch ein Drainagesystem ent- und bewässert. Das ermöglicht, den Baum in Dürrephasen mit Wasser zu versorgen. Dadurch bleiben die Straßenbäume als Elemente der Wasserspeicherung, Verschattung, Verdunstung und Kühlung erhalten und können die starke Aufheizung von Gehwegen und Straßen bei Hitze mildern. Die Aufenthaltsqualität des Straßenraums verbessert sich. Zudem sind Baumrigolen so konstruiert, dass sie den Baumwurzeln genügend Raum geben. Lebenswichtig für die Bäume.

Weitere Elemente der Hitzeprävention sind im Straßenraum angelegte Verdunstungsbeete mit verdunstungsintensiven Pflanzen sowie begrünte Dächer und Fassaden. Hierbei übernehmen Dächer und Fassaden die zusätzliche Funktion eines Wasserspeichers und dienen ebenfalls der Verschattung, Verdunstung und damit der Kühlung des städtischen Raums.

All diese Beispiele zeigen, wie sich urbane Vegetation und urbanes Wasser bedingen. Ohne entsiegelte Flächen und intaktes städtisches Grün und ohne gezielte Nutzung des Regenwassers zum Erhalt des städtischen Grüns – keine Versickerungs-, Speicher- und Verdunstungsleistung bei Starkregen und Hitzeperioden. „Ziel von Stadtentwicklung muss es deshalb zukünftig sein, die urbane Vegetation mit der urbanen Wasserinfrastruktur zu koppeln, was bislang kaum geschieht, aber nur so können Starkregen und Hitzeperioden von der Stadt abgepuffert werden“, sagt Matthias Barjenbruch, dessen Team in dem Projekt „BlueGreenStreets“ die Schadstoffbelastung des Straßenwassers untersucht. Das Team des Fachgebiets Ökohydrologie und Landschaftsbewertung unter der Leitung von Prof. Dr. Eva Paton erforscht den Wasserverbrauch und die Verdunstungsleistungen von Stadtbäumen und Fassadenbegrünungen im urbanen Raum.

Das Vorhaben „BlueGreenStreets“ wird im Rahmen der Fördermaßnahme „Ressourceneffiziente Stadtquartiere für die Zukunft“ des Bundesministeriums für Bildung und Forschung gefördert.

Lesen Sie auch das Interview mit Prof. Dr. Eva Paton über den Zusammenhang von Dürre und extremem Starkregen und ihren Folgen: http://www.tu.berlin/go32586

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Matthias Barjenbruch
TU Berlin
Fachgebiet Siedlungswasserwirtschaft
E-Mail: matthias.barjenbruch@tu-berlin.de

Prof. Dr. Eva Paton und Dr. Björn Kluge
TU Berlin
Fachgebiet Ökohydrologie und Landschaftsbewertung
E-Mail: eva.paton@tu-berlin.de; bjoern.kluge@tu-berlin.de

(nach oben)


Neues Beratungstool für die Überflutungsvorsorge in Kommunen

Gerhard Radlmayr Zentrum für Forschung und Wissenstransfer
Hochschule Weihenstephan-Triesdorf
Im Verbundprojekt „Anreizsysteme für die kommunale Überflutungsvorsorge (AKUT)“ haben Forscher:innen der Hochschule Weihenstephan-Triesdorf (HSWT) und der Hochschule Mainz (HS Mainz) zusammen mit Praxis- und kommunalen Partnern ein Beratungstool entwickelt, das kommunale Mitarbeiter:innen und Fachplaner:innen dabei unterstützt, Überflutungsschäden in Kommunen vorzubeugen. Im Mittelpunkt steht der Ansatz, alle Akteur:innen zusammenzubringen, Zielkonflikte zu überwinden und gemeinsam effiziente Gesamtlösungen zu generieren. Um das zu erreichen, setzt die Methode auf ein ortspezifisches Optimierungs- und Anreizsystem.

Infolge des Klimawandels nehmen Starkregenereignisse, wie sie in diesem Sommer aufgetreten sind, in Häufigkeit und Intensität zu. Grundsätzlich können sie alle Regionen Deutschlands treffen. Deshalb ist die Überflutungssicherheit eine der zentralen Herausforderungen für die Siedlungsentwässerung. Bei dieser komplexen Aufgabe müssen verschiedene kommunale und private Akteur:innen, also zum Beispiel Bürger:innen, Landwirt:innen, lokale Wirtschaft und Forstwirtschaft, interdisziplinär zusammenwirken. Für ein wirksames Vorsorgekonzept ist es erforderlich, Maßnahmen umsetzen, die sowohl dem Einzelnen als auch der Allgemeinheit dienen. So ist es beispielsweise häufig so, dass Überflutungsschutzmaßnahmen auf Grundstücken von Privatleuten oder Unternehmen umgesetzt werden müssen.

Wesentliche Voraussetzung für eine fruchtbare Zusammenarbeit ist ein Verständnis der Überflutungsvorsorge als kommunale Gemeinschaftsaufgabe, die nur gemeinsam bewältigt werden kann. Derzeit fehlt bei den einzelnen Akteur:innen jedoch die Bereitschaft, sich einem optimierten Gesamtlösungsprozess unterzuordnen. Hierbei mangelt es häufig an entsprechenden Anreizen.

Damit alle an einem Strang ziehen: Ortsspezifische, optimierte Strategien
Diesem Problem begegnet das Beratungstool ‚AKUT‘. Es unterstützt Kommunen dabei, geeignete Vorkehrungen zu identifizieren und erleichtert so der lokalen Politik die Entscheidung über umzusetzende Maßnahmen. AKUT berücksichtigt dabei explizit das notwendige Zusammenwirken der verschiedenen Akteur:innen sowie die entsprechenden Anreize, welche diese dazu motivieren sollen, die Schritte umzusetzen. Das Tool kann nach kurzer Einarbeitung auch ohne IT-Fachwissen genutzt werden.

Anwender:innen zeichnen zunächst an möglichen Standorten Überflutungsschutzmaßnahmen zur Rückhaltung, beispielsweise Becken, Mulden, Flächen, oder Ableitung, zum Beispiel Rinnen, Gräben oder Böschungen, auf einer interaktiven Karte ein. AKUT bestimmt anschließend mittels eines mathematischen Modells eine optimale Auswahl aus diesen möglichen Maßnahmen. Dabei stellt es verschiedene Zusammenhänge dar, etwa die akteursbezogene Gefährdungslage und das zu erwartende Schadensausmaß, Wirksamkeit und Umsetzbarkeit der Vorsorgemaßnahmen sowie die erforderlichen individuellen Anreize. So ermittelt das Tool unter Berücksichtigung der ortspezifischen Gegebenheiten der Kommune und der Beteiligungsbereitschaft der verschiedenen Akteur:innen eine optimale Handlungsstrategie. Diese beinhaltet eine Kombination baulicher Maßnahmen inklusive der zugehörigen Kosten und erforderlichen Anreize. Kartendarstellungen vor und nach der Optimierung veranschaulichen die zu erwartende Wirkung auf die Gefährdungslage.

Die Leitung des vom Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU) geförderten Projekts lag bei Prof. Dr. Inka Kaufmann Alves von der HS Mainz, auf HSWT-Seite wurde es von Prof. Dr. Clemens Thielen durchgeführt. Neben den beiden Hochschulen waren an dem Vorhaben die igr GmbH und die Verbandsgemeinde Enkenbach-Alsenborn beteiligt. Unterstützt wurde es zudem durch die Verbandsgemeinde Nordpfälzer Land, die Kommunalwirtschaft Mittlere Bergstraße in Hessen, die Gemeinde Elxleben in Thüringen und das Ministerium für Klimaschutz, Umwelt, Energie und Mobilität Rheinland-Pfalz.

Das Beratungstool ‚AKUT‘ steht interessierten Kommunen und Fachplaner:innen zur Verfügung (siehe auch https://akut.hs-mainz.de). Anfragen nimmt das Team unter info-akut@hs-mainz.de entgegen.

Text: Christine Dötzer, Pressestelle HSWT

(nach oben)


Gewässermonitoring aus dem All

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Während Erdbeobachtungssatelliten des europäischen Copernicus-Programms ihre Kreise um die Erde ziehen, senden sie sehr viele Daten. Diese Informationen aus dem All sollen künftig für das Gewässermonitoring der Landesumweltämter nutzbar gemacht werden. Daran arbeiten Forscher:innen im Verbundprojekt „Erfassung der Wasserqualität und Wasserflächenausdehnung von Binnengewässern durch Fernerkundung“ (BIGFE) unter der Federführung des Helmholtz-Zentrums für Umweltforschung (UFZ).

Für das Monitoring von Küstenbereichen der Nord- und Ostsee werden Fernerkundungsdaten bereits routiniert und erfolgreich eingesetzt. Für die Überwachung von Binnengewässern ist das bislang noch nicht der Fall. „Das wollen wir ändern“, sagt der UFZ-Seenforscher Dr. Karsten Rinke. „Die Daten, die die Sentinel-Satelliten des europäischen Copernicus-Programms liefern, sind ein großartiger Datenschatz. Den gilt es für eine künftige Nutzung im Gewässermonitoring durch die Landesbehörden zu heben.“ Karsten Rinke leitet das im Juli gestartete Leuchtturmprojekt BIGFE, das das Bundesministerium für Verkehr und digitale Infrastruktur im Rahmen der Copernicus-Initiative fördert.

Das klassische Monitoring von Binnengewässern gemäß der EU-Wasserrahmenrichtlinie ist bislang mit einem hohen zeitlichen und personellen Aufwand verbunden. Darüber hinaus können die Ergebnisse aus den Untersuchungen vor Ort sowie der Auswertung des Probenmaterials im Labor immer nur einen Ausschnitt und eine kurze Momentaufnahme darstellen. Denn die Messgrößen wie Trübung, Temperatur oder Algenvorkommen können an verschiedenen Stellen eines Sees ganz unterschiedlich ausfallen und sich je nach Wetterlage, Gewässertyp und Einzugsgebiet auch schnell ändern. „Das liegt in den besonderen Eigenschaften von Gewässerökosystemen begründet, die sehr dynamische Systeme darstellen. Bei vielerorts üblicher monatlicher Beprobung können wichtige Episoden wie zum Beispiel Blaualgenblüten einfach übersehen werden. Hinzu kommt die räumliche Heterogenität, die insbesondere die Beurteilung des Zustands mehr als 100 Hektar großer Gewässer schwierig macht, wenn nur einmal in der Mitte des Sees eine Probe genommen wird“, erklärt Karsten Rinke. Die zusätzliche Nutzung von Fernerkundungsdaten könnte in der Kombination mit klassischen Monitoringmaßnahmen die Aussagekraft zum Gewässerzustand deutlich verbessern. „So steuern die Daten aus dem All aktuelle Informationen in höherer räumlicher und zeitlicher Auflösung bei und ermöglichen schnelle Managementreaktionen, wie es etwa bei einem massenhaften Auftreten von Blaualgen an Badestellen angezeigt ist“, sagt er. Satelliten-basierte Informationen können je nach Typ täglich bis wöchentlich bereitgestellt werden und weisen eine räumliche Auflösung zwischen 10 und 300 Metern auf.

Das UFZ arbeitet in dem Projekt mit dem Institut für Hygiene und Umwelt der Hamburger Behörde für Umwelt, Klima, Energie und Agrarwirtschaft, dem Institut für Seenforschung der Landesanstalt für Umwelt Baden-Württemberg sowie dem Sächsischen Landesamt für Umwelt, Landwirtschaft und Geologie zusammen. Der UFZ-Geowissenschaftler Prof. Kurt Friese koordiniert die Zusammenarbeit mit diesen Projektpartnern sowie weiteren Unternehmen und Behörden. „Landesbehörden aus zwölf Bundesländern stellen als Praxispartner für unsere Untersuchungen umfangreiche Datensätze aus ihren regelmäßigen Gewässeruntersuchungen zur Verfügung, die wir mit Fernerkundungsdaten aus den entsprechenden Zeiträumen in Beziehung setzen und miteinander abgleichen“, sagt Kurt Friese. „Durch die enge Einbindung der Praxispartner erreicht BIGFE eine länderübergreifende, harmonisierte Vorgehensweise in der Fernerkundung unserer Gewässer.“

Gewässerdaten von rund 100 Seen, Talsperren und Unterläufen von Fließgewässern führen die Seenforscher:innen hinsichtlich Wasserqualität und Wasserflächenausdehnung mit Fernerkundungsdaten aus den Jahren 2016 bis 2020 zusammen. Gemeinsam mit Fernerkundler:innen der Projektpartner sowie auf Fernerkundung spezialisierte Firmen gehen sie bei der Interpretation der Daten Fragen nach, die für eine künftige Nutzung für das Gewässermonitoring zentral sind: Welche Eigenschaften der Gewässer und welche Gewässertypen lassen sich mithilfe der Fernerkundung besonders gut, welche weniger gut charakterisieren? Wie hoch sind die Genauigkeit und Verlässlichkeit der Fernerkundungsdaten und wo liegen mögliche Fehlerquellen? Wie lässt sich der Mehrwert, der sich mit der Nutzung der Fernerkundung ergibt, in die behördliche Praxis der Gewässerüberwachung integrieren?

„Das sind einige der wichtigen Fragen, die wir in dem Projekt in den kommenden drei Jahren beantworten möchten“, sagt Rinke. „Das Ziel unseres Forschungsvorhabens ist, auf wissenschaftlicher Basis praxisorientierte Handlungsempfehlungen auszuarbeiten, die die Nutzung von Fernerkundungsdaten für das behördliche Gewässermonitoring ermöglichen. Wir hoffen, dass wir mit BIGFE einen Beitrag leisten können, damit der Datenschatz aus dem All künftig zum etablierten Standard des Gewässermonitorings zählt.“

Wissenschaftliche Ansprechpartner:
Dr. Karsten Rinke
Leiter des UFZ-Departments Seenforschung
karsten.rinke@ufz.de

Prof. Dr. Kurt Friese
UFZ-Department Seenforschung
kurt.friese@ufz.de

(nach oben)


Neue Studienerkenntnisse können helfen, Hochwasser-Prognosen zu verbessern

Rimma Gerenstein Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
• Internationales Forschungsteam beleuchtet Zusammenhänge von Starkregen und Überschwemmungen
• Zwei unterschiedliche Arten von Extremniederschlägen bergen unterschiedliche Hochwasserrisiken – auf die der Klimawandel auch jeweils anders einwirkt
• In Bayern werden Starkregen insgesamt künftig wohl zwei bis viermal häufiger vorkommen als heute

Der Klimawandel wird vor allem wegen der Zunahme intensiver Starkregenereignisse zu mehr und stärkeren Hochwassern und Fluten führen. Um einschätzen zu können, wie genau sich dabei die Hochwasserrisiken und die Ausprägung von Überschwemmungen verändern, hilft es insbesondere zwei unterschiedliche Arten von solchen Extremniederschlagsereignissen – schwächere und stärkere – zu betrachten. Diesen bislang wenig beforschten Aspekt hat nun eine internationale Gruppe von Wissenschaftler*innen rund um die Freiburger Hydrologin Dr. Manuela Brunner vom Institut für Geo- und Umweltnaturwissenschaften der Universität Freiburg und Prof. Dr. Ralf Ludwig von der Ludwig-Maximilians-Universität München (LMU) beleuchtet. Dabei stellten sie fest, dass die schwächeren und zugleich häufiger vorkommenden Extremniederschlagsereignisse (im Mittel alle rund 2 bis 10 Jahre) in Frequenz und Menge zunehmen, allerdings nicht zwangsläufig zu Überschwemmungen führen. An manchen Orten kann hierbei durch den Klimawandel das Hochwasserrisiko sogar wegen trockener werdenden Böden sinken. Ebenso nehmen die stärkeren und zugleich seltener vorkommenden Extremniederschlagsereignisse (im Mittel seltener als 50 Jahre – und wie im Juli 2021 in der Eifel ereignet) in Frequenz und Menge zu – dabei führen sie aber auch generell häufiger zu Überschwemmungen. Die Ergebnisse ihrer Studie veröffentlichte das Team in der Zeitschrift Communications Earth & Environment.

Mancherorts führt der Klimawandel zu geringerem Hochwasserrisiko
„Bei den stärkeren und zugleich selteneren Extremniederschlagsereignissen treffen so große Niederschlagsmengen auf den Boden, dass seine aktuelle Beschaffenheit kaum noch einen Einfluss darauf hat, ob es zu einer Überschwemmung kommt“, erläutert Manuela Brunner. „Seine Kapazität, Wasser aufzunehmen, wird relativ schnell erschöpft, ab da an fließt der Regen über die Oberfläche ab – flutet also die Landschaft.“ Anders verhalte es sich bei den schwächeren und zugleich häufigeren Extremniederschlagsereignissen“, so Brunner. „Hier ist die jeweils aktuelle Bodenbeschaffenheit entscheidend. Ist der Boden trocken, kann er viel Wasser aufnehmen und das Hochwasserrisiko ist gering. Liegt allerdings schon eine hohe Bodenfeuchte vor, kann es auch hier zu Überschwemmungen kommen.“ Da durch den Klimawandel viele Böden trockener werden, kann dort also das Hochwasserrisiko bei den schwächeren, häufigeren Extremniederschlagsereignissen sinken – nicht allerdings bei den seltenen, heftigen.

In Bayern nimmt Starkregen generell zu
Für das konkrete Beispiel Bayern sagen die Wissenschaftler*innen zudem voraus, wie dort die unterschiedlichen Extremniederschlagsereignisse zahlreicher werden. Schwächere, die in den Jahren von 1961 bis 2000 im Mittel etwa alle 50 Jahre auftraten, werden demnach im Zeitraum von 2060 bis 2099 doppelt so oft vorkommen. Stärkere, die im Zeitraum von 1961 bis 2000 im Mittel etwa alle 200 Jahre eintraten, werden sich in der Zukunft bis zu viermal häufiger ereignen.

„Bisherige Untersuchungen haben belegt, dass Niederschläge aufgrund des Klimawandels zunehmen werden, die Zusammenhänge zwischen Überschwemmungsstärken und schwereren Niederschlagsereignissen ist aktuell aber noch nicht ausreichend erforscht. Da haben wir angesetzt“, erklärt Manuela Brunner. Ralf Ludwig ergänzt: „Mithilfe unseres einzigartigen Datensatzes liefert diese Studie einen wichtigen Baustein zu einem dringend benötigten, besseren Verständnis des sehr komplexen Zusammenhangs von Starkniederschlägen und Abflussextremen.“ Dies könne auch helfen, um Hochwasserprognosen zu verbessern.

78 Gebiete untersucht
In seiner Analyse hat das Team für die Mehrzahl der 78 untersuchten Oberwassereinzugsgebiete in der Region um Inn, Donau und Main sogenannte Häufigkeitsschwellenwerte in der Beziehung zwischen zukünftiger Niederschlagszunahme und Hochwasseranstieg identifiziert. Diese ortsspezifischen Werte beschreiben, welche extremen Niederschlagereignisse – klassifiziert anhand ihrer auftretenden Häufigkeit –– wahrscheinlich auch zu verheerenden Fluten führen, wie etwa dem im Juli in der Eifel.

Für seine Untersuchung generierte das Forschungsteam ein großes Ensemble von Daten, indem es erstmalig hydrologische Simulationen für Bayern mit einem großen Ensemble an Simulationen mit einem Klimamodell koppelte. Die Modellkette wurde für die 78 Flusseinzugsgebiete auf historische (1961-2000) und wärmere zukünftige (2060-2099) Klimabedingungen angewandt. „Die Region um die Oberwassereinzugsgebiete von Inn, Donau und Main ist ein Gebiet mit ausgeprägter hydrologischer Heterogenität. Dadurch berücksichtigen wir in unserer Studie eine große Vielfalt an Hydroklimata, Bodentypen, Landnutzungen und Abflusswegen“, sagt Brunner.

Neben Brunner und Ludwig arbeiteten weitere Forschende der LMU, des US-amerikanischen National Center for Atmospheric Research und der University of California Los Angeles/USA an dem Projekt mit. Gefördert wurde die Forschungsarbeit unter anderem vom Bayerischen Staatsministerium für Umwelt und Verbraucherschutz, dem Bundesministerium für Bildung und Forschung sowie dem Schweizerischen Nationalfonds.

Wissenschaftliche Ansprechpartner:
Dr. Manuela Brunner
Institut für Geo- und Umweltnaturwissenschaften
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3509
E-Mail: manuela.brunner@hydrology.uni-freiburg.de
Twitter: @ManuelaIBrunner, @UHydroFreiburg

Originalpublikation:
Brunner, M. I., Swain, D. L., Wood, R.R., Willkofer, F., Done, J.M., Gilleland, E., Ludwig, R. (2021): An extremeness threshold determines the regional response of floods to changes in rainfall extremes. In: Communications Earth & Environment. DOI: 10.1038/s43247-021-00248-x

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/neue-studienerkenntnisse-koennen-helfen-h…

(nach oben)


Nickel- und Kobaltallergie im Friseurhandwerk – Neue Studie an der Universität Osnabrück

Dr. Utz Lederbogen Stabsstelle Kommunikation und Marketing
Universität Osnabrück
Friseurinnen und Friseure haben täglich einen längeren Hautkontakt mit einer Vielzahl von Metallwerkzeugen. Sie stellen durch die Freisetzung von Nickel und Kobalt ein erhebliches Gesundheitsrisiko in Bezug auf die Entwicklung von Allergien dar, wie eine Studie der Abteilung für Dermatologie, Umweltmedizin und Gesundheitstheorie der Universität Osnabrück zeigt, die im Journal of the European Academy of Dermatology and Venereology (JEADV 2021, 35, 965-972) veröffentlicht wurde.

Die Freisetzung von Nickel aus Metallwerkzeugen im Friseurhandwerk ist bekannt, Daten über die Freisetzung von Kobalt fehlten bislang. Ziel der an der Universität Osnabrück von Cara Symanzik durchgeführten Studie war es, das Auftreten von Nickel- und Kobaltallergien im deutschen Friseurhandwerk abzuschätzen.
Die junge Wissenschaftlerin untersuchte in Ihrer Masterarbeit 475 Metallwerkzeuge des Friseurhandwerks in drei norddeutschen Bundesländern, darunter Scheren, Abteilklammern, Haarclips, Pinzetten, Rasiermesser, Rührbesen, Handbrausen und Häkelnadeln, die bei der täglichen Arbeit benutzt werden und teilweise auch schon länger im Gebrauch waren. Siebzig Friseurinnen und Friseure wurden zusätzlich mit einem standardisierten Fragebogen befragt, um Daten über die getesteten Werkzeuge sowie die Prävalenz von Nickel- und Kobaltallergien zu erheben.

Nickel- und Kobalttestergebnisse
Der Chemo-Nickel-Test zeigte, das 131 von 475 Metallwerkzeugen (27,6 Prozent) Nickel freisetzen, beim Chemo-Kobalt-Test waren es 10 von 475 Metallwerkzeugen (2,1 Prozent). „Alle kobaltfreisetzenden Metallwerkzeuge setzten gleichzeitig Nickel frei und nickelfreisetzende Werkzeuge fanden sich in jedem besuchten Friseursalon unabhängig vom Preissegment und der geografischen Lage“, so Symanzik.

Die Nickel-Freisetzung war in der vorliegenden Studie besonders hoch. Dies könnte auf die Diversität der untersuchten Metallwerkzeuge zurückzuführen sein, so die Osnabrücker Autorin. Die Kobalt-Freisetzung war moderat im Vergleich zu Studien in anderen Berufsfeldern.

Aktuelle Daten zeigen, dass Nickel- und Kobaltallergien in der Berufsgruppe der Friseurinnen und Friseure häufig vorkommen. In der vorliegenden Studie litten 11,4 Prozent der 70 befragten Friseurinnen und Friseure an einer Nickelallergie und 2,9 Prozent zusätzlich an einer Kobaltallergie. „Eine beruflich bedingte Allergie stellt ein besonders Problem dar, die in schlimmsten Fall zum vorzeitigem Ausscheiden aus dem Beruf führen können“, erläutert Prof. Dr. Swen Malte John, der zusammen mit apl. Prof. Dr. Christoph Skudlik die Arbeit betreute. „Um eine Kontaktallergie zu vermeiden, sind präventive Maßnahmen unabdingbar.“

Die Studie zeigt, dass Metallwerkzeuge, die nach geltenden EU-Vorschriften (REACH-Verordnung) hergestellt werden, immer noch Quellen der Nickelbelastung sein können, zum Beispiel wenn die nickelfreie Beschichtung bei längerem Gebrauch nicht ausreichend ist. Grenzwertregelungen für die Verwendung von Kobalt in Metallwerkzeugen fehlen bislang, bemängeln die Autoren in der Veröffentlichung.

Die Masterarbeit von Cara Symanzik wurde in diesem Jahr mit einem Förderpreis der Universität Osnabrück ausgezeichnet, der von der Kreishandwerkerschaft Osnabrück gestiftet wurde.

Wissenschaftliche Ansprechpartner:
Cara Symanzik, B.Sc., M.Ed., Universität Osnabrück
Abteilung Dermatologie, Umweltmedizin, Gesundheitstheorie und
Institut für interdisziplinäre Dermatologische Prävention und Rehabilitation
Am Finkenhügel 7a, 49076 Osnabrück
Tel.: + 49 541 969 7448
E-Mail: cara.symanzik@uni-osnabrueck.de

Prof. Dr. med. Swen Malte John, Universität Osnabrück
Abteilung Dermatologie, Umweltmedizin, Gesundheitstheorie und
Institut für interdisziplinäre Dermatologische Prävention und Rehabilitation
Am Finkenhügel 7a, 49076 Osnabrück
Tel.: + 49 541 969 2357
E-Mail: johnderm@uni-osnabrueck.de

Originalpublikation:
Zur Veröffentlichung: https://onlinelibrary.wiley.com/doi/10.1111/jdv.17058
Experimental evaluation of nickel and cobalt release from tools and self-reported prevalence of nickel and cobalt allergy in the German hairdressing trade
C. Symanzik, C. Skudlik, S.M. John
Journal of the European Academy of Dermatology and Venereology, Volume 35, Issue 4

(nach oben)


Interdisziplinäres Forschungsteam untersucht Rolle der RNA bei der Entstehung des Lebens

Lena Reil Referat Hochschulkommunikation
Technische Universität Dortmund
Ging unserem heutigen Leben eine Welt voraus, die auf RNA als universellen Bausteinen basierte und erst später von DNA abgelöst wurde? In einem interdisziplinären Forschungsteam untersuchen Wissenschaftler*innen aus Dortmund und München, welche Rolle die Ribonukleinsäuren (RNA) bei der Entstehung des Lebens gespielt haben könnten. Die Arbeit zeigt, wie unter realistischen geologischen Bedingungen Prozesse, die für die Entstehung des Lebens bedeutsam gewesen sein mögen, durch physikalische Nichtgleichgewichtsprozesse begünstigt worden sein könnten. Die Erkenntnisse wurden kürzlich in der renommierten Fachzeitschrift Nature Chemistry veröffentlicht.

Während in heutigen Lebensformen die Desoxyribonukleinsäure (DNA) den Bauplan der Proteine, den Nanomaschinen des Lebens, enthält, spielt in der RNA-Welt-Hypothese deren Schwesterpolymer eine zentrale Rolle. Die Hypothese geht davon aus, dass das Leben aus sich selbst reproduzierenden RNA-Molekülen entstand, die vor der Evolution von DNA und Proteinen existierten. RNA kann beides sein, Informationsspeicher und Nanomaschine. Dies macht sie als Kandidat für das erste Biopolymer des Lebens besonders interessant, weil sie dadurch prinzipiell die Sequenz anderer RNA-Stränge kopieren kann und damit den Prozess der Darwin’schen Evolution hätte starten können.

Um die Aufgabe als Nanomaschine erfüllen zu können, muss sich die RNA jedoch ähnlich wie Proteine in eine korrekte und somit aktive Form falten – ein Prozess für den sie spezifische Anforderungen an ihre Umgebung stellt. Insbesondere benötigt sie dafür eine relativ hohe Konzentration an zweifach geladenen Magnesiumionen und eine möglichst geringe Konzentration an einfach geladenem Natrium, da letzteres zu einer Fehlfaltung der RNA-Stränge führen kann. Bisher war jedoch unklar, wie solche vorteilhaften Bedingungen durch präbiotisch plausible Prozesse erzeugt werden können.

Forschungskooperation zwischen Biophysik, Geowissenschaften und chemischer Biologie
In einem interdisziplinären Forschungsansatz konnten nun Wissenschaftler*innen der Ludwig-Maximilians-Universität (LMU) München und der TU Dortmund aus den Bereichen Biophysik, Geowissenschaften und chemische Biologie zeigen, wie aus damals wie heute hochverfügbarem Basalt und einfachen Wärmeflüssen das für die RNA-Faltung richtige Verhältnis zwischen Magnesium- und Natriumionen durch natürliche Prozesse bereitgestellt werden konnte.

Dafür wurden zuerst in der Arbeitsgruppe der Geowissenschaften von Don Dingwell und Bettina Scheu (LMU) die Basalt-Proben in verschiedenen Zustandsformen, Gestein oder Glas, synthetisiert. Das Basalt-Glas erhält man hierbei durch das rasche Abkühlen von geschmolzenem Basalt, ein natürlicher Prozess wie er seit der Existenz der Ozeane kontinuierlich auf der Erde stattfindet. In einem zweiten Schritt untersuchten die Biophysiker der Arbeitsgruppe von Dieter Braun und Christof Mast (LMU), welche Mengen an Magnesium und Natriumionen unter verschiedensten Randbedingungen, wie Temperatur oder Korngröße des Geomaterials, herausgelöst werden konnten. Hierbei zeigte sich, dass stets deutlich mehr Natrium ins Wasser gelangt als Magnesium – letzteres in viel geringeren Konzentrationen, als für die RNA-Nanomaschinen benötigt.

Betrachtet man nun jedoch das volle Bild mit Wärmeströmen, welche aufgrund der hohen geologischen Aktivität sehr wahrscheinlich vorhanden waren, ändert sich die Situation maßgeblich. In den feinen Kanälen, wie sie in basaltischem Glas leicht zu finden sind, führt ein solcher Wärmestrom zur gleichzeitigen Konvektion des Wassers und zu einer Drift der Salzionen entgegen des Wärmstroms. Dieser Thermophorese genannte Effekt ist dabei stark von der Ladungszahl und Größe der Ionen abhängig. In Kombination führen die Konvektion und Thermophorese schließlich dazu, dass sich Magnesiumionen viel stärker lokal anreichern als Natriumionen. Die Forscher konnten dabei zeigen, dass das unterschiedlich starke Aufkonzentrieren der Salze mit der Größe des Gesamtsystems zunimmt.

Die entsprechenden Test-Systeme in Form von katalytisch aktiven RNA-Strängen (Ribozym) wurde durch die Arbeitsgruppe von Hannes Mutschler (TU Dortmund) bereitgestellt. Insbesondere konnte das Team zeigen, dass die thermophoretischen Bedingungen die Selbstreproduktion eines Modell-Ribozyms deutlich verbessern. Den gleichen Effekt beobachteten sie auch für ein weiteres Ribozym, welches unter dem Einfluss der Thermophorese in der Lage war, mehrere kurze RNA-Stränge zu verknüpfen und damit sehr lange RNA-Moleküle zu erzeugen. Diese beiden grundlegenden biologischen Aktivitäten waren auch durch die Auftrennung der Natrium- und Magnesiumionen, wie sie in den thermophoretischen Systemen vorkommt, deutlich effektiver. Selbst sehr große Natrium-Überschüsse im Bereich von 1000:1 im Vergleich zu Magnesium, die in manchen prebiotischen Szenarien angenommen werden und mit der RNA-Katalyse nicht kompatibel sind, können durch das im Paper vorgestellte Szenario ausgeglichen werden, sodass die Ribozyme trotzdem ihre Arbeit verrichten können.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hannes Mutschler
Tel.: +49 231 755 8696
E-Mail: hannes.mutschler@tu-dortmund.de

Originalpublikation:
https://www.nature.com/articles/s41557-021-00772-5

(nach oben)


Mitteleuropas Vorgeschichte war sehr dynamisch

Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie
In einer neuen Studie analysierten Forschende der Max-Planck-Institute für Menschheitsgeschichte (Jena) und für evolutionäre Anthropologie (Leipzig) zusammen mit Kolleginnen und Kollegen des Instituts für Archäologie der Tschechischen Akademie der Wissenschaften (Prag) und weiteren Kooperierenden die Genome von 271 Menschen, die vor 7.000 bis 3.500 Jahren in Böhmen in der heutigen Tschechischen Republik lebten. Dabei stießen sie auf mindestens drei weitere Migrationsereignisse, die die Vorgeschichte Mitteleuropas geprägt haben.

Durch die zentrale Lage entlang der Handelswege und enge Anbindung an wichtige Wasserstraßen wie die Elbe zog Böhmen viele verschiedene archäologische Kulturen an, was es zu einer Schlüsselregion für das Verständnis der Vorgeschichte Europas macht. Ergänzend zu bisherigen Erkenntnissen über größere Expansionen, die mit der Ausbreitung des Ackerbaus und der „Steppen“-Herkunft verbunden waren, stellt diese neue Studie wenigstens drei weitere Expansionsereignisse heraus, die die Vorgeschichte Mitteleuropas prägten.

Genetische Profile von Menschen der Trichterbecher- und der Kugelamphoren-Kultur deuten darauf hin, dass diese erst kurz zuvor in die Region eingewandert waren. Der bisher als relativ ereignislos betrachtete Zeitraum zwischen der Einführung des Ackerbaus und der Ausbreitung der genetischen „Steppen“-Komponente scheint also dynamischer gewesen zu sein als bisher angenommen.

Drastische Veränderungen in der genetischen Landschaft
Die umfangreiche Stichprobennahme, die sich vor allem auf die späte Jungsteinzeit und frühe Bronzezeit (vor ca. 6.000-3.700 Jahren) konzentrierte, ermöglichte es den Forschenden auch neue Einblicke in soziale Prozesse zu gewinnen: Menschen der Schnurkeramik-Kultur expandierten aus Osteuropa und nahmen gleichfalls mitteleuropäische Frauen in ihre Gesellschaft auf, denen sie das gleiche Bestattungsritual zukommen ließen wie den Mitgliedern der eingewanderten Gruppe. „Endlich konnten wir wichtige zeitliche Lücken schließen, vor allem in der Übergangszeit vor etwa 5.000 Jahren, als sich die genetische Landschaft drastisch veränderte“, sagt Max-Planck-Forscher Wolfgang Haak, Hauptautor und Leiter der Studie. „Interessanterweise finden wir für diesen frühen Zeitpunkt Menschen mit einem hohen Anteil an „Steppen“-DNA und andere mit wenig oder gar keiner, die aber alle nach denselben Bräuchen beigesetzt wurden.“

Die Menschen der Schnurkeramik-Kultur (vor 4.900-4.400 Jahren) haben sich im Laufe der Zeit genetisch verändert. Eine wichtige Veränderung scheint der starke Rückgang der Vielfalt innerhalb der Y-Chromosomen-Linien gewesen zu sein. Während es bei Schnurkeramik-Männern anfangs fünf verschiedene Y-Linien gab, waren sie später fast ausschließlich Träger einer einzigen Y-Linie, stammten also überspitzt betrachtet von ein und demselben Mann der jüngsten Vergangenheit ab. „Dieses Muster könnte das Entstehen einer neuen sozialen Struktur oder einer neuen ‚Paarungsregelung‘ widerspiegeln, bei der nur eine kleine Auswahl von Männern die Mehrheit der Nachkommen gezeugt hat“, sagt Erstautor Luka Papac, Forscher am Max-Planck-Institut für Menschheitsgeschichte.

Diese Sozialstruktur scheint in der darauffolgenden Glockenbecher-Gesellschaft (vor 4.500-4.200 Jahren) noch strenger gewesen zu sein – jeder einzelne der untersuchten Männer gehörte einer einzigen, neu eingeführten Y-Linie an. Bemerkenswerterweise konnte diese Glockenbecher-Y-Linie nie zuvor in Böhmen nachgewiesen werden, was bedeutet, dass eine neue Bevölkerungsgruppe die Region besiedelte und alle vorher existierenden Y-Linien ersetzte, sodass bei den Glockenbecher-Männern keine einzige Abstammungslinie von Vertretern der Schnurkeramik oder früheren Gesellschaften nachgewiesen werden konnte.

Kulturelle, biologische und soziale Veränderungen
Wissenschaftlicher Konsens war bisher, dass die Aunjetitzer Kultur der frühen Bronzezeit von Vertretern der Glockenbecher-Kultur abstammt, eventuell mit einem begrenzten Erbgut-Beitrag aus dem südöstlichen Karpatenbecken. Mithilfe der neuen genetischen Daten belegen die Forschenden jedoch einen weiteren genetischen Umschwung aus den Regionen nordöstlich von Böhmen stammend. Interessanterweise treten auch 80 Prozent der frühen Aunjetitzer-Y-Linien neu in Böhmen auf – einige von ihnen konnten in den Genomen von damals in Nordosteuropa lebenden Nachkommen der Schnurkeramik nachgewiesen werden, was Hinweise zu ihrer Herkunft liefert. „Dieser Befund war für uns Archäologen sehr überraschend, da wir nicht erwartet hatten, so klare Muster zu erkennen, obwohl die Region eine entscheidende Rolle spielte, beispielsweise beim aufkommenden Handel mit Bernstein aus dem Baltikum. Darüber hinaus war die Region während der Bronze- und Eisenzeit ein wichtiger Handelsknotenpunkt“, fügt Mitautor und Co-Projektleiter Michal Ernée von der Tschechischen Akademie der Wissenschaften hinzu.

Die Ergebnisse zeichnen ein äußerst dynamisches Bild der Vorgeschichte Mitteleuropas mit zahlreichen und häufigen Veränderungen im kulturellen, biologischen und sozialen Gesellschaftsgefüge, was die Leistungsfähigkeit und das Potenzial detailreicher Regional-Studien wie dieser unterstreicht. Die Herausforderung bleibt jedoch, die sozioökonomischen, ökologischen und/oder politischen Gründe und Mechanismen hinter diesen Veränderungen zu verstehen, was für weitere zukünftige interdisziplinäre Studien zur europäischen Vorgeschichte viel Raum bietet.

Wissenschaftliche Ansprechpartner:
Luka Papac
Max-Planck-Institut für Menschheitsgeschichte, Jena
+49 178 3046-523
papac@shh.mpg.de

Dr. Wolfgang Haak
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig &
Max-Planck-Institut für Menschheitsgeschichte, Jena
+49 173 2122-174
wolfgang_haak@eva.mpg.de

Originalpublikation:
Luka Papac et al.
Dynamic changes in genomic and social structures in third millennium BCE central Europe
Science Advances, 25. August 2021, https://doi.org/10.1126/sciadv.abi6941

(nach oben)


Wie wir wohnen, leben, arbeiten werden

Dipl.-Soz. Peter Lonitz Presse- und Öffentlichkeitsarbeit
Schader-Stiftung
Interdisziplinäres Sommercamp vom 26. bis 29. August 2021 im Schader-Forum, Darmstadt

Wir möchten Sie herzlich bitten, über unser Sommercamp „Stadt und Land von morgen: Wie wir wohnen, leben, arbeiten werden“ vom 26. bis 29. August 2021 im Schader-Forum in Darmstadt zu berichten. Dafür laden wir Sie gerne zur nicht-öffentlichen Abschlusspräsentation des Sommercamps
am Sonntag, den 29. August 2021 um 13 Uhr
ins Schader-Forum in Darmstadt ein.

Zwanzig junge Menschen aus Studium, Wissenschaft und Praxis werden in vier Tagen interdisziplinärer Arbeit innovative Konzepte entwickeln, die als Anregung für Transformationsprozesse vor Ort dienen können. Die entstehenden Konzepte und Anregungen werden mit Mitarbeitenden des Projekts „Systeminnovation für Nachhaltige Entwicklung (s:ne)“ diskutiert und können in die Projektvorhaben einfließen. Beim Projekt s:ne handelt es sich um ein von der Bund-Länder-Initiative „Innovative Hochschule“ gefördertes Verbundprojekt der Hochschule Darmstadt und sechs direkter Partner aus Wissenschaft und Praxis.

Ausgangspunkt des Sommercamps ist eine Zeitreise ins Jahr 2026 und ein Rückblick auf den Sommer 2021. Die Corona-Pandemie lässt uns wie durch ein Brennglas auf die derzeitigen gesellschaftlichen Verhältnisse sehen. Die Einschränkungen zur Senkung des Infektionsrisikos ändern die Arten und Ausmaße der Mobilität, die Nutzung des öffentlichen Raums, die individuell gewählten Arbeitsorte und die Kommunikation. Vieles davon erzwingt Verzicht, löst Bedauern aus. Manches indes schafft individuelle Erleichterungen oder zeitigt zum Beispiel positive Effekte auf Klima und Umwelt.

Die Teilnehmenden aus gesellschaftswissenschaftlichen, planerischen, kreativen und anderen Fachdisziplinen werden sich zu interdisziplinären Teams zusammenfinden. Ausgewählt wurden die Teilnehmerinnen und Teilnehmer durch ein Bewerbungsverfahren, zu dem die Veranstaltergemeinschaft – die Akademie der Architekten- und Stadtplanerkammer Hessen, der Deutsche Werkbund Hessen, die Hochschule Darmstadt, die Schader-Stiftung und die Vereinigung für Stadt-, Regional- und Landesplanung (SRL) – eingeladen hat.

Unterstützt werden die Teams von Katharina Pelka, Stabsstelle Kultur- und Kreativwirtschaft, Stadt Heidelberg, Kjell Schmidt, Regionalpark Ballungsraum RheinMain GmbH, Flörsheim am Main, Roman Schmitz, Stiftung Humboldt Forum im Berliner Schloss, Berlin und Prof. Dr.-Ing. Ursula Stein, Stein Stadt- und Regionalplanung, Frankfurt am Main, die als Begleiterinnen und Begleiter des Sommercamps fungieren. Sie werden ihre Kompetenzen und Erfahrungen in die Arbeit der jungen Menschen einbringen.

Wir laden Sie herzlich ein, über das Sommercamp zu berichten.
Die Ausrichter würden sich über Ihr Kommen sehr freuen und bitten um Anmeldung.

Weitere Informationen:
https://www.schader-stiftung.de/sommercamp2021

(nach oben)


Information und Wissen haben heilsame Wirkung

Peter Kuntz Kommunikation & Marketing
Universität Trier
Ein Forschungsteam der Universität Trier hat gesundheitsfördernde Effekte durch Patientenedukation festgestellt. Dennoch führt die Maßnahme ein medizinisches Schattendasein.

Die Gesundheit von Patienten lässt sich durch die Vermittlung von Wissen über die eigene Krankheit nachweislich stabilisieren und sogar verbessern. Wissenschaftler der Universität Trier haben in einer gerade veröffentlichten Studie herausgearbeitet, dass sich bei vielen Krankheitsbildern durch eine Aufklärung der Betroffenen gesundheitsfördernde Effekte erreichen lassen.

„Im Vergleich zu komplexen und meist teuren operativen oder pharmakologischen Therapien ist die Patientenedukation eine einfache und effektive Methode zum Wohl der Patienten – und das ohne bekannte negative Nebenwirkungen“, sagt die Autorin der Studie, Dr. Bianca Simonsmeier-Martin.

Diese Erkenntnis ist nicht neu. Seit vielen Jahrzehnten wird in kleineren Einzelstudien zur Patientenedukation geforscht. In diesen Studien wurde jeweils eine spezifische Maßnahme für eine Stichprobe von Patienten mit einem bestimmten Krankheitsbild untersucht. Die Allgemeingültigkeit der Aussagen zur Wirksamkeit von Patientenedukation war daher bisher unklar.

Die Trierer Wissenschaftler Dr. Bianca Simonsmeier-Martin, Dr. Maja Flaig, Thomas Simacek und Prof. Dr. Michael Schneider haben in ihrer Metastudie 776 Einzelstudien aus den vergangenen 60 Jahren unter Beteiligung von insgesamt knapp 75.000 Patienten ausgewertet. Keine dieser Studien kam zu dem Ergebnis, dass Patientenedukation negative Folgen haben könnte.

„Unsere Metaanalyse hat sehr homogene Befunde und somit sehr robuste Ergebnisse und belastbare Aussagen ergeben“, stellt Bianca Simonsmeier-Martin fest. Patientenedukation erzielt demzufolge insbesondere bei chronischen Krankheiten die stärksten Effekte und bei Leiden, an deren Behandlung die Betroffenen durch eigenes Handeln im Alltag mitwirken können.

Unter dem Begriff Patientenedukation fassen die Trierer Psychologen alle Maßnahmen zusammen, die dazu dienen, Betroffenen Wissen und Fertigkeiten zu einer Krankheit und ihrer Behandlung zu vermitteln. Die Bandbreite reicht vom einfachen Thekengespräch in der Apotheke oder Infoblatt im Wartezimmer bis zu umfangreichen Trainings.

Angesichts der jahrzehntelang betriebenen Forschung und der nachgewiesenen Wirksamkeit stellt sich die Frage, warum Patientenedukation nicht intensiver und nicht schon viel länger als therapieunterstützendes Instrument eingesetzt wird. Bianca Simonsmeier-Martin erklärt das durch verschiedene Aspekte: „Der kulturelle Wandel, dass Patienten vom Arzt Informationen und ausführliche Aufklärung einfordern, hat erst spät stattgefunden. Patientenedukation ist in unserem Gesundheitswesen auch deshalb unterrepräsentiert, weil es schlichtweg für Ärzte schwer abrechenbar ist und möglicherweise auch, weil Medizinern die positive Wirkung von Patientenedukation zu wenig bekannt ist.“

Daher würde die Wissenschaftlerin der Universität Trier gerne auf diesem Gebiet weiter forschen und in Kooperation mit medizinischen Einrichtungen anwendungsbezogene Lösungen entwickeln, um Patientenedukation effektiv und pragmatisch zum Vorteil von kranken Menschen stärker zu etablieren. Anders als beispielsweise für die Einführung von Medikamenten gibt es für die Anwendung von Patientenedukation bisher keine einheitlichen Standards.

Wissenschaftliche Ansprechpartner:
Kontakt
Dr. Bianca Simonsmeier-Martin
Pädagogische Psychologie
+49 176-70341207
simonsm@uni-trier.de

Originalpublikation:
Die Studie
Bianca A. Simonsmeier, Maja Flaig, Thomas Simacek & Michael Schneider (2021)
What sixty years of research says about the effectiveness of patient education on health: a second order meta-analysis.
Health Psychology Review, https://doi.org/10.1080/17437199.2021.1967184

(nach oben)


Reduktion des Energieverbrauchs von Funknetzen: TUD mit zwei Clusterprojektanträgen erfolgreich

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Mit zwei BMBF geförderten Projekten kann die TUD künftig zur Verbesserung des Energieverbrauchs in Computersystemen und Datenfunknetzen beitragen – ein wichtiger Baustein im Kampf gegen die Klimakatastrophe

Im Rahmen des BMBF Innovationswettbewerb „Elektronik für energiesparsame Informations- und Kommunikationstechnik“ haben sich deutschlandweit 22 Teams beworben. Drei Anträge wurden auf Basis der Relevanz für Deutschland, Einsparpotentiale, Innovationshöhe und des Lösungsansatzes im Finale vom BMBF priorisiert – zwei stammen von der TU Dresden: E4C und DAKORE

Die Covid-19 Pandemie hat einmal mehr gezeigt, wie wichtig die Kommunikationstechnik für unser Leben und Arbeiten ist. Die zwei Projekte wollen den Energieverbrauch von Funkzugangsnetzen und den damit verbunden CO2-Ausstoß massiv reduzieren. Klimaschutz mittels innovativer Funktechnologien liegt als entscheidendes Thema passgenau bei der Forschungsstrategie der TU Dresden, welche sich als global bezogene Universität an der Bewältigung der großen Herausforderungen des 21. Jahrhunderts beteiligen möchte.

In Zukunft wird nicht das Rechnen selbst, sondern die Kommunikation in Computersystemen den Energieverbrauch dominieren. Im von Prof. Gerhard Fettweis und Dr. Meik Dörpinghaus koordinierten Projekt E4C soll dieser Verbrauch massiv reduziert werden. E4C steht für „Extrem Energieeffiziente Edge Cloud Hardware am Beispiel Cloud Radio Access Network“. Eine skalierbare Computerarchitektur wird entwickelt, welche aus optimierten Rechenknoten und einer neuartigen hybriden Datenbusstruktur aus elektrischen, optischen und drahtlosen Kommunikationsverbindungen aufgebaut ist. Diese kann z.B. in Edge-Servern für virtualisierte 5G-Funkzugangsnetze eingesetzt werden. Die Projektpartner sind TU Dresden (Vodafone Stiftungslehrstuhl für Mobile Nachrichtensysteme, Institut für Aufbau- und Verbindungstechnik, Professur für Compilerbau, Professur für Schaltungstechnik und Netzwerktheorie, Professur für Hochfrequenztechnik), eesy-IC GmbH, ficonTEC Service GmbH, First Sensor Microelectronic Packaging GmbH, GCD Printlayout GmbH, Micro Systems Engineering GmbH und VI-Systems GmbH. Das Projekt wird zudem begleitet von Nokia Bell Labs, Vodafone GmbH, GLOBALFOUNDRIES LLC & Co. KG, Cloud&Heat Technologies GmbH sowie National Instruments Corp.

DAKORE steht für „Datenfunknetz mit Adaptivhardware und KI-Optimierung zur Reduktion des Energieverbrauches“ und wird vom Team von Prof. Frank Ellinger geleitet. Sein großer Dank gilt Peter Brandl, Franz A. Dürrwald und Andreas Seidel für deren Einsatz bei der Antragsphase. Durch die bedarfsgerechte Optimierung auf stark variierende Performanz-Anforderungen soll der Energieverbrauch von 5G-Funkzugangsnetzen stark reduziert werden. Dazu wird ein holistischer Ansatz entwickelt, der erstmals die ganzheitliche und dynamische Adaptivität von Elektronikkomponenten als auch Software – von globalen KI-Algorithmen bis hin zur Transistorsteuerung unter Beibehaltung der Dienstgüte – verfolgt. Besonders wichtig ist hier die Senkung des Energieverbrauchs der Leistungsverstärker, welche bisher „Leistungsfresser“ sind. Die Projektpartner sind Technische Universität Dresden (Professur für Schaltungstechnik und Netzwerktheorie, Deutsche Telekom Professur für Kommunikationsnetze, Professur für Adaptive Dynamische Systeme), IMST GmbH, Xilinx Dresden GmbH, CampusGenius GmbH, A.N. Solutions GmbH, brown-iposs GmbH, atesio GmbH, Deutsche Funkturm GmbH, National Instruments Dresden GmbH, Deutsche Telekom AG (assoziiert), Ericsson (assoziiert), Vodafone GmbH (assoziiert), United Monolithic Semiconductors GmbH (assoziiert), X-FAB Silicon Foundries SE (assoziiert), Infineon Technologies AG (assoziiert) und Cloud&Heat Technologies GmbH (assoziiert).

Wissenschaftliche Ansprechpartner:
DAKORE:
Prof. Frank Ellinger
Tel. +49 351 463-38735
Mail: frank.ellinger@tu-dresden.de

Peter Brandl
Tel. +49 351 463-34794
Mail: Peter.Brandl@tu-dresden.de

E4C:
Prof. Gerhard Fettweis
Tel. +49 351 463-41000
Mail: gerhard.fettweis@tu-dresden.de

Dr. Meik Dörpinghaus
Tel.: +49 351 463 41 061
Mail: meik.doerpinghaus@tu-dresden.de

Weitere Informationen:
https://www.elektronikforschung.de/service/aktuelles/innovationswettbewerb-elekt…
https://www.bmbf.de/bmbf/shareddocs/pressemitteilungen/de/2021/08/190821-ICT-II….

(nach oben)


H2Giga: Serienfertigung von Elektrolyseuren

Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
H2Giga, eines der drei Wasserstoff-Leitprojekte des Bundesministerium für Bildung und Forschung (BMBF), ist an den Start gegangen. Mit seinen über 130 beteiligten Institutionen aus Wirtschaft und Wissenschaft, organisiert in fast 30 eigenständig arbeitenden Verbünden, wird H2Giga die Herstellung von Grünem Wasserstoff im industriellen Maßstab entwickeln. Am 26. August findet das Kickoff-Event von H2Giga mit Podiumsgesprächen von führenden Teilnehmern aus Industrie und Forschung und Dr. Stefan Kaufmann MdB, dem Innovationsbeauftragten „Grüner Wasserstoff“ des BMBF, statt. Die Veranstaltung wird aus dem DECHEMA-Haus in Frankfurt via Livestream öffentlich übertragen.

Mit einem vorgesehenen Fördervolumen von insgesamt etwa 740 Millionen Euro unterstützt das BMBF Deutschlands Einstieg in die Wasserstoffwirtschaft. Die Wasserstoff-Leitprojekte bilden einen zentralen Beitrag zur Umsetzung der Nationalen Wasserstoffstrategie und ermöglichen einen großen Schritt in Richtung eines nachhaltigen Energiesystems. In kürzester Zeit soll Deutschland eine führende Rolle in den Wasserstofftechnologien einnehmen und weiter ausbauen. Damit können Klimaschutz und Wirtschaft zunehmend in Einklang gebracht werden.

Mit Grünem Wasserstoff kann erneuerbare elektrische Energie in chemische Energie umgewandelt und damit speicherbar gemacht werden. Die Speicherung elektrischer Energie wiederum ist eine wesentliche Voraussetzung, um Deutschlands Energiewirtschaft auf regenerative Quellen umstellen zu können.

Die Herstellung von Wasserstoff aus Wasser und Strom, die „Elektrolyse“, ist ein seit langem bekannter Prozess, der mittlerweile eine beachtliche technische Reife errungen hat. Aktuell ist diese Technologie jedoch noch nicht in großen, für das gesamte Energiesystem relevanten Maßstäben vorhanden. Die Elektrolyseure werden derzeit noch weitgehend in Handarbeit aufgebaut, mit entsprechend hohem Kostenaufwand und geringer Fertigungskapazität. Hier greift das Leitprojekt H2Giga, indem es die Industrialisierung der Wasserelektrolyse zur Herstellung von Grünem Wasserstoff vorbereitet und vorantreibt. Die Partner von H2Giga entwickeln für die Herstellung von Elektrolyseuren Fertigungstechnologien, Automatisierung, Digitalisierung und Methoden zur Qualitätskontrolle, so dass die heute noch überwiegende Fertigung mit geringer Automatisierungstiefe auf eine industrielle Serienproduktion für den entsprechenden Markthochlauf umgestellt werden kann.

Am Leitprojekt H2Giga sind die führenden Hersteller dieser Technologie beteiligt, wie Siemens Energy, Linde, MAN Energy Solutions, Thyssenkrupp und Sunfire. Ebenso geforscht wird an Technologien mit besonders hohem Innovationsgrad, sozusagen an einer zweiten Generation von Elektrolyseuren, wobei Unternehmen wie Schaeffler, Enapter und die neu gegründete WEW GmbH beteiligt sind. Von wissenschaftlicher Seite arbeiten renommierte Universitäten und Forschungseinrichtungen, darunter die RWTH Aachen University, zahlreiche Fraunhofer-Institute sowie Institute der Helmholtz-Gemeinschaft und der Max-Planck-Gesellschaft, an den Themen Materialforschung, Lebensdauer & Zelltests, Recycling, Fertigungstechnologien und Digitalisierung. Insgesamt ist für diese Aktivitäten eine Fördersumme von etwa 500 Millionen Euro vorgesehen.

DECHEMA e.V. koordiniert im Leitprojekt H2Giga den Austausch der Partner aus Wissenschaft und Industrie. Er soll der Booster für die Entwicklungs- und Innovationsgeschwindigkeit bei der Implementierung von Grünem Wasserstoff sein, Synergien heben und Entwicklungshürden überwinden. Das Ziel von H2Giga ist die Grundsteinlegung für eine wettbewerbsfähige Herstellung von Grünem Wasserstoff im Gigawatt-Maßstab, damit dieser Schlüssel der Energiewende verfügbar und bezahlbar werden kann.

Als Kickoff-Veranstaltung für H2Giga werden Projektpartner aus Industrie und Forschung am 26.8.2021 von 10:00h bis 13:00h in moderierten Podiumsgesprächen ihr Vorhaben vorstellen. DECHEMA lädt alle Pressevertreter*innen herzlich zu diesem Event ein.
Der Livestream ist ohne Anmeldung unter folgendem Link abrufbar:
https://www.wasserstoff-leitprojekte.de/h2giga-start.
Die Präsenz-Teilnahme in Frankfurt erfordert wegen pandemiebedingter Restriktionen eine Anmeldung über die untenstehenden Kontaktdaten.

Über die Wasserstoff-Leitprojekte:
Die BMBF-geförderten Wasserstoff-Leitprojekte sind das Ergebnis eines Ideenwettbewerbs: Wissenschaft, Wirtschaft und Zivilgesellschaft waren eingeladen, Ideen zu Wasserstoff-Großprojekten einzureichen. Über 240 Partner haben sich so zusammengefunden und sollen mit insgesamt etwa 740 Millionen Euro gefördert werden. Im Frühjahr sind die Projekte auf Basis unverbindlicher Förder-Inaussichtstellungen gestartet. Die Leitprojekte werden über eine Laufzeit von vier Jahren gefördert. Weitere Informationen unter http://www.wasserstoff-leitprojekte.de.

Wissenschaftliche Ansprechpartner:
Johanna Richter (DECHEMA e.V.): johanna.richter@dechema.de Tel.: +49 69-7564-307

Weitere Informationen:
https://www.wasserstoff-leitprojekte.de/h2giga-start – Livestream zum Kickoff-Meeting
http://www.wasserstoff-leitprojekte.de – Übersicht der Wasserstoff-Leitprojekte

(nach oben)


Corona-Spürhunde: Diag’nose‘

Sonja von Brethorst Presse- und Öffentlichkeitsarbeit
Stiftung Tierärztliche Hochschule Hannover
Schweiß, Urin oder Speichel – Hunde können an unterschiedlichen Körperflüssigkeiten mit hoher Genauigkeit

Ein Forschungsteam unter Leitung der Stiftung Tierärztlichen Hochschule Hannover (TiHo) veröffentlichte in Zusammenarbeit mit der Bundeswehr, der Medizinischen Hochschule Hannover und dem Universitätsklinikum Hamburg-Eppendorf in der Fachzeitschrift BMC Infectious Diseases eine Studie und einen Übersichtsartikel über Corona-Spürhunde. Die neue Studie zeigt, dass der Nachweis SARS-CoV-2-infizierter Personen unabhängig davon ist, welche Körperflüssigkeit den Hunden präsentiert wird. Sie bestätigt zudem, dass Hunde in der Lage sind, die Infektion schnell und sicher zu diagnostizieren und dass die freigesetzten flüchtigen organischen Verbindungen, die die Hunde riechen, unabhängig von der infizierten Körperzelle sind. Für medizinische Spürhunde scheinen alle getesteten Körperflüssigkeiten in ähnlicher Weise geeignet zu sein, um SARS-CoV-2-Infizierte zuverlässig zu erkennen.

Die Studie
Für die Studie setzte das Forschungsteam zehn spezialisierte Spürhunden der Bundeswehr ein. Nach einem speziellen Training waren sie in der Lage, 92 Prozent der über 5.000 vorgelegten Proben korrekt zu identifizieren. Die Hunde wurden ausschließlich mit Speichelproben trainiert, in der Studie mussten sie aber auch Urin- und Schweißproben auf die flüchtigen organischen Verbindungen, die die Zellen SARS-CoV-2-positiver Menschen produzieren, kontrollieren. Die Proben wurden automatisiert nach dem Zufallsprinzip verteilt – weder die beteiligten Hundeführer noch die Forschenden vor Ort wussten, welche Proben positiv waren und welche zu Kontrollzwecken dienten. Die Hunde waren in der Lage, zwischen Proben infizierter und nicht infizierter Personen mit einer durchschnittlichen diagnostischen Sensitivität und Spezifität von 95 Prozent bzw. 98 Prozent für Urin, 91 Prozent bzw. 94 Prozent für Schweiß und 82 Prozent bzw. 96 Prozent für Speichel zu unterscheiden. Die Sensitivität bezieht sich auf den Nachweis von positiven Proben. Die Spezifität bezieht sich auf den Nachweis negativer Kontrollproben. Die SARS-CoV-2-positiven Proben stammten von infizierten Personen mit und ohne Symptomen.

Der Geruchssinn des Hundes
Seit Beginn der Domestizierung nutzt der Mensch die außergewöhnlichen Geruchsfähigkeiten von Hunden, um Beute zu jagen, aber auch, um sich selbst vor Raubtieren zu schützen. Heutzutage werden Hunde zunehmend auch im Bereich der medizinischen Forschung zur Geruchserkennung eingesetzt. Sie sind in der Lage, infektiöse und nicht-infektiöse Krankheiten wie verschiedene Krebsarten, Malaria, bakterielle und virale Infektionen zu erkennen (Jendrny et al., 2021). Der Geruchssinn des Hundes ist unübertroffen und mit dem Geruchssinn des Menschen nicht zu vergleichen; Hunde haben mehr als 1.000 Gene für die Olfaktion, eine höhere Nasenoberfläche, einen optimierten Luftstrom zum Riechen, 40-mal mehr Riechrezeptorzellen (200 bis 300 Millionen gegenüber 5 bis 8 Millionen beim Menschen) und ein zusätzliches Geruchssystem (vomeronasales Organ) um einige Beispiele zu nennen. Ein Exempel veranschaulicht die Geruchsfähigkeit von Hunden: Ein Hund ist in der Lage den Tropfen einer Flüssigkeit in 50.000.000 Litern Wasser, das entspricht 20 Schwimmbecken olympischer Größe, zu erkennen.

Machbarkeitsstudie „Back to Culture“
Erst kürzlich hatte das Niedersächsische Ministerium für Wissenschaft und Kultur angekündigt, die Studie „back to culture“ mit 1,5 Millionen Euro zu unterstützen. In Zusammenarbeit mit der Medizinischen Hochschule Hannover, dem Universitätsklinikum Hamburg-Eppendorf, Hannover Concerts, Proevent, Kynoscience, Awias Aviation Services und der Bundeswehr wollen die TiHo-Forschenden in die Erkenntnisse in die Praxis testen. Sie werden auf das Coronavirus trainierte Spürhunde in diesem Herbst bei mehreren Musikveranstaltungen einsetzen und mit Antigen- und rtRT-PCR-Tests vergleichen. Dies wird weitere Erkenntnisse darüber liefern, wie Corona-Spürhunde am besten bei der Detektion infizierten Menschen eingesetzt werden können.

Dr. Esther Schalke, EBVS® spezialisierte Verhaltensforscherin und Oberstabsveterinär an der Schule für Diensthundewesen der Bundeswehr, sagte: „Diese Studie ist ein weiterer Beweis für das Potenzial, das Geruchssuchhunde bei der Bekämpfung der aktuellen Pandemie haben könnten. Es ist schwer vorstellbar, aber die Geruchserkennung von Hunden ist um drei Größenordnungen empfindlicher als die derzeit verfügbaren Instrumente.“

Professor Albert Osterhaus, PhD, Research Center for Emerging Infections and Zoonoses der TiHo, sagte: „Es ist bekannt, dass infektiöse Atemwegserkrankungen spezifische flüchtige organische Verbindungen freisetzen können. Unsere Studie zeigt, dass Hunde diese flüchtigen organischen Verbindungen in verschiedenen Körperflüssigkeiten als Muster erkennen können.“

Professor Holger A. Volk, PhD, Klinik für Kleintiere der TiHo, sagte: „Alle wissenschaftlichen Mosaiksteinchen fügen sich nun zusammen und ergeben ein klares Bild: Der Geruchssinn des Hundes eignet sich hervorragend für die Erkennung von SARS-CoV-2-infizierten Personen. Zukünftige Studien im Feld sind nun notwendig, um zu zeigen, wie Hunde am besten eingesetzt werden können.“

Die Originalpublikationen
Jendrny, P., Twele, F., Meller, S. et al. Scent dog identification of SARS-CoV-2 infections in different body fluids. BMC Infect Dis 21, 707 (2021). https://doi.org/10.1186/s12879-021-06411-1
Jendrny, P., Twele, F., Meller, S. et al. Canine olfactory detection and its relevance to medical detection BMC Inffect Dis (2021) https://doi.org/10.1186/s12879-021-06523-8
First publication in the field: Jendrny, P., Schulz, C., Twele, F. et al. Scent dog identification of samples from COVID-19 patients – a pilot study. BMC Infect Dis 20, 536 (2020). https://doi.org/10.1186/s12879-020-05281-3

Wissenschaftliche Ansprechpartner:
Professor Holger Volk, PhD
Stiftung Tierärztliche Hochschule Hannover
Klinik für Kleintiere
Tel.: +49 511 953-6202
holger.volk@tiho-hannover.de

Professor Dr. Albert Osterhaus
Stiftung Tierärztliche Hochschule Hannover
Research Center for Emerging Infections and Zoonoses
Tel.: +49 511 953-6140
albert.osterhaus@tiho-hannover.de

Professorin Dr. Maren von Köckritz-Blickwede
Stiftung Tierärztliche Hochschule Hannover
Research Center for Emerging Infections and Zoonoses
Tel.: +49 511 953-8787
maren.von.koeckritz-blickwede@tiho-hannover.de

Weitere Informationen:
http://www.tiho-hannover.de/pressemitteilungen

(nach oben)


Der Untergang der Europäischen Flusskrebse: Wenn Wirtschaft über Naturschutz siegt

Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Der europäische Flusskrebs wird seit rund 150 Jahren von der Krebspest dahin gerafft. Angesichts dieser Entwicklung wurden aus wirtschaftlichen Gründen gezielt nordamerikanische Signalkrebse in Flüsse und Bäche ausgesetzt. Das massenhafte Sterben der einheimischen Krebse hat sich dadurch noch mehr beschleunigt statt verlangsamt. Wissenschaftler*innen des Senckenberg und anderen europäischen Forschungseinrichtungen berichten in „Frontiers in Ecology and Evolution“, wie es dazu kam und welche Lehren sich daraus ziehen lassen. Am europäischen Flusskrebs sei ersichtlich, dass es mehr schade als nütze gebietsfremde Arten einzuführen, um verlorene Bestände einheimischer Arten zu ersetzen

Dies ist die Geschichte einer gewaltigen Fehlentscheidung, die im Jahr 1860 beginnt. In diesem Jahr wird erstmals beobachtet, dass europäische Flusskrebse (Astacus astacus), auch Edelkrebse genannt, in großer Anzahl sterben. Verantwortlich ist ein Scheinpilz, der die – zumindest für europäische Flusskrebse tödliche – Krebspest verursacht. Rund einhundert Jahre später, 1960, hatte die Krankheit die Bestände der Edelkrebse bereits beträchtlich dezimiert. Um den Verlust zu kompensieren, wurde deshalb u.a. in Finnland, Schweden, Österreich und Spanien der nordamerikanische Signalkrebs (Pacifastacus leniusculus), der immun gegenüber der Krebspest zu sein schien, in Flüssen und Seen ausgesetzt. Heutzutage hat der Signalkrebs die Oberhand in Europas Gewässern. Und der Edelkrebs? Der ist nach zahlreichen Krebspestwellen inzwischen vom Aussterben bedroht.

„Der Signalkrebs wurde mittlerweile in 28 europäischen Ländern nachgewiesen. Der Einwanderer ist zwar gegen die meisten Krebspest-Erregerstämme resistent, aber er kann den Erreger übertragen. Als man die Tiere massenhaft ausgesetzt hat, hat man dem Edelkrebs daher gleichsam den Todesstoß verpasst“, sagt Dr. Kathrin Theissinger vom Senckenberg Biodiversität und Klima Forschungszentrum und der Universität Koblenz-Landau. Der Signalkrebs gilt in Europa inzwischen als invasive Art und damit als einer der fünf maßgeblichen Faktoren, die weltweit zum Verlust biologischer Vielfalt führen. Theissinger dazu: „Brisant ist, dass der Signalkrebs nicht zufällig in europäische Gewässer gelangt ist, sondern bewusst und wiederholt trotz wissenschaftlicher Bedenken eingebracht wurde und wird“.

Gemeinsam mit Kolleg*innen der Universität Ostfinnland, der Schwedischen Universität für Agrarforschung, des obersten spanischen Wissenschafler-Rates CSIC und der Universität Zagreb zeigt Theissinger in einer Studie auf, wie es dazu kommen konnte. Hauptursache ist der kommerzielle Wert von Flusskrebsen, denn die Tiere stehen seit Jahrhunderten auf Europas Speiseplan. Der Fang der ausgesetzten und sich alsbald entwickelnden Wildbestände der Signalkrebse sollte die wirtschaftlichen Verluste durch den Wegfall der einheimischen Krebse ersetzen. Langfristige ökologische Folgen der Aussetzung einer gebietsfremden Art wurden dem untergeordnet. Zudem wurde der Signalkrebs als gewinnträchtige Art beworben und damit die illegale Aussetzung neben der offiziellen Aussetzung in Gewässer noch gefördert.

Ein weiterer Punkt der zum Untergang der Edelkrebse geführt hat, sind falsche und verzerrte Informationen um den ‚guten Namen‘ des Einwanderers zu schützen. „Es wurde nicht kommuniziert, dass Pacifastacus leniusculus den Erreger der Krebspest an einheimische Arten übertragen kann und wiederholt behauptet, dass Signalkrebse – im Gegensatz zu den einheimischen Arten – gegen den Krebspest-Erreger immun wären. Damals war bereits klar, dass dies nicht für alle Untertypen des Erregers zutrifft. Als sich die Bestände der Signalkrebse nicht wie versprochen entwickelten, wurde die Prognose nicht korrigiert. Einzelne Akteure haben zudem absichtlich versucht, Argumente gegen gebietsfremde Arten in Argumente gegen einheimische Flusskrebse zu verdrehen“, fasst Theissinger zusammen.

Welche vielschichtigen Folgen der dramatische Rückgang der einheimischen Krebse hat, ist noch nicht genau abschätzbar, da derartige Änderungen in Ökosystemen oft erst langfristig sichtbar werden. „Flusskrebs ist nicht gleich Flusskrebs. Die ökologischen Unterschiede gebietsfremder Arten sind oftmals mannigfaltig und der Effekt auf das Ökosystem schwer zu prognostizieren.“, erklärt Theissinger. Eine gezielte Ausrottung der Signalkrebse ist nur in begrenzten Wasserflächen wie Teichen möglich. In Gewässern, die eng miteinander verbunden, wie es häufig in Skandinavien der Fall ist, ist dies praktisch aussichtslos. Eine Korrektur des Fehlers wird also schwierig.

Einen Rettungsplan für die Edelkrebse haben die Wissenschaftler*innen trotzdem erarbeitet. Demnach sollten die Aussetzung, der Fang sowie der Verkauf gebietsfremder Krebse als Lebensmittel verboten werden, Populationen der gebietsfremden Krebse beobachtet und – soweit möglich – neue Populationen ausgerottet werden, die Öffentlichkeit für das Problem invasiver Krebse sensibilisiert und der nachhaltige Fang einheimischer Krebse geprüft werden. „Wir, die Gesellschaft, müssen unsere Umwelt stärker als Ganzes wahrnehmen und ein funktionierenden Ökosystems wertschätzen. Der Signalkrebs ist der am weitesten verbreitete gebietsfremde Krebs in Europa, es gibt aber auch andere gebietsfremde Krebsarten. Um das Aussterben des Europäischen Flusskrebses abzuwenden, muss man wohl eher beim Menschen als bei den Krebsen ansetzen“, so Theissinger.

Wissenschaftliche Ansprechpartner:
Dr. Kathrin Theissinger
Senckenberg Biodiversität und Klima Forschungszentrum & Universität Koblenz-Landau
kathrin.theissinger@senckenberg.de

Originalpublikation:
Jussila J, Edsman L, Maguire I, Diéguez-Uribeondo J and Theissinger K (2021) Money Kills Native Ecosystems: European Crayfish as an Example. Frontiers in Ecology & Evolution, doi: 10.3389/fevo.2021.648495

(nach oben)


TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Straßen als blaugrüne Oasen

Viel ist derzeit von der Schwammstadt im Zusammenhang mit den Flutereignissen, die sich Mitte Juli in Rheinland-Pfalz und Nordrhein-Westfalen ereigneten, die Rede. Schwammstadt bedeutet, dass eine Stadt in der Lage sein soll, bei Hochwasser und Starkregen das Wasser – eben wie ein Schwamm – aufzusaugen. Matthias Barjenbruch sieht diesen Begriff jedoch kritisch. Seiner Meinung nach erfasst er ein gravierendes Problem, worunter Städte zunehmend leiden, nicht: Es ist die Hitze. Städte werden zu Glutinseln, heizen sich für Menschen zum Teil lebensgefährlich auf. Anfang August herrschten in Athen über Tage 43 Grad Celsius, in der Nacht 30 Grad Celsius. „Deshalb müssen Städte auch in der Lage sein, Wasser zur Kühlung wieder verdunsten zu lassen. Dabei spielt die urbane Vegetation eine wichtige Rolle“, sagt der Professor für Siedlungswasserwirtschaft an der TU Berlin.

Starkregen und Hitzewellen beurteilt die Wissenschaft mittlerweile als Folgen des Klimawandels. „Für die Stadtentwicklung heißt das, dass vielfältige Strategien gleichzeitig und gleichrangig verfolgt werden müssen, damit sich die Städte diesen Klimafolgen anpassen können. Für die Nutzung städtischer Flächen bedeutet das, dass Straßen, Dächer, Fassaden, Gehwege, Spielplätze, Grünflächen, Parks, Parkplätze – nicht mehr nebeneinander, sondern in Bezug zueinander entwickelt und diese Flächen multifunktional genutzt werden müssen. Die Herausforderung für die Stadtentwickler besteht in einer transdisziplinären Planung aller Sektoren. Straßen-, Wasser-, Wohnungsbau, Grünflächen, Verkehr – alles muss zusammengedacht werden, um zu integrierten Lösungen zu gelangen“, sagt Matthias Barjenbruch.

Was es bedeutet, wenn Hitzeprävention und Vermeidung von Überflutungen bei Starkregen transdisziplinär angegangen werden müssen und Flächen wie der Straßenraum multifunktional werden mit dem Ziel, klimaangepasst zu sein, das untersucht ein Konsortium von acht Forschungseinrichtungen sowie Planungs- und Ingenieurbüros unter Beteiligung der TU-Fachgebiete Siedlungswasserwirtschaft und Ökohydrologie und Landschaftsbewertung in dem Projekt „BlueGreenStreets“ – als multicodierte Strategie zur Klimafolgenanpassungen“.

In diesem „BlueGreenStreets“-Konzept sind Straßen nicht nur Straßen, sondern werden zu sogenannten Retentionsräumen, also Räumen, die bei Starkregen die Wassermassen zurückhalten und auch ableiten können. Das kann dadurch geschehen, dass das Regenwasser dezentral im oder neben dem Straßenraum versickert wird, indem zum Beispiel die Parkstände für Autos tiefergelegt werden. Oder Straßen übernehmen bei Starkregen die Funktion von Notwasserwegen durch den Einbau von Mittelrinnen (V-Profil) in die Straßen, von Hochborden oder Schwellen. Dadurch kann das oberflächige Niederschlagswasser kontrolliert auf angrenzende Freiräume wie Parks, Grünflächen, Spielplätze oder unversiegelte Parkplätze geleitet werden, wo es versickert. Häuser, Straßen, aber auch die Kanalisation werden so vor Überflutung geschützt, und diese gezielte Ableitung des Niederschlages reduziert Überflutungsschäden. In Dürrephasen wiederum steht das versickerte Regenwasser der urbanen Vegetation zur Verfügung, kann über die Pflanzen verdunsten, was Kühlung bringt, und ist nicht über die Kanalisation abgeflossen.

Und Bäume sind in diesem Konzept mehr als Bäume. Sie fungieren als temporäre Zwischenspeicher, indem verschiedene Typen von Versickerungsbaumgruben angelegt werden. Ein solcher Versickerungsbaumgruben-Typ ist die Baumrigole. Das sind Versickerungsflächen für Regenwasser, das unter anderem von Dach- und Verkehrsflächen wie Parkplätzen zu den Bäumen geleitet wird. Unterirdisch werden die Baumrigolen durch ein Drainagesystem ent- und bewässert. Das ermöglicht, den Baum in Dürrephasen mit Wasser zu versorgen. Dadurch bleiben die Straßenbäume als Elemente der Wasserspeicherung, Verschattung, Verdunstung und Kühlung erhalten und können die starke Aufheizung von Gehwegen und Straßen bei Hitze mildern. Die Aufenthaltsqualität des Straßenraums verbessert sich. Zudem sind Baumrigolen so konstruiert, dass sie den Baumwurzeln genügend Raum geben. Lebenswichtig für die Bäume.

Weitere Elemente der Hitzeprävention sind im Straßenraum angelegte Verdunstungsbeete mit verdunstungsintensiven Pflanzen sowie begrünte Dächer und Fassaden. Hierbei übernehmen Dächer und Fassaden die zusätzliche Funktion eines Wasserspeichers und dienen ebenfalls der Verschattung, Verdunstung und damit der Kühlung des städtischen Raums.

All diese Beispiele zeigen, wie sich urbane Vegetation und urbanes Wasser bedingen. Ohne entsiegelte Flächen und intaktes städtisches Grün und ohne gezielte Nutzung des Regenwassers zum Erhalt des städtischen Grüns – keine Versickerungs-, Speicher- und Verdunstungsleistung bei Starkregen und Hitzeperioden. „Ziel von Stadtentwicklung muss es deshalb zukünftig sein, die urbane Vegetation mit der urbanen Wasserinfrastruktur zu koppeln, was bislang kaum geschieht, aber nur so können Starkregen und Hitzeperioden von der Stadt abgepuffert werden“, sagt Matthias Barjenbruch, dessen Team in dem Projekt „BlueGreenStreets“ die Schadstoffbelastung des Straßenwassers untersucht. Das Team des Fachgebiets Ökohydrologie und Landschaftsbewertung unter der Leitung von Prof. Dr. Eva Paton erforscht den Wasserverbrauch und die Verdunstungsleistungen von Stadtbäumen und Fassadenbegrünungen im urbanen Raum.

Das Vorhaben „BlueGreenStreets“ wird im Rahmen der Fördermaßnahme „Ressourceneffiziente Stadtquartiere für die Zukunft“ des Bundesministeriums für Bildung und Forschung gefördert.

Lesen Sie auch das Interview mit Prof. Dr. Eva Paton über den Zusammenhang von Dürre und extremem Starkregen und ihren Folgen: http://www.tu.berlin/go32586

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Matthias Barjenbruch
TU Berlin
Fachgebiet Siedlungswasserwirtschaft
E-Mail: matthias.barjenbruch@tu-berlin.de

Prof. Dr. Eva Paton und Dr. Björn Kluge
TU Berlin
Fachgebiet Ökohydrologie und Landschaftsbewertung
E-Mail: eva.paton@tu-berlin.de; bjoern.kluge@tu-berlin.de

(nach oben)


TU Berlin: Zukünftiger Schutz gegen Extremniederschläge: weitere Bebauungsverbote dürfen kein Tabu sein

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Der Wasserwirtschaftler Prof. Dr. Reinhard Hinkelmann über Konsequenzen aus den Sturzflutereignissen in Deutschland

„Derzeit gibt es in Deutschland keine gesetzlichen Regelungen, die den Überflutungsschutz vor Sturzfluten, sogenannten Flash floods, in kleinen Einzugsgebieten, wie wir sie vergangene Woche in Nordrhein-Westfalen und Rheinland-Pfalz erlebten, regeln. Deshalb sind bislang in den nun überfluteten Regionen auch keine oder kaum Überflutungsschutzmaßnahmen durchgeführt worden. Das wird sich ändern müssen. Der umfangreiche, sehr gute Hochwasserschutz in Deutschland ist bislang auf Flusshochwasser ausgelegt“, sagt Dr.-Ing. Reinhard Hinkelmann, Professor für Wasserwirtschaft und Hydrosystemmodellierung an der TU Berlin.

Der Unterschied zwischen Flusshochwassern, wie sie sich zum Beispiel 2002 und 2013 an der Elbe ereigneten, und den jetzt stattgefundenen Sturzfluten, vergleichbar mit denen 2016 in Simbach (Bayern) und Braunsbach (Baden-Württemberg), ist, dass diese Sturzfluten aus Extremniederschlägen in kleinen Einzugsgebieten hervorgehen. Sie sind durch sehr schnelle Abflussprozesse von Bergen und Hängen über Bäche, die zu Strömen werden, gekennzeichnet und haben sehr kurze Vorwarnzeiten im Gegensatz zu den Flusshochwassern großer Flüsse wie der Elbe oder dem Rhein, für die die Vorwarnzeiten einige Tage betragen. Dadurch sind untere und mittlere Hanglagen sowie Tallagen nahe von Bächen besonders gefährdet“, erklärt Prof. Dr.-Ing. Reinhard Hinkelmann.

Ein wirksamer Schutz vor solchen Sturzfluten werde nicht ohne kostenintensive, millionenschwere Investitionen und harte Maßnahmen möglich sein wie den Bau großer Ableitsysteme vor Siedlungen, den früheren Stadtmauern ähnlich, in die Landschaft eingepasste Dämme, versenkbare Mauern und Geschiebesperren im Ober- und Mittellauf der Bäche – wie sie aus dem alpinen Raum bekannt sind –, um Bäume und Geröllmassen zurückzuhalten, so Reinhard Hinkelmann. Wichtig werde sein, die Schutzmaßnahmen den lokalen Gegebenheiten anzupassen. Aber auch Veränderungen in der Siedlungs- und Landschaftsplanung wie weitere Bebauungsverbote in überflutungsgefährdeten Bereichen dürften kein Tabu sein. „Wir müssen über Maßnahmen nachdenken, die über das Existierende hinausgehen und damit meine ich auch, dass wohl überlegt werden muss, ob die jetzt weggerissenen Gebäude an ihren ursprünglichen Stellen wiedererrichtet werden sollten.“

Eine weitere Konsequenz aus den Extremwettereignissen der letzten Tage sei, die Bemessungsgrundlage für die Hochwasserschutzmaßnahmen zu ändern. „Zurzeit werden die meisten Hochwasserschutzmaßnahmen für ein Flusshochwasser ausgelegt, das statistisch einmal in 100 Jahren auftritt. Hier ist über erhöhte Bemessungsereignisse nachzudenken, also sich an noch extremeren Wetterereignissen zu orientieren, wie sie zum Beispiel alle 200 Jahre auftreten könnten“, so Reinhard Hinkelmann.

Die Hochwasserschutzanlage der sächsischen Kleinstadt Grimma, die nach der Flutkatastrophe von 2002 an der Elbe begonnen wurde zu bauen, nennt Reinhard Hinkelmann eine gelungene Hochwasserschutzmaßnahme, wenngleich keine Blaupause für all die jetzt betroffenen Kommunen, da in Grimma der Denkmalschutz eine gewichtige Rolle spielte. „Zudem dauerte die Umsetzung der Hochwasserschutzmaßnahmen 17 Jahre. Für die Maßnahmen, die jetzt nötig sind, um die Siedlungen an den Ober- und Mittelläufen der Bäche und in Tallagen zu schützen, sollten wir nicht weitere 17 Jahre brauchen“, sagt Reinhard Hinkelmann.

Die Extremniederschläge resultieren seiner Einschätzung nach aus den Folgen des Klimawandels. Das bedeute für den Hochwasserschutz, dass die Auswirkungen des Klimawandels seitens der Politik intensiver angegangen werden müssen. „Auch zukünftig werden wir keinen 100-prozentigen Hochwasserschutz haben, das Schutzniveau wird voraussichtlich auch nach dem Umsetzen vieler weiterer Maßnahmen sinken, das Leben wird riskanter. Das wird den Druck auf die Politik weiter erhöhen“, urteilt Reinhard Hinkelmann.

Weitere Informationen erteilt Ihnen gern:
Prof. Dr.-Ing. Reinhard Hinkelmann
TU Berlin
Fachgebiet Wasserwirtschaft und Hydrosystemmodellierung
E-Mail: reinhard.hinkelmann@wahyd.tu-berlin.de

(nach oben)


Hochwasserrisiken wurden deutlich unterschätzt

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Um Hochwassergefahren besser einschätzen zu können, sollen Gefahrenkarten historische Daten einbeziehen. Dafür plädieren Forschende am CEDIM – Center for Disaster Management and Risk Reduction Technology des Karlsruher Instituts für Technologie (KIT). Das CEDIM hat einen ersten Bericht zur Flutkatastrophe in Rheinland-Pfalz und Nordrhein-Westfalen vorgelegt. Was die Rolle des Klimawandels betrifft, birgt die Kombination aus mehr verfügbarem Wasser in der Atmosphäre und einer zunehmenden Beständigkeit von Großwetterlagen ein steigendes Potenzial für extreme Niederschlagsereignisse.

Die Hochwasserkatastrophe in der vergangenen Woche hat in Deutschland mehr als 170 Todesopfer gefordert (Stand: 21. Juli 2021). Immer noch werden Menschen vermisst. Die Schäden an Gebäuden und Infrastruktur lassen sich erst grob bestimmen und gehen in die zweistelligen Milliarden – davon allein mindesten zwei Milliarden Euro für Verkehrsinfrastrukturen. Inzwischen hat der Gesamtverband der Deutschen Versicherungswirtschaft e.V. (GDV) den versicherten Schaden auf vier bis fünf Milliarden Euro nur in Rheinland-Pfalz und Nordrhein-Westfalen geschätzt. Wie kam es zu den Überflutungen, die vor allem Rheinland-Pfalz und Nordrhein-Westfalen betrafen? Wie lassen sich Hochwassergefahren – besonders seltene, extreme Ereignisse – vorab besser abschätzen? Mit diesen Fragen hat sich die Forensic Disaster Analysis (FDA) Group des CEDIM befasst und einen ersten Bericht vorgelegt.

Wie die Forschenden erläutern, führten enorme Niederschlagsmengen dazu, dass beispielsweise der Pegel an der Ahr (Altenahr) seinen bisherigen Rekord von 2016 (3,71 Meter, Abfluss: 236 m³/s) deutlich überstieg. Überflutungsbedingt fiel die Messstation bei einem Wert von 5,05 Metern (Abfluss: 332 m³/s) allerdings aus. Das Landesamt für Umwelt Rheinland-Pfalz kalkulierte aus Modellrechnungen für die Katastrophennacht einen Pegel von bis zu sieben Metern, basierend darauf schätzten die Expertinnen und Experten einen Abfluss zwischen 400 bis 700 m³/s ab.

Mehrere Faktoren führten zu den extrem hohen Niederschlagssummen
Aus meteorologischer Perspektive führten verschiedene Faktoren zu den extrem hohen Niederschlagssummen. „Innerhalb von 48 Stunden fiel in Teilen von Nordrhein-Westfalen und Rheinland-Pfalz mehr Regen, als dort üblicherweise im gesamten Monat Juli niedergeht; der Hauptanteil ging sogar innerhalb von nur rund zehn Stunden nieder“, berichtet CEDIM-Sprecher Professor Michael Kunz. Außerdem verstärkte das stark gegliederte Gelände der betroffenen Regionen, besonders im Landkreis Ahrweiler, mit teils tief eingeschnittenen Flusstälern den Oberflächenabfluss. Der bereits annähernd gesättigte Boden durch teils kräftige Niederschläge in den vorangegangenen Tagen verschärfte die Situation zusätzlich.

Um die Überflutungsflächen in den am schwersten betroffenen Gebieten Kreis Ahrweiler und Rhein-Erft-Kreis abzuschätzen, kombinierte das Forschungsteam Satellitendaten mit Luftaufnahmen von (Amateur-)Drohnen und Helikoptern sowie Fotos aus sozialen Medien. Nach diesen geschätzten Überflutungsflächen befinden sich in den betroffenen Gebieten knapp über 19 000 Gebäude mit einem Wert von rund neun Milliarden Euro. In Verbindung mit empirischen Daten vergangener Hochwasserkatastrophen (Infrastrukturschäden, Elementarschäden und andere Schäden) schätzten die Forschenden einen Gesamtschaden zwischen elf und 24 Milliarden Euro (erste CEDIM-Schätzung: 21. Juli 2021). Dabei ist allerdings zu berücksichtigen, dass die Überflutungsflächen nur einen Teil der gesamten betroffenen Fläche ausmachen.

Mehr verfügbares Wasser in der Atmosphäre und zunehmende Beständigkeit von Großwetterlagen steigern Gefahr
Ob ein einzelnes Extremereignis oder die Abfolge mehrerer Extreme bereits auf den Klimawandel zurückzuführen sind, lässt sich nach Aussage der Karlsruher Katastrophenforschenden weder exakt belegen noch komplett verneinen, besonders wenn es um Ereignisse auf kurzen Zeit- und Raumskalen geht, die stark von lokalen Faktoren beeinflusst sind. Für die großräumigen Prozesse in der Atmosphäre, die zur Entstehung von Extremereignissen führen, gilt jedoch: Die Kombination aus mehr verfügbarem Wasser in der Atmosphäre infolge der Temperaturzunahme und einer zunehmenden Beständigkeit von Großwetterlagen mit einem sich tendenziell nach Norden verlagerndem Jetstream, dem Starkwindband in der oberen Troposphäre, birgt ein hohes Gefahrenpotenzial. „Da für diese drei Faktoren ein positiver Trend zu erwarten ist, wird auch das Potenzial für extreme Niederschlagsereignisse in Zukunft zunehmen“, erklärt Kunz.

Bereits 1804 und 1910 bedeutende Hochwasserereignisse im Ahrtal
„Im Ahrtal gab es bereits in der Vergangenheit zwei besonders bedeutende Hochwasserereignisse, nämlich 1804 und 1910. Ein Vergleich mit historischen Aufzeichnungen lässt annehmen, dass die diesjährigen Werte allerdings niedriger einzuordnen sind als die von 1804“, sagt der stellvertretende CEDIM-Sprecher Dr. James Daniell. Für das Hochwasserereignis von 1804 wurde der Abfluss von der Universität Bonn bereits auf ca. 1 100 m³/s geschätzt. Das diesjährige Ereignis könnte hydrologisch betrachtet ein ähnliches Ausmaß wie das von 1910 mit einem Abfluss von 500 m³/s gehabt haben. „Die aktuellen Hochwasserkarten für das Ahrtal basieren derzeit auf einer Abflussstatistik mit Daten seit 1947, da seit diesem Zeitpunkt homogene Messreihen zur Verfügung stehen. Dadurch werden die beiden historischen Ereignisse bei der Gefährdungsabschätzung bisher jedoch nicht berücksichtigt“, sagt Dr. Andreas Schäfer, Erstautor des Berichts. So liegt die aktuelle Schätzung eines hundertjährlichen Hochwassers als Bemessungsgrundlage für den Hochwasserschutz für die Ahr bei 241 m³/s.


Die FDA Group des CEDIM plädiert dringend dafür, in Hochwasser-Gefahrenkarten historische Daten einbeziehen, auch aus der Zeit vor der kontinuierlichen Messaufzeichnung, um Hochwassergefahren besser abschätzen zu können. „Zwar müssen wir bei den Analysen und Interpretationen der Daten grundsätzlich beachten, dass sich sowohl Infrastrukturen als auch Hochwasserschutzmaßnahmen in den vergangenen Jahren verändert haben. Daher lassen sich die Messwerte direkt schwerer vergleichen, und wir sollten uns weniger auf die Pegelstände fokussieren“, erklärt Daniell. „Wir können die Pegelstände von 1804 und 1910 als indirekte Anzeiger heranziehen, um Hochwasserjahre zu identifizieren. Messwerte zum Abfluss, über die zeitliche Entwicklung und über die Niederschlagsummen sind für die Interpretation jedoch wichtiger. Letztendlich sollten aber beide historische Größen – Pegel und Abfluss – beim Erstellen von Gefahrenkarten einbezogen werden.“ (or)

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Originalpublikation:
Andreas Schäfer, Bernhard Mühr, James Daniell, Uwe Ehret, Florian Ehmele, Katharina Küpfer, Johannes Brand, Christina Wisotzky, Jens Skapski, Lukas Renz, Susanna Mohr, Michael Kunz: Hochwasser Mitteleuropa, Juli 2021 (Deutschland). Bericht Nr. 1 „Nordrhein-Westfalen & Rheinland-Pfalz“. CEDIM Forensic Disaster Analysis (FDA) Group. KIT, 2021. DOI: 10.5445/IR/1000135730

https://www.cedim.kit.edu/download/FDA_HochwasserJuli2021_Bericht1.pdf
https://publikationen.bibliothek.kit.edu/1000135730

Weitere Informationen:
https://www.cedim.kit.edu

(nach oben)


Hahn-Schickard und Endress+Hauser gründen das Joint Venture Endress+Hauser BioSense

Katrin Grötzinger Öffentlichkeitsarbeit
Hahn-Schickard
Die Versorgung mit Nahrungsmitteln sicherer zu machen ist das erklärte Ziel des Joint Ventures zwischen Endress+Hauser und Hahn-Schickard, und dazu haben beide Partner nun das Unternehmen Endress+Hauser BioSense GmbH gegründet. Es soll schnelle molekulare Analysen vor Ort möglich machen, mit denen beispielsweise bakterielle oder virale Kontaminationen in Wasser und Getränken, genetische Veränderungen in Lebensmitteln oder die Verunreinigung von Milch analysiert werden können.

Hahn-Schickard forscht in enger Kooperation mit der Universität Freiburg bereits seit vielen Jahren an schnellen diagnostischen Verfahren, um etwa kleinste Mengen an infektiösen Erregern vor Ort mit mobilen Geräten nachweisen zu können. Ein herausragendes Beispiel war ein PCR-Schnelltest für SARS-CoV-2, dem Erreger von Covid-19, der im letzten Jahr von der gemeinsamen Ausgründung Spindiag auf den Markt kam. Ziel des neuen Joint-Ventures zwischen Hahn-Schickard und Endress+Hauser ist es nun, diese Technologie von der medizinischen Diagnostik auf die Anwendungsbereiche der industriellen Prozess- und Laborautomatisierung zu übertragen.

Das Unternehmen Endress+Hauser BioSense GmbH wurde in Freiburg gegründet und kommt in den ersten Monaten noch in den Räumen der Universität sowie bei Hahn-Schickard unter. Im kommenden Jahr wird das junge Unternehmen dann in das derzeit im Bau befindliche Freiburger Innovationszentrum FRIZ auf dem Campus der Technischen Fakultät umziehen. Als Geschäftsführer konnte Dr. Nicholas Krohn gewonnen werden, langjähriger Managing Director bei Eurofins Genescan GmbH in Freiburg und bestens vertraut mit dem Gebiet der Lebensmittelanalytik. Das Gründungsteam wird ergänzt durch Dr. Stefan Burger und Dr. Martin Schulz, zwei langjährige und erfahrene Hahn-Schickard-Mitarbeiter, die auf dem Gebiet der molekularen Diagnostik an der Technischen Fakultät der Albert-Ludwigs-Universität Freiburg promoviert haben.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Roland Zengerle, Hahn-Schickard-Institutsleiter
Roland.Zengerle@Hahn-Schickard.de

Weitere Informationen:
https://www.hahn-schickard.de/news-detail/endress-hauser-biosense

(nach oben)


Hochwasser: Gift aus dem Flussbett

Dr. Markus Bernards Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Eine langfristige Gefahr durch Hochwasser wird häufig unterschätzt: Die reißenden Flüsse wirbeln Schadstoffe aus ihren Sedimenten auf, die von Umweltverschmutzungen vor Jahrzehnten oder Jahrhunderten herrühren. Solche Schadstoffe können nicht nur ökologische Schäden im Fluss verursachen. In Überschwemmungsgebieten können sich die Schadstoffe ablagern und Ackerpflanzen, Weidetiere und Menschen belasten. Darauf hat ein internationales Wissenschaftsteam in einer Übersicht zu wissenschaftlichen Untersuchungen von Hochwasserereignissen in der ganzen Welt hingewiesen. Die Arbeit ist im Journal of Hazardous Materials erschienen und unter Federführung der Goethe-Universität Frankfurt entstanden.

Sedimente gelten als Langzeitgedächtnis eines Flusses. In der Hauptsache bestehen sie aus Partikeln, die vom Erdboden abgetragen werden und irgendwann in Flussdeltas oder im Meer landen. Sedimente können jedoch auch für verhältnismäßig lange Zeit stabil bleiben – und Schadstoffe binden, die zum Beispiel durch Bergbau- oder Industrieabwässer in die Flüsse gelangt sind. Entsprechend befinden sich in vielen Altsedimenten der Flüsse Schadstoffe als „chemische Zeitbomben“ wie zum Beispiel Schwermetalle oder schwer abbaubare Dioxine und dioxin-ähnliche Verbindungen.

Bei Hochwasserereignissen in den industriell geprägten Regionen Europas, Nordamerikas und Asiens können infolge der hohen Fließgeschwindigkeiten auch Altsedimente aufgewühlt werden. Dabei werden regelmäßig die in ihnen gebundenen Schadstoffe auf einen Schlag freigesetzt und kontaminieren Überflutungsgebiete. Bisherige wissenschaftliche Untersuchungen dazu hat ein interdisziplinäres Team von Wissenschaftlerinnen und Wissenschaftlern der Goethe-Universität Frankfurt, der RWTH Aachen, der kanadischen University of Saskatchewan und weiteren Partnerinnen in einer aktuellen Übersichtsarbeit zusammengestellt. Darin zeigen die Forscher:innen unter Federführung der Frankfurter Nachwuchsgruppenleiterin Dr. Sarah Crawford und dem kanadischen Forscher Prof. Markus Brinkmann zum Beispiel auf, welche Schadstoffbelastungen infolge verschiedener Überflutungsereignisse gemessen wurden, welche Testsysteme für verschiedene Schadstoffe entwickelt wurden und wie sich unterschiedliche Sedimente bei hohen Fließgeschwindigkeiten verhalten. Die Gefahren für die Trinkwassergewinnung werden ebenso geschildert wie etwa der Einfluss der Temperatur auf die Schadstoffaufnahme durch Fische und Methoden zur Bewertung der mit der Remobilisierung von Schadstoffen verbundenen ökonomischen Kosten.

Henner Hollert, Professor für Umwelttoxikologie an der Goethe-Universität Frankfurt und Seniorautor der aktuellen Publikation ist trotz der langjährigen Forschung zum Thema sehr besorgt: „Ich habe den Eindruck, dass das Problem der Schadstoffe aus den Altsedimenten in Deutschland und auch in Europa stark unterschätzt wird. Das mag auch daran liegen, dass es bislang praktisch keine Untersuchungen zu den wirtschaftlichen Folgen dieses Problems gibt, wie wir zeigen konnten. Schadstoffbelastete Altsedimente sind aber eine tickende Zeitbombe, mit jeder Flut hochgehen kann. Wir brauchen jetzt flächendeckend ein gutes Management der Flüsse, das nicht nur unmittelbare Gefahren für Menschen, Tiere und Bauwerke in den Blick nimmt, sondern auch die langfristigen Folgen durch die Altlasten in den Flussbetten. So müssen wir zum Beispiel unbedingt die landwirtschaftlich genutzten Überflutungsgebiete auf Fluss-spezifische Schadstoffe untersuchen, damit diese nicht in Form von Fleisch und Milchprodukten auf unseren Tellern landen.“

Auch die aktuellen extremen Hochwasserereignisse in Rheinland-Pfalz und Nordrhein-Westfalen werden von Wissenschaftler:innen der Goethe-Universität in Kooperation mit der RWTH Aachen, der University of Saskatchewan in Kanada, dem Helmholtzzentrum für Umweltforschung Leipzig, dem ISOE – Institut für sozial-ökologische Forschung, dem Senckenberg-Institut, dem LOEWE-Zentrum für Translationale Biodiversitätsforschung und vielen weiteren Partnern in einem interdisziplinären Ansatz von den biologischen, ökotoxikologischen, ökologischen, geowissenschaftlichen, wasserbaulichen, aber auch sozialökologischen und ökonomischen Folgen untersucht. Diese Untersuchungen sind eingebettet in den neuen Forschungscluster RobustNature an der Goethe-Universität, der Robustheit und die Resilienz von Natur-Gesellschaftssystemen im sich veränderten Anthropozän untersucht und zur wissensbasierten Transformationsforschung an den Beispielen Biodiversität und Wasser beitragen möchte – also vom Wissen zum Handeln.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Henner Hollert
Abteilung Evolutionsökologie und Umwelttoxikologie
Institut für Ökologie, Evolution und Diversität
Goethe-Universität Frankfurt
und
LOEWE-Zentrum für Translationale Biodiversitätsgenomik
Tel +49 69 798-42171 und +49-151-14042119
hollert@bio.uni-frankfurt.de
https://www.bio.uni-frankfurt.de/43970666/AK_Hollert

Originalpublikation:
Sarah E. Crawford, Markus Brinkmann, Jacob D. Ouellet, Frank Lehmkuhl, Klaus Reicherter, Jan Schwarzbauer, Piero Bellanova, Peter Letmathe, Lars M. Blank, Roland Weber, Werner Brack, Joost T. van Dongen, Lucas Menzel, Markus Hecker, Holger Schüttrumpf & Henner Hollert: Remobilization of pollutants during extreme flood events poses severe risks to human and environmental health. Journal of Hazardous Materials 421 (2022) 126691 https://doi.org/10.1016/j.jhazmat.2021.126691

Weitere Informationen:
https://doi.org/10.1002/biuz.201410527 Henner Hollert, Markus Brinkmann, Sebastian Hudjez, Catrina Cofalla, Holger Schüttrumpf: Hochwasser – ein unterschätztes Risiko. Schadstoffe als „Zeitbomben“ im Sediment. Biologie in unserer Zeit, 1/2014 (44)

(nach oben)


Eintrag von Mikroplastik in der Umwelt reduzieren. TH Köln hat Sickerwasser der Deponie Leppe untersucht

Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
Von Müllvorkommen in den Flusseinzugsgebieten bis in die Ozeane: Plastik in der Umwelt ist ein globales Problem. Trotz zahlreicher Aktivitäten und Ansätze ist das Wissen über die gesamte Plastik-Verschmutzung noch begrenzt. Um Wissenslücken zu schließen, hat die TH Köln im Rahmen des Verbundvorhabens „Mikroplastik in Binnengewässern – Untersuchung und Modellierung des Eintrags und Verbleibs im Donaugebiet als Grundlage für Maßnahmenplanungen“ (MicBin) das Sickerwasser der Deponie Leppe beprobt. Die Ergebnisse des Teilprojekts sollen dabei unterstützen, Handlungsoptionen und Lösungsansätze zur Reduktion des Eintrags von Kunststoffen in die Umwelt zu formulieren.

„Die Untersuchung von Mikroplastik stellt eine große Herausforderung dar, weil bisher keine standardisierten Methoden zur Probenahme, Aufbereitung und Analyse existieren“, sagt Prof. Dr. Astrid Rehorek vom :metabolon Institute der TH Köln. „Ziel von MicBin war es daher zunächst, Methoden und Instrumente zu entwickeln und zu optimieren. Mit Hilfe dieser konnten wir Feldmessungen durchführen, um mehr über Mikroplastik in Gewässern herauszufinden und Maßnahmen abzuleiten, mit denen sich die Belastung mindern lässt.“

Die Verbundpartner haben erstmalig den Eintrag von Mikroplastikpartikeln für ein größeres Einzugsgebiet eines Binnengewässers bilanziert. Als exemplarisches Untersuchungsobjekt diente das deutsche Donaueinzugsbiet. Neben Messkampagnen, gezielten Probenahmen und ergänzenden Laborexperimenten wurden mögliche Quellen und Senken wie zum Beispiel Kläranlagen, landwirtschaftliche Nutzflächen und Wasserkraftwerke untersucht.

Deponie Leppe erforscht
Die TH Köln hat sich im Projekt MicBin an den Probenahmekampagnen im Gewässer beteiligt und die Beprobung der Deponie Leppe durchgeführt. Das Team um Prof. Dr. Rehorek untersuchte am Standort :metabolon in Lindlar unbehandeltes Sickerwasser an verschiedenen Stellen der Deponie. „Wir konnten mit unseren Projektpartnern herausfinden, dass Deponien Ablagerungen enthalten, die Quellen für Mikroplastik sein können“, so Rehorek.

Untersuchungen verschiedener Stufen der Aufbereitungsanlage, die das Sickerwasser vor der Einleitung in die kommunale Kläranlage passiert, geben Aufschluss über den Weg und Verbleib des Mikroplastiks aus der Deponie. „Dadurch haben wir ermitteln können, dass die Einträge mit Hilfe der Sickerwasserreinigungsanlage reduziert werden können. Das heißt aber nicht, dass Mikroplastik zwangsläufig in die Umwelt gelangt, da das Deponiesickerwasser in einer nachgeschalteten Kläranlage weiter aufgereinigt wird.“
Die erhobenen Messdaten sollen in Folgeuntersuchungen einen wichtigen Ansatzpunkt zur Entwicklung möglicher Maßnahmen gegen Mikroplastik in anderen Deponien und Gewässern bieten. „Die Ergebnisse aus unserem Teilprojekt verdeutlichen, dass eine gut funktionierende Deponiesickerwasserreinigungsanlage ein absolut notwendiger Standard sein muss – da gibt es an manchen Standorten von Deponien in vielen Ländern noch echten Nachholbedarf“, so Rehorek.

Verbundvorhaben
Im Verbundvorhaben MicBin arbeiteten das TZW: DVGW-Technologiezentrum Wasser in Karlsruhe (Verbundkoordinator), das :metabolon Institute der TH Köln, das Institut für Umweltsystemforschung der Universität Osnabrück, das Institut für Geographie der Universität Augsburg, die Bundesanstalt für Gewässerkunde, das Bayerische Landesamt für Umwelt und die BKV GmbH zusammen. Das Projekt wurde durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert. Projektträger war das Karlsruher Institut für Technologie.

MicBin ist ein Teilprojekt im Rahmen des BMBF-Forschungsschwerpunktes „Plastik in der Umwelt“. Im Zeitraum von 2017 bis 2022 werden insgesamt 20 Verbundprojekte und ein wissenschaftliches Begleitvorhaben gefördert. Mehr als 100 beteiligte Institutionen aus Wissenschaft, Wirtschaft und Praxis sind am Forschungsschwerpunkt beteiligt. Sie befassen sich mit unterschiedlichen Aspekten der Problematik von Plastikmüll, deren möglichen Quellen und Senken sowie deren Wirkungen in der Umwelt und auf die Gesellschaft.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 27.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Marcel Hönighausen
0221-8275-5205
pressestelle@th-koeln.de

(nach oben)


Mit dem Wasser leben: HCU-Dissertation zur aktuellen Hochwasserdebatte

Alexander Lemonakis Kommunikation
HafenCity Universität Hamburg
Durch mehrere Unwetterkatastrophen hat eine Debatte über die Rolle des Katastrophenschutzes begonnen. Die Umweltwissenschaftlerin Mareike Fellmer hat sich bereits 2014 mit Hochwasserereignissen auseinandergesetzt.

Mareike Fellmer hat sich mit Fragen der staatlichen Steuerung und der Selbstorganisation von Bürgerinnen und Bürgern im Umgang mit Sturmflutrisiken beschäftigt und unter anderem am Beispiel der Flutschutzgemeinschaften in Hamburg und weiterer bürgerschaftlicher Organisationen an der Tideelbe untersucht.

Dieses Thema gewinnt nun erneut an Bedeutung, da die aktuellen Ereignisse gezeigt haben, dass die Bewältigung von extremen Hochwasserereignissen nicht nur auf technische Vorsorgemaßnahmen reduziert werden darf. Auch Fragen der Verantwortung und des Zusammenspiels unterschiedlicher gesellschaftlicher Organisationen stellen eine entscheidende Komponente für die Anpassungsfähigkeit von Städten und Gemeinden gegenüber Naturgefahren dar.

Zivilgesellschaft als Mitgestalter im Umgang mit Hochwasserrisiko
Dr. Mareike Fellmer fasst die Verantwortungsteilung zwischen Staat und Bevölkerung wie folgt zusammen: „Bürgerinnen und Bürger spielen eine zentrale Rolle als Mitgestalter im Umgang mit Hochwasserrisiken. Zwar muss der Staat hier eine starke koordinierende Rolle einnehmen, aber ergänzend dazu fördert die bürgerschaftliche Mitverantwortung im Umgang mit Hochwasserrisiken das Risikobewusstsein, die Kapazität zur Selbstorganisation und damit die gesellschaftliche Fähigkeit zur Katastrophenbewältigung.“

Dissertation: Bürgerliches Engagement und Sturmfluten
Dr. Mareike Fellmer hat 2014 an der HCU bei Prof. Dr. Jörg Knieling (Stadtplanung und Regionalentwicklung) und Prof. Sabine Hofmeister (Leuphana Universität Lüneburg, Institut für Nachhaltigkeitssteuerung) zum Thema „Bürgerschaftliches Engagement und Sturmfluten. Ausprägungen und Einflussfaktoren am Beispiel des Flussgebiets der Tideelbe“ promoviert.

Ihre fachlichen Schwerpunkte sind Flussgebietsmanagement, Hochwasserrisikomanagement in der Regional- und Stadtentwicklung sowie Bürgerschaftliches Engagement und Bürgerbeteiligung im Küsten- und Gewässerschutz.

Zur Person
Fellmer arbeitet in der Hamburger Umweltbehörde (BUKEA – Behörde für Umwelt, Klima, Energie und Agrarwirtschaft) im Referat „Tideelbe, Meeresschutz“. Fellmer war von 2006 bis 2010 Wissenschaftliche Mitarbeiterin an der HCU im Fachbereich Stadtplanung und Regionalentwicklung und von 2015 bis 2018 im Fachbereich Umweltgerechte Stadt- und Infrastrukturplanung.

(nach oben)


Wissenschaftler sieht Wiederaufbau im Ahrtal vor Herausforderungen

Sara Reinke Stabsstelle Kommunikation und Medien
Stiftung Universität Hildesheim
Seit den 1980er Jahren forscht Prof. Dr. Wolfgang Büchs, Biologie und Gastprofessor an der Universität Hildesheim, im Mittleren Ahrtal. Er ist Hauptautor einer dreibändigen Monographie über die Region in Rheinland-Pfalz, die von der Hochwasserkatastrophe im Juli 2021 mit am stärksten betroffen ist. Und er sagt nun: „Ohne gravierende bauliche Eingriffe zum Schutz vor Hochwasser halte ich eine Wiederbesiedlung des Ahrtals für sehr schwer“.

Im Ahrtal kam einiges zusammen: Neben den geologischen und morphologischen Gegebenheiten der von engen Kerbtälern durchzogenen Landschaft hat der auch menschliche Einfluss zum Ausmaß der jüngsten Hochwasserkatastrophe beigetragen, fasst Biologe Wolfgang Büchs zusammen. Und nicht zuletzt spielt dabei der Klimawandel eine entscheidende Rolle. „Hochwasser im Ahrtal hat es schon immer gegeben, aber die rezente Flutkatastrophe schlägt alles, was wir aus den Geschichtsbüchern kennen.“

Besiedlung, Versieglung, Flurbereinigung und Flussbegradigungen haben die extremen Folgen des regionalen Starkregens begünstigt, urteilt der Wissenschaftler, der sich mit der landschaftlichen Historie des Ahrtals intensiv beschäftigt hat. Zugleich fehlen technische und bauliche Schutzmaßnahmen, wie sie heute in anderen Regionen – beispielsweise im Harz – üblich sind. „Den Bau von Regenwasserrückhaltebecken im Bereich der Nebenbäche hatte man im Ahrtal schon zu Beginn des 20. Jahrhunderts geplant, hat sich dann aber entschlossen, stattdessen den Nürburgring zu bauen, um die regionale Wirtschaft zu stärken.“

Nun, 100 Jahre später, zeige sich, dass Renaturierung und Wiederbewaldung – eigentlich die ökologisch verträglicheren Formen des Hochwasserschutzes – in diesem speziellen Umfeld nicht ausreichen. Das Fazit des Biologen: Ein Wiederaufbau und womöglich gar Ausbau der Besiedlung der Talsohlen im Ahrtal ist ohne gleichzeitige bauliche Maßnahmen zum Hochwasserschutz hochgradig riskant. Und auch in anderen Regionen in Deutschland müssen Bauvorhaben in Tälern und Flussniederungen vor dem Hintergrund des Klimawandels Baugebiete künftig anders bewertet werden: „Wir müssen uns darauf einstellen, bestimmte Siedlungsstandort in Deutschland aufzugeben.“

Ein Podcast-Gespräch mit dem Biologen und Hildesheimer Gastprofessor Prof. Dr. Wolfgang Büchs können Sie hier nachhören
https://www.uni-hildesheim.de/media/presse/Videos/210804_Unipodcast_Folge_3_Hoch…

HINWEIS: Nach Aufzeichnung des Gesprächs wurde bekannt, dass der Pegelmesser bei Altenahr bei einem Pegelstand von 5,72 Meter durch die Flut abgerissen wurde – das war bisher noch nie vorgekommen – und daher der tatsächliche Pegelstand deutlich höher gewesen sein dürfte – Berechnungen zufolge bei rund sieben Metern.

Weitere Informationen:
http://www.uni-hildesheim.de/neuigkeiten/wir-muessen-uns-darauf-einstellen-siedl…
http://www.uni-hildesheim.de/media/presse/Videos/210804_Unipodcast_Folge_3_Hochw…

(nach oben)


Abfall als erneuerbare Energiequelle nutzen. Internationales Verbundprojekt der TH Köln in Mali

Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
Die Stadt Bamako in Mali gehört zu einer der am schnellsten wachsenden Städten in Afrika und zählt heute mehr als zwei Millionen Einwohnerinnen und Einwohner. Die Urbanisierung stellt die Stadt vor Herausforderungen: eine funktionierende Abfallwirtschaft muss bereitgestellt und eine sichere Energieversorgung gewährleistet werden. Im internationalen Verbundprojekt ERA-SOLMAB arbeiten die TH Köln, die Rheinische Friedrich-Wilhelms-Universität Bonn, die University of Sciences, Techniques and Technologies of Bamako (Mali) und die University of Tlemcen (Algerien) gemeinsam an Konzepten und Strategien für eine energetische Verwertung von Reststoffen.

„In Bamako gibt es derzeit keine umfassende Abfallsammlung, Müll wird nicht getrennt, und Reststoffe landen auf ungeordneten Deponien – das führt zu einer hohen Umweltverschmutzung und letztlich zu einer direkten oder indirekten Gesundheitsgefährdung der Bevölkerung“, sagt Prof. Dr. Ramchandra Bhandari vom Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (ITT) der TH Köln. „Ziel des Vorhabens ERA-SOLMAB ist es, Abfallwirtschaft und Energieproduktion im Sinne einer nachhaltigen Kreislaufwirtschaft zu verbinden und somit die Situation vor Ort zu verbessern.“

Energiegewinnung aus Abfällen
Das Team des ITT will zunächst mit Kolleginnen und Kollegen der University of Sciences, Techniques and Technologies of Bamako die Ausgangssituation empirisch untersuchen. Zudem sollen die ökonomischen, sozialen und ökologischen Auswirkungen erforscht werden. „Wir wollen den Verschmutzungsgrad sowie Sammelstellen und -routen analysieren. Zudem charakterisieren wir das Abfallaufkommen, damit wir bestimmen können, zu welchen Anteilen es sich aus organischen und anorganischen Reststoffen zusammensetzt“, so Bhandari. Das Zentrum für Entwicklungsforschung (ZEF) der Rheinischen Friedrich-Wilhelms-Universität Bonn ist im Vorhaben für die Untersuchung des Grundwassers zuständig und entwickelt Lösungen zur besseren Reinhaltung.

Gemeinsam mit Prof. Dr. Christian Wolf vom :metabolon Institute der TH Köln sollen in einem weiteren Schritt verschiedene Möglichkeiten für die energetische Nutzung der vorhandenen Reststoffe abgeleitet werden. Dazu soll an der Universität in Bamako eine Biosgasanlage errichtet werden. Diese soll mit Bioabfällen aus der Mensa betrieben und in Langzeitexperimenten getestet werden. „Mit Hilfe der gesammelten Daten wollen wir die Potenziale und möglichen Nutzungswege von Biogas erforschen. Wenn die Pilotanlage ökonomisch sinnvoll ist, dann könnten in der Stadt Mini-Biogasanlagen für private Haushalte perspektivisch eine vielversprechende Option darstellen“, sagt Bhandari.

Internationaler Austausch und Wissenstransfer
Ein übergeordnetes Ziel des Projektes besteht in der Stärkung internationaler Beziehungen und einem umfangreichen Wissenstransfer der beteiligten Projektpartner. „Dabei geht es nicht nur um einen Austausch zwischen afrikanischen und europäischen Ländern, sondern auch zwischen direkten Nachbarn: Algerien konnte in den vergangenen Jahren dringende Probleme der Abfallwirtschaft lösen und weist heute ein vergleichsweise gut entwickeltes Abfallmanagement auf – deshalb ist die University of Tlemcen Projektpartnerin und bringt Lösungsansätze aus Algerien mit ein“, so Bhandari.

Getragen werden soll das Vorhaben durch eine starke Einbindung von Nachwuchswissenschaftlerinnen und -wissenschaftlern der beteiligten Hochschulen – etwa durch Forschungsaufenthalte in Mali und Deutschland. Die Ergebnisse zu Abfallbewirtschaftungsideen und -technologien sollen der Stadt Bamako mit Ende des Projektes zur Verfügung gestellt werden.

Das Verbundprojekt „Energierückgewinnung und Grundwasserreinhaltung: Techno-ökonomische und ökologische Bewertung einer Abfallwirtschaft in Bamako, Mali“ (ERA-SOLMAB) wird koordiniert von Prof. Dr. Ramchandra Bhandari vom Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (ITT) der TH Köln. Es wird für einen Zeitraum von drei Jahren vom Bundesministerium für Bildung und Forschung im Rahmen der Fördermaßnahme AfResi (Forschung zu Resilienzstärkung und Strukturaufbau in afrikanischen Städten und Ballungsgebieten) gefördert. Projektträger ist das Deutsche Zentrum für Luft- und Raumfahrt.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 27.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Marcel Hönighausen
0221-8275-5205
pressestelle@th-koeln.de

(nach oben)


Abwasser-Monitoring als Pandemie-Frühwarnsystem für Metropolen

Philipp Kressirer Kommunikation und Medien
Klinikum der Universität München
Ein Forschungsteam unter der Leitung des Tropeninstituts am LMU Klinikum München hat die Ergebnisse einer der ersten und bisher längsten Untersuchungen zur Abwasserüberwachung auf das neuartige Coronavirus in Bayern in der Fachzeitschrift Science of the Total Environment veröffentlicht. Die einjährige Verlaufsstudie im Münchner Stadtgebiet bestätigt das Potential des Abwasser-Monitorings, um die Dynamik der Pandemie und die Ausbreitung neuer Virusvarianten frühzeitig zu erkennen.

Abwasser-Monitoring zum Nachweis von SARS-CoV-2 gewinnt zunehmend an Bedeutung. Lokale Abwasseruntersuchungen erfolgen seit dem Auftreten der Pandemie ab 2020. Im Frühjahr 2021 bekräftigte die Europäische Kommission in ihrer Empfehlung, eine systematische Abwasser-Überwachung von SARS-CoV-2 und seinen Varianten in allen EU-Mitgliedstaaten einzuführen. Besonders in Metropolen, in denen sich das Virus rapide verbreiten kann, bietet die Abwasser-basierte Epidemiologie (Waste-water based epidemiology, WBE) große Vorteile.

Die einjährige Verlaufsstudie, die im April 2020 startete, ist eine der ersten und längsten Untersuchungen zur Nachverfolgung der SARS-CoV-2 RNA Viruslast im Abwasser weltweit und insbesondere in Deutschland. Nun wurden die Ergebnisse in der Fachzeitschrift Science of the Total Environment veröffentlicht. Unter der Leitung des Tropeninstituts am LMU Klinikum München beteiligten sich die Virologie des Max von Pettenkofer-Instituts, das Genzentrum der LMU, die Münchner Stadtentwässerung, die Branddirektion München, das Gesundheitsreferat der Stadt München und die Task Force Infektiologie des Bayerischen Landesamts für Gesundheit und Lebensmittelsicherheit (LGL) an der Studie.

Finanziert wurde die Forschung durch das Bayerische Ministerium für Wissenschaft und Kunst. Wissenschaftsminister Bernd Sibler betont die praktische Relevanz der Untersuchung: „Sie leistet einen wertvollen Betrag, trotz der anhaltenden Corona-Pandemie weitere Schritte zur Normalisierung des öffentlichen Lebens in den Blick zu nehmen. Deshalb haben wir die Studie Prospektive COVID-19 Kohorte München – KoCo19 mit rund einer Million Euro unterstützt.“

Ausbreitung von SARS-CoV-2 durch Abwasser-Analyse bereits Wochen früher festgestellt als in offiziellen Meldezahlen:
In ihrer Untersuchung im Raum München sammelten die Wissenschaftlerinnen und Wissenschaftler seit Anfang April 2020 über ein Jahr lang wöchentlich Abwasserproben an sechs Standorten im Münchner Stadtgebiet. Die Proben wurden im Labor mittels RT-PCR (reverse transcription polymerase chain reaction) und Genomsequenzierung untersucht, um die Verbreitung von SARS-CoV-2 in München im zeitlichen und räumlichen Verlauf zu messen. Durch die Entschlüsselung des Erbguts anhand der Sequenzierung isolierter Virus-RNA erhielten die Forscher zudem Informationen, ob in den Proben besorgniserregende Virusvarianten (variants of concern, VOC) auftraten.

Die Ergebnisse zeigten, dass die in den Proben nachgewiesene SARS-CoV-2-RNA-Last gut mit den offiziellen Daten der 7-Tage-Inzidenz in den jeweiligen Stadtgebieten übereinstimmte. Studienleiter PD Dr. med. Andreas Wieser vom Tropeninstitut am LMU Klinikum berichtet: “Durch die im Abwasser gemessene Viruslast haben wir die lokale Inzidenz für die Verbreitung von SARS-CoV-2 bereits drei Wochen früher festgestellt als in den Meldezahlen der Behörden, die auf der Analyse von Atemwegsabstrichen basieren. Zudem konnten wir die zunehmende Ausbreitung der Virusvariante B.1.1.7 (Alpha) in der Münchner Bevölkerung bereits Anfang Januar 2021 nachweisen, Wochen bevor diese durch die Sequenzierung von Abstrich-Proben von Patienten in München in relevanter Zahl festgestellt werden konnte.”

Insgesamt bestätigt die Studie das Potential des Abwasser-Monitorings als Frühwarnsystem für die SARS-CoV-2 Pandemie und die Vorteile im Vergleich zu Massentests durch Abstriche. Dies gilt insbesondere hinsichtlich der Verbreitung besorgniserregender Virusvarianten in der lokalen Bevölkerung. Außerdem weist die Abwasser-Beprobung weniger Verzerrungen z.B. durch geänderte Regeln bei der Probenahme oder bei Meldewegen auf, als dies bei auf Abstrich-/Meldedaten basierten Statistiken der Fall ist.

Originalpublikation:
Rubio-Acero R, Beyerl J, Muenchhoff M, Sancho Roth M, Castelletti N, Paunovic I, Radon K, Springer B, Nagel C, Boehm B, Böhmer M, Graf A, Blum H, Stefan S, Keppler O, Osterman A, Khan Z, Hölscher M, Wieser A
Spatially resolved qualified sewage spot sampling to track SARS-CoV-2 dynamics in Munich – One year of experience, Science of The Total Environment, Volume 797, 2021, 149031, ISSN 0048-9697, https://doi.org/10.1016/j.scitotenv.2021.149031

*Partner der Studie:
– Leitung: Tropeninstitut (Abteilung für Infektions- und Tropenmedizin), LMU Klinikum München
– Center for International Health (CIH), LMU Klinikum München
– Deutsches Zentrum für Infektionsforschung (DZIF), Standort München
– Münchner Stadtentwässerung
– Branddirektion München
– Gesundheitsreferat der Stadt München
– Task Force Infektiologie, Bayerisches Landesamt für Gesundheit und Lebensmittelsicherheit (LGL)
– Genzentrum der LMU München
– Max von Pettenkofer-Institut für Virologie, LMU

Finanzierung:
Die Studie wurde durch das Bayerische Ministerium für Wissenschaft und Kunst und das LMU Klinikum München finanziert.
Die Studie ist begleitend und ergänzend zur KoCo19 Studiengruppe (Repräsentative SARS-CoV-2 Studie in München, “Prospektive COVID-19 Kohorte München – KoCo19”), unter Beteiligung von: Helmholtz Zentrum München, Universität Bonn, Universität Bielefeld, Bundesministerium für Bildung und Forschung (Projekt01KI20271) und dem Institut für Mikrobiologie der Bundeswehr (Medical Biodefense Research Program) sowie der BMBF Initiative “NaFoUniMedCovid19“ (01KX2021), Unterprojekt B-FAST.

Pressefoto:
https://ars.els-cdn.com/content/image/1-s2.0-S0048969721041036-ga1_lrg.jpg

Copyright: Grafik zur Publikation “Spatially resolved qualified sewage spot sampling to track SARS-CoV-2 dynamics in Munich – One year of experience”, erschienen in Science of The Total Environment, Volume 797, 2021

Wissenschaftliche Ansprechpartner:
PD Dr. med. Andreas Wieser
Tropeninstitut (Abteilung für Infektions- und Tropenmedizin) LMU Klinikum München
Max von Pettenkofer-Institut, LMU
Tel: +49 89 2180-78 296
E-Mail: wieser@mvp.lmu.de

Pressekontakt:
Judith Eckstein, M.A.
Tropeninstitut (Abteilung für Infektions- und Tropenmedizin)
LMU Klinikum München
Telefon: +49 89 4400-59839
E-Mail: presse@lrz.uni-muenchen.de

Originalpublikation:
https://doi.org/10.1016/j.scitotenv.2021.149031

Weitere Informationen:
https://www.lmu-klinikum.de/aktuelles/pressemitteilungen/abwasser-monitoring-als…

(nach oben)


Erholung von der Corona-Krise: Betriebe blicken optimistischer in die Zukunft

Sophia Koenen Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Der Anteil der Betriebe, die sich akut in ihrer Existenz bedroht sehen, halbierte sich von 8 Prozent im Mai auf 4 Prozent im Juli. Das ergibt eine zwischen dem 5. bis 20. Juli durchgeführte repräsentative Betriebsbefragung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB).

Knapp ein Drittel der Betriebe gab an, nicht von der Corona-Krise betroffen zu sein. Weitere 10 Prozent schätzten sich als überwiegend positiv betroffen ein. „Das sind nochmal deutlich mehr Betriebe, die ihre Lage positiv bewerten, als in den letzten Monaten“, berichtet IAB-Direktor Bernd Fitzenberger.

Im Gastgewerbe verringerte sich die Anzahl der Betriebe, die von Existenzängsten berichteten, seit Mai um 30 Prozentpunkte auf nun 7 Prozent. „Gerade im Gastgewerbe hängt der wachsende Optimismus natürlich mit den Öffnungen zusammen“, erklärt Fitzenberger. So gaben in dieser Branche im Juli nur noch 14 Prozent der Betriebe an vollständig oder teilweise geschlossen zu sein, während es im Mai noch 85 Prozent waren. Im Verarbeitenden Gewerbe sahen sich zuletzt 3 Prozent der Betriebe akut in ihrer Existenz bedroht und damit 6 Prozentpunkte weniger als zwei Monate zuvor.

Unter kleinen Betrieben waren existentielle Sorgen weiterhin deutlich weiterverbreitet, als unter großen. So gaben 5 Prozent der Betriebe mit zwischen einem und neun Mitarbeitenden an, existenzielle Sorgen zu haben und nur 1 Prozent der Betriebe mit über 250 Mitarbeitenden. „Das ist vor allem darauf zurückzuführen, dass die Liquiditätsreserven von Betrieben nach Betriebsgröße sehr unterschiedlich sind“, so IAB-Vizedirektor Ulrich Walwei. Über ausreichend Liquiditätsreserven zu verfügen gaben gut 70 Prozent der Betriebe mit mehr als 250 Beschäftigten an, aber nur knapp 40 Prozent der Betriebe mit einem bis 9 Beschäftigen.

Die positive Entwicklung macht sich auch im Einstellungsverhalten der Betriebe bemerkbar. Insgesamt übersteigen die vorgenommenen Einstellungen im Juli in 12 Prozent der Betriebe die Entlassungen. Auch hier ist die größte Veränderung im Gastgewerbe zu verzeichnen. Dort stellten 19 Prozent der Betriebe mehr ein als dass sie entlassen.

Im Rahmen der IAB-Studie „Betriebe in der Covid-19-Krise“ werden seit August 2020 in regelmäßigen Abständen etwa 1.500 bis 2.000 Betriebe der Privatwirtschaft dazu befragt, wie sich die Covid-19-Pandemie auf verschiedene Bereiche ihrer Geschäftstätigkeit auswirkt. Die Befragungsstichprobe ist repräsentativ für die privatwirtschaftlichen Betriebe in Deutschland.

Zum Download stehen unter http://doku.iab.de/arbeitsmarktdaten/ADuI_BeCovid_W15.xlsx. Tabellen zu den Ergebnissen aus der 15. Befragungswelle bereit.

Originalpublikation:
http://doku.iab.de/arbeitsmarktdaten/ADuI_BeCovid_W15.xlsx

(nach oben)


Tauender Permafrost lässt Methan aus der Tiefe entweichen

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
In einer Studie unter Federführung der Universität Bonn haben Geologen die räumliche und zeitliche Verteilung der Methankonzentration in der Luft Nordsibiriens mit geologischen Karten verglichen. Das Ergebnis: Die Methangehalte der Luft nach der Hitzewelle des vergangenen Jahres deuten darauf hin, dass verstärkte Gasaustritte aus Kalkstein stattfanden.

Welche Auswirkungen hatte die Hitzewelle des Sommers 2020 in Sibirien? In einer Studie unter Federführung der Universität Bonn haben Geologen die räumliche und zeitliche Verteilung der Methankonzentration in der Luft Nordsibiriens mit geologischen Karten verglichen. Das Ergebnis: Die Methangehalte der Luft nach der Hitzewelle des vergangenen Jahres deuten darauf hin, dass verstärkte Gasaustritte aus Kalkstein stattfanden. Die Studie ist in der Fachzeitschrift „Proceedings of the National Academy of Sciences“ (PNAS) veröffentlicht.

Dauerhaft gefrorene Permafrostböden nehmen große Gebiete der Nordhalbkugel ein, vor allem in Nordasien und Nordamerika. Tauen sie in einer wärmer werdenden Welt auf, kann das Gefahren bergen, denn beim Auftauen werden CO2 und Methan frei – und verstärken den menschengemachten Treibhausgaseffekt. „Methan kommt zwar nur in geringer Konzentration vor, ist dabei aber besonders gefährlich, da sein Erwärmungspotenzial um ein Vielfaches höher ist als bei CO2“, erklärt Prof. Dr. Nikolaus Froitzheim vom Institut für Geowissenschaften der Universität Bonn. Pessimisten sprachen deshalb bereits von einer bevorstehenden „Methanbombe“. Die meisten bisherigen Projektionen ergaben jedoch, dass die Treibhausgase aus tauendem Permafrost bis 2100 „nur“ etwa 0,2 Grad Celsius zur globalen Erwärmung beitragen. Diese Annahme stellt jetzt eine neue Studie von Nikolaus Froitzheim, Jaroslaw Majka (Krakau/Uppsala) und Dmitry Zastrozhnov (Sankt Petersburg) in Frage.

In vorherigen Untersuchungen beschäftigten sich Wissenschaftler meist ausschließlich mit den Emissionen, die aus der Zersetzung von pflanzlichen und tierischen Überresten in den Permafrostböden selbst entstehen. In ihrer aktuellen Studie betrachteten die Forscher um Nikolaus Froitzheim die mithilfe der satellitengestützten Spektroskopie ermittelten Methankonzentrationen in der sibirischen Luft und verglichen sie mit geologischen Karten. Dabei stellten sie deutlich erhöhte Konzentrationen in zwei Gebieten von Nordsibirien fest – dem Taymyr-Faltengürtel und dem Rand der Sibirischen Plattform. Auffällig an diesen beiden langgestreckten Gebieten ist, dass der Untergrund dort von Kalksteinformationen aus dem Paläozoikum gebildet wird (dabei handelt es sich um den Zeitraum von circa 541 Millionen Jahren bis circa 251,9 Millionen Jahren vor heute).

In beiden Gebieten traten die um etwa fünf Prozent erhöhten Konzentrationen während der extremen Hitzewelle des Sommers 2020 auf und blieben danach monatelang bestehen. Aber wie kam es überhaupt zum Auftreten des zusätzlichen Methans? „Die Bodenbildungen in den beobachteten Gebieten sind sehr dünn oder fehlen ganz, was die Zersetzung von organischer Substanz in den Böden als Quelle des Methans unwahrscheinlich macht“, sagt Niko Froitzheim. Er und seine Kollegen befürchten daher, dass die bisher mit Eis und Gashydrat gefüllten Kluft- und Höhlensysteme im Kalkstein durch die Erwärmung durchlässig wurden. „Dadurch dürfte Erdgas, das zum größten Teil aus Methan besteht, aus Lagerstätten im Permafrost und unter dem Permafrost den Weg an die Erdoberfläche gefunden haben“, sagt der Wissenschaftler.

Dieser Hypothese wollen die Wissenschaftler nun mit Messungen vor Ort und mit Modellrechnungen nachgehen, um herauszufinden, wie schnell und in welchem Umfang Erdgas freigesetzt werden kann. „Die Mengen von Erdgas, die im Untergrund Nordsibiriens vermutet werden, sind gewaltig. Wenn Teile davon durch den tauenden Permafrost in die Atmosphäre gelangten, könnte das dramatische Auswirkungen auf das ohnehin schon überhitzte Klima der Erde haben“, betont Niko Froitzheim.

Beteiligte Institutionen:Beteiligte Institutionen:
An der Studie waren die Universitäten Bonn, Uppsala und AGH Krakau sowie das Karpinsky Russian Geological Research Institute in St. Petersburg beteiligt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nikolaus Froitzheim
Institut für Geowissenschaften, Universität Bonn
Tel.: + 49 151 2071 5084
E-Mail: niko.froitzheim@uni-bonn.de

Originalpublikation:
Nikolaus Froitzheim, Jaroslaw Majka & Dmitry Zastrozhnov: Methane release from carbonate rock formations in the Siberian permafrost area during and after the 2020 heat wave. PNAS; https://doi.org/10.1073/pnas.2107632118

(nach oben)


CoVis: Eine neue App zur Corona-Risikobewertung

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
Von der theoretischen Physik zum Unternehmer: DESY-Physiker Ayan Paul bringt mit seinem Spin-Off eine neue App gegen Corona auf den Markt. Sie kombiniert öffentliche Daten mit persönlichen Informationen und dem Aufenthaltsort und stellt dem Nutzer so eine ganz individuelle Einschätzung seiner momentanen COVID-Gefährdung mit Handlungsempfehlungen zur Verfügung.

Die neue App namens CoVis ist ab sofort im App Store für iOS und Android verfügbar. Sie stellt den Nutzerinnen und Nutzern Informationen zur aktuellen Corona-Lage bereit, um sich jeden Tag optimal vor dem SARS-CoV-2-Virus zu schützen. Sie meldet zum Beispiel Regionen mit besonderer Ansteckungsgefahr, damit diese gemieden werden können. Die App soll Einzelpersonen genauso helfen, wie Gemeinden, Unternehmen, Schulen aber auch Krankenhäusern. Gesundheitsämter und andere öffentliche Institutionen können anhand der zuverlässigen Daten Sicherheitsvorkehrungen und gesundheitliche Richtlinien anpassen. Anders als andere Apps nutzt CoVis dafür keinerlei Kontaktverfolgung. Persönliche Daten bleiben auf dem jeweiligen Gerät, Daten- und Persönlichkeitsschutz sind hundertprozentig gewahrt.

CoVis verwendet Künstliche Intelligenz und maschinelles Lernen von robusten, nachvollziehbaren Algorithmen, um COVID-19-Entwicklungen vorherzusagen und Anomalien in der Ausbreitung des Virus zu identifizieren. Als Grundlage dienen öffentlich verfügbare Daten, neueste Studienergebnisse und anderes vorhandenes medizinisches Wissen. In die App geben Nutzerinnen und Nutzer persönliche Informationen wie Alter, Vorerkrankungen und Reisegewohnheiten ein. Ohne dass diese Daten das Mobilgerät verlassen, speist CoVis sie in den proprietären Algorithmus ein und errechnet daraus, welche Verhaltensweisen und Orte unter den aktuellen Umständen für den individuellen Nutzer gefährlich sind. So kann jeder fundierte Entscheidungen treffen, welche Orte und Risiken man lieber vermeiden möchte.

Entwickelt wurde CoVis von einem Team junger Forscherinnen und Forscher, IT- und Gesundheitsexpertinnen und -experten, die sich im April 2020 anlässlich der COVID-19-Challenge des Massachusetts Institute of Technology in den USA zusammenfanden. Diese virtuelle Konferenz war ein sogenannter Hackathon: Engagierte Menschen unterschiedlichster Felder und aus aller Welt entwickeln in diesem Wettbewerb neue Ansätze zur Lösung eines gesellschaftlichen Problems. Es bildeten sich Teams, die binnen eines Wochenendes Ideen entwickelten, um der Pandemie mit digitalen Instrumenten entgegenzuwirken.

Das CoVis-Team hat den Wettbewerb und auch eine Folgeveranstaltung gewonnen, auf der einige Monate später die fortgeführten Projekte erneut bewertet wurden. Ein Mitglied des CoVis-Teams ist Ayan Paul, Theoretiker bei DESY. Er konnte seine Erfahrung und sein Wissen im Bereich Datenauswertung und statistische Modelle einbringen, die er bei der Analyse von Experimenten an Teilchenbeschleunigern gewonnen hat. Analog haben auch die anderen Teammitglieder ihre Expertise etwa in der Entwicklung von Apps oder im Gesundheitswesen eingebracht. Mit gebündelter Kraft setzen sie ihre Fähigkeiten ein, um gemeinsam einen Beitrag zur Überwindung der Pandemie zu leisten. Begleitet wurde und wird das CoVis-Team auch vom DESY Start-up Office. Es half bei der Entwicklung eines Business-Plans, bei der Suche nach Partnern und der letztlichen Gründung des Unternehmens CoVis Inc.

DESY hat die Initiative frühzeitig etwa mit einer Förderung durch den DESY-Strategie-Fonds unterstützt. „Kernkompetenzen aus der Grundlagenforschung zur Lösung von gesellschaftsrelevanten Problemen einsetzen, das ist eines der Ziele DESYs“, sagt Arik Willner, Chief Technology Officer bei DESY. „Mit seinem vorbildlichen Einsatz zeigt Ayan Paul, was Physik leisten kann, wie z.B. das Analysieren und Modellieren von großen Datenmengen, um das persönliche Risiko für eine Corona-Infektion abzuschätzen.“ Darin sieht auch Ayan Paul selbst seinen Antrieb, einen Großteil seiner Freizeit neben seinem Fulltime-Job bei DESY in CoVis zu investieren: „Ich möchte mein Wissen und meine speziellen Fähigkeiten zum Wohl der Gesellschaft einsetzen und helfen, die Krise zu bewältigen.“ Hinzu kommt die Inspiration, die er aus der Zusammenarbeit mit den anderen Teammitgliedern zieht, die einander zuvor nicht kannten: „Wir alle verfolgen dieselbe Vision. Das hat uns zusammengeschweißt, so dass wir CoVis sehr schnell entwickeln konnten.“

Als nächste Schritte will das CoVis-Team, das gerade auch als Finalist für die diesjährige Falling-Walls-Konferenz ausgewählt wurde, die App auch in weiteren Sprachversionen und Ländern anbieten. Langfristig will die junge Firma sich weiteren Herausforderungen des globalen Seuchenschutzes widmen. Zukünftige Entwicklungen sollen weitere Algorithmen und Anwendungen hervorbringen, die eine neue Ära des Seuchenmanagements einläutet – nicht nur in den Industrienationen, sondern auch in Entwicklungsländern.

DESY zählt zu den weltweit führenden Teilchenbeschleuniger-Zentren und erforscht die Struktur und Funktion von Materie – vom Wechselspiel kleinster Elementarteilchen, dem Verhalten neuartiger Nanowerkstoffe und lebenswichtiger Biomoleküle bis hin zu den großen Rätseln des Universums. Die Teilchenbeschleuniger und die Nachweisinstrumente, die DESY an seinen Standorten in Hamburg und Zeuthen entwickelt und baut, sind einzigartige Werkzeuge für die Forschung: Sie erzeugen das stärkste Röntgenlicht der Welt, bringen Teilchen auf Rekordenergien und öffnen neue Fenster ins Universum. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.

Mehr über CoVis
Die CoVis-App ist kostenlos und beinhaltet folgende Funktionen:
– 7-Tage-Vorhersage zur Entwicklung der Inzidenzen für alle Landkreise in Deutschland und in den USA
– Vollständige Score-Zeitleiste, um den Verlauf Ihres Risikoscores zu kennen
– Alle historischen Daten und Score-Aufschlüsselungen
– Optionales Benutzerkonto zum Speichern Ihrer Risiko-Scores und Aufschlüsselung
– Optionale Konto- und Datenverwaltung

• CoVis-Health-Webseite: https://covishealth.com
• CoVis im Apple AppStore: https://apps.apple.com/us/app/covis/id1558577130
• CoVis im Google PlayStore: https://play.google.com/store/apps/details?id=com.covisinc.covis

Wissenschaftliche Ansprechpartner:
Fachlicher Kontakt
Ayan Paul, PhD
DESY; Covis Health Inc.
+49 151-42407018
ayan.paul@desy.de

https://www.desy.de/aktuelles/news_suche/index_ger.html?openDirectAnchor=2123&am… – Pressemitteilung mit Bildern im Web

(nach oben)


Industrie kann Flexi-Joker in der Energiewende werden

Alexander Knebel Presse- und Öffentlichkeitsarbeit
Zuse-Gemeinschaft
Damit sich Verbraucher und Industrie möglichst schnell mit immer größeren Anteilen von Wind- und Solarstrom versorgen lassen, muss das deutsche Energiesystem flexibler werden. Das geht nicht ohne die Industrie. Als einer der größten Energiekunden sollte sie künftig mit ihrem Bedarf aber auch mit der Bereitstellung und Speicherung von Energie aktiv und flexibel an den Energiemärkten handeln. Wie das geht und wie sich das lohnen kann, erforscht, erprobt und verwirklicht angewandte Forschung aus der Zuse-Gemeinschaft. Teil 3 unserer Serie zum Energiemarkt der Zukunft.

Rund 28 Prozent des deutschen Endenergieverbrauchs entfallen auf die Industrie. Für die Energiewende nimmt der Sektor auch deshalb eine Schlüsselstellung ein, weil er hohe Bedarfe sowohl an Strom wie auch an Wärme bzw. Kälte hat. Für die künftig erforderliche erhöhte Flexibilität an den Energiemärkten müssen jedoch Wärme- und Strommarkt gemeinsam für höhere Anteile erneuerbarer Energien erschlossen werden. Die Gesellschaft zur Förderung angewandter Informatik (GFaI) aus Berlin entwickelt aktuell mit Partnern im vom Bundeswirtschaftsministerium geförderten Projekt „Flexibilitätswende“ Modelle, um für Industriebetriebe die Eintrittsschwelle zur Teilnahme an den Energiemärkten zu senken. Das geht mit möglichst praxisnahen Software-Prototypen, die aber dennoch aufs jeweilige Unternehmen angepasst werden müssen, z.B. einen Chemiepark. Rund 4.000 Variablen müssen die Informatiker aus Berlin-Adlershof zur Beschreibung des jeweiligen Energiesystems verknüpfen, bevor sie sich ans Rechnen machen können. Ein Beispiel: Die Teilnahme am Regelenergiemarkt, über den die Übertragungsnetzbetreiber unvorhergesehene, kurzfristige Ungleichgewichte zwischen Stromangebot und Stromnachfrage ausgleichen. Das geht z.B. mit Gasturbinen, die so mancher Großbetrieb schon heute auf dem Betriebsgelände installiert hat. Damit er künftig den Strom auch verkauft, helfen die IT-Spezialisten der GFaI, einem Mitglied der Zuse-Gemeinschaft.

In den entwickelten Modellen werden dazu das Bietverhalten am Markt und die Abrufe der Regelenergie für unterschiedliche Anlagen im Energiesystem berücksichtigt. Die Auswertung der Variablen wird im Software-Prototyp anhand eines Optimierungsproblems realisiert und das Ergebnis kann zur Bewertung der Vermarktungsoptionen für unterschiedliche Anlagen genutzt werden. Beispielsweise können laut einer GFaI-Beispielrechnung durch die Vermarktung von Sekundärregelleistung mit der genannten Gasturbine zwischen 10.000 bis 47.000 Euro pro Jahr an Gewinn pro eingesetztem Megawatt (MW) Leistung erwirtschaftet werden. „Wie das Beispiel zeigt, kann sich die Bereitstellung von Regelenergie und damit die aktive Teilnahme am Strommarkt für Industriebetriebe durchaus rechnen“, resümiert GFaI-Experte Joram Wasserfall ein vorläufiges Zwischenergebnis zur Halbzeit des Projekts, das noch bis Herbst 2022 läuft.

Die Bereitstellung von Regelleistung durch eine Gasturbine, die sich statt mit Erdgas auch mit Biogas oder aus Wasserstoff gewonnenem Methan betreiben lässt, ist nur eine Option neben weiteren Möglichkeiten zur Teilnahme am Energiemarkt. Weitere Bausteine sind die Deckung des betrieblichen Eigenbe-darfs an Strom und Wärme sowie der mögliche Handel an der Strombörse. „Im Projekt forschen wir daran, wie sich Energiemärkte der Zukunft am besten beschreiben lassen. Auf der Basis sollen dann Einzelfall-lösungen verlässlich erstellt werden können“, erklärt GFaI-Projektleiter Dr. Stefan Kirschbaum. So soll ein Nutzen für die Energiewende durch die Stabilisierung der Netze ebenso wie für die Industriebetriebe durch Erlöse am Energiemarkt entstehen. „Mit den im Projekt entwickelten Instrumenten bekommen die Betriebe auch Werkzeuge für die Optimierung ihres Unterneh-mens an die Hand, so um zu beurteilen, ob einzelne Anlagen z.B. in einem Chemiepark sinnvoll miteinander verbunden werden können, so die Solaranlage auf dem Dach mit einer Gasturbine“, erläutert Kirschbaum.

ILK mit Eisspeicher zum Glätten von Lastspitzen
Nicht nur den Strom- und Wärme-, sondern auch den Kältemarkt gilt es künftig für die mit der Energiewende steigenden Anforderungen an die Flexibilisierung von Angebot und Nachfrage zu ertüchtigen, zumal er in Zeiten von Klimaerhitzung und Digitalisierung eine wachsende Bedeutung am Energiemarkt erlangt. Besonders hoch ist der Kältebedarf in vielen Branchen am frühen Nachmittag, wenn auch die Strompreise hoch sind. Sinnvoll sind deshalb Kältespeicher, damit die Unternehmen ihren Strombedarf für Kälteanwendungen größtenteils zu Zeiten niedriger Strompreise, z.B. nachts decken können. Möglich ist das mit einem vom Institut für Luft- und Kältetechnik (ILK) perfektionierten Eisspeicher, der Vakuum-Flüssigeis-Technologie. Sie lässt sich mit dem Knowhow der Forschenden aus Dresden für Verbraucher in Industrie- und Dienstleistungs-branchen skalieren und entsprechend dimensionieren, z.B. für Rechenzentren.

Turbo-Verdichter am Tripelpunkt von Wasser hält Kältemaschine in Schwung
Dafür nutzen die ILK-Forschenden ein pumpfähiges Wasser-Eis-Gemisch und bedienen sich eines physikalischen Tricks zur energieeffizienten Eiserzeugung. Bei einem sehr niedrigen Druck von 6 mbar kommt das Wasser an seinen sogenannten Tripelpunkt, wo es gleichzeitig gefrieren und verdampfen kann (s. Grafik). Der Gefrierprozess wird durch die gleichzeitige Verdampfung anderer Wassermoleküle und die Absaugung des entstehenden Wasserdampfes hervorgerufen. Die Herausforderung: Der großen Menge an Wasserdampf mit seiner geringen Dichte Herr werden. Denn die Dichte von Wasserdampf ist bei diesem niedrigen Druck etwa 270 Mal geringer als die von Luft. Dafür hat das ILK einen speziellen Turbo-Verdichter mit Schaufeln aus besonders leichten und stabilen Kohlefaserverbundwerkstoffen entwickelt.

Das vom ILK neu entwickelte Verfahren wurde ursprünglich vom Bundeswirt-schaftsministerium gefördert. Es bewährt sich bereits in der Praxis, so am kürzlich übergebenen gemeinsamen Rechenzentrum für den Wissenschaftsstandort Göttingen. Dort hat das Verdichterlaufrad einen Durchmesser von 1,3 m und rotiert mit 6.500 Umdrehungen pro Minute. „Durch den Abtransport des Dampfes bleibt die Kühlung am Laufen“, erläutert ILK-Abteilungsleiter Angewandte Energietechnik, Mathias Safarik.

Für die Vermarktung des innovativen Kältespeichers plant das ILK die Ausgründung eines Unternehmens zur Realisierung weiterer Projekte. Es trifft auf einen wachsenden Markt. Der Anteil von Klima- und Prozesskälte am deutschen Endenergieverbrauch erreichte 2019, den jüngsten verfügbaren Angaben, laut Bundeswirtschaftsministerium 2,5 Prozent, nach 2,0 Prozent im Jahr 2009. Indes nimmt am deutschen Strommarkt die Bedeutung von Rechenzentren als Abnehmer deutlich zu. „Mit dem von uns entwickelten Verfahren lässt sich Kälte besonders effizient und kostengünstig speichern“, erklärt Safarik. „Damit kann sowohl die elektrische Spitzenlast gesenkt als auch die Kälteerzeugung in Zeiträume verlagert werden, in denen besonders preiswerter Strom aus erneuerbaren Energien verfügbar ist“, erläutert der Experte des ILK, einem weiteren Mitglied der Zuse-Gemeinschaft.

Anhang
PM der Zuse-Gemeinschaft: Industrie kann Flexi-Joker in der Energiewende werden

(nach oben)


TH Köln entwickelt neuartige Membrantechnologie zur Trennung von Gasen

Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
Nachhaltige Aufbereitung von Gasen: Im Projekt „CO2-Abtrennung mittels Nano-Carbon basierter Mixed-Matrix-Membranen“ (GG CO2) hat ein Forschungsteam der TH Köln in Zusammenarbeit mit dem griechischen Institut Demokritos sowie den Firmen FutureCarbon und Advise eine innovative Membran erstellt, mit der einzelne Gase aus Gasgemischen abgetrennt werden können, um beispielsweise Biogas aufzubereiten. Im Fokus stand dabei das klimarelevante Gas CO2.

„Die Trennung von Gasgemischen gewinnt gerade im Hinblick auf die Energiewende, aber auch für die effiziente Nutzung von Ressourcen, eine immer größere Bedeutung. Ein Beispiel ist Biogas, das sich unter anderem aus Abfällen regenerativ gewinnen lässt. Problematisch ist, dass nicht aufbereitetes Biogas – ähnlich wie Erdgas oder Prozessabgase aus der Industrie – in der Regel eine beträchtliche Menge an Verunreinigungen wie Kohlenstoffdioxid enthält – das schmälert die Effizienz der Verbrennung“, sagt Prof. Dr. Tim Schubert vom Institut für Anlagen und Verfahrenstechnik (IAV) der TH Köln. „Die Einspeisung von Biogas in das Gasnetz findet heute auch mangels technisch einsetzbarer und ökonomisch tragbarer Lösungen der Aufreinigung noch nicht statt. Um den Brennstoff nutzbar zu machen und die gesetzlichen Anforderungen für die Einspeisung zu erfüllen, ist eine Aufreinigung erforderlich.“

Mixed-Matrix-Membran
Die Wissenschaftlerinnen und Wissenschaftler erarbeiteten dafür einen innovativen Ansatz zur CO2-Abrennung: sie integrierten Nanomaterialien in eine Mixed-Matrix-Membran, die auf einer Polymermembran basiert. Mit Hilfe von Polymembranen funktioniert prinzipiell die Abtrennung von CO2 aus Erdgas, allerdings weisen sie insgesamt eine nur zu geringe Durchlässigkeit und damit Kapazität auf. Um die Polymermembran zu optimieren und damit bei gegebener Membranfläche mehr Kohlenstoffdioxid herauszufiltern, wurden sogenannte Carbon-Nanotubes – mikroskopisch kleine Kohlenstoff-Nanoröhrchen – in die Matrix hineingemischt.
„Um den Grundstoff für die Membran vorzubereiten, haben wir die Kohlenstoffpartikel mit Hilfe eines speziellen Verfahrens, der Redispergierung, in einer flüssigen Polymerlösung vereinzelt und die Verschlaufungen aufgelöst“, erklärt der wissenschaftliche Mitarbeiter Ruben Hammerstein. Im nächsten Schritt wurde aus der Dispersion, also dem Gemisch aus Polymerlösung und Carbon-Nanotubes, die Membran hergestellt. „Diese besteht aus einem Trägermaterial, das mechanisch stabil ist und den Druck des Gases aushält. Mit Hilfe eines sogenannten Spin-Coaters haben wir die poröse Trägermembran mittels Vakuum fixiert und sie mit bis zu 10.000 Umdrehungen rotieren lassen. Dadurch wird die Dispersion auf der Trägermembran sehr dünn verteilt und es entsteht eine homogene, wenige Mikrometer dicke Schicht, die oben aufliegt – das ist der gastrennende Teil der Membran“, so Hammerstein.

Die Mixed-Matrix-Membran vereint die Vorteile von polymerbasierten Membranen, zum Beispiel Skalierbarkeit der Produktion und niedrige Kosten, mit der Leistungsfähigkeit von kohlenstoffbasierten Nanowerkstoffen. Dazu zählen eine hohe Selektivität – also wie gut die Membran in der Lage ist, Gase voneinander zu trennen – sowie eine hohe Permeabilität, das ist die Gasmenge, die die Membran passiert. Die Gastrenneigenschaften der neuen Membran wurden mit einer eigens konstruierten Testanlage geprüft. „Die Untersuchung lieferte uns vielversprechende Ergebnisse. Bei der Messung zeigte sich ein deutlicher Effekt der gewünschten Ziele hinsichtlich der Stabilität, Selektivität und der Permeabilität“, sagt Schubert.

Zum Projekt
Das Projekt „CO2-Abtrennung mittels Nano-Carbon basierter Mixed-Matrix-Membranen“ (GG CO2) hatte eine Laufzeit von drei Jahren und wurde vom Bundesministerium für Bildung und Forschung gefördert. Neben Projektleiter Prof. Dr. Tim Schubert waren Prof. Dr. Gerhard Braun und Prof. Dr. Stéphan Barbe von der TH Köln beteiligt. Das Projekt wurde außerdem mit folgenden Kooperationspartnern durchgeführt: Institut Demokritos – National Center for Scientific Research (NCSR) – sowie den Firmen Advise und FutureCarbon.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 27.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Sandy Syperek
0221-8275-5147
pressestelle@th-koeln.de

Bildmaterial zur honorarfreien Verwendung bei Copyright-Angabe stellen wir Ihnen gerne zur Verfügung. Bitte wenden Sie sich dazu an pressestelle@th-koeln.de.

(nach oben)


Lernpausen sind gut fürs Gedächtnis

Dr. Stefanie Merker Presse und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie
Wir können uns Dinge länger merken, wenn wir während des Lernens Pausen einlegen. Dieses Phänomen ist als Spacing-Effekt bekannt. Wissenschaftler:innen am Max-Planck-Institut für Neurobiologie haben in Mäusen tiefere Einblicke in die neuronalen Grundlagen dafür erlangt. Mit längeren Zeitabständen zwischen Lernwiederholungen greifen die Tiere immer wieder auf dieselben Nervenzellen zurück – anstatt andere zu aktivieren. Womöglich können sich dadurch die Verknüpfungen der Nervenzellen in jeder Lernphase verstärken, sodass Wissen über längere Zeit gespeichert wird.

Viele von uns kennen das: Einen Tag vor einer Prüfung versuchen wir uns noch den gesamten Lernstoff anzueignen. Doch so schnell wie wir lernen, so schnell ist das mühsame erarbeitete Wissen auch wieder weg. Die gute Nachricht: Wir können diesem Vergessen entgegenwirken. Mit größeren zeitlichen Abständen zwischen einzelnen Lernphasen, behalten wir das Wissen anschließend länger.

Doch was passiert beim Spacing-Effekt im Gehirn und warum sind Lernpausen so förderlich für unser Erinnerungsvermögen? Es wird angenommen, dass beim Lernen Nervenzellen aktiviert und neue Verbindungen unter ihnen geknüpft werden. So wird das erlernte Wissen gespeichert und kann bei Aktivierung derselben Nervenzellgruppe abgerufen werden. Tatsächlich wissen wir bis heute aber kaum, wie Lernpausen diesen Vorgang positiv beeinflussen – obwohl der Spacing-Effekt bereits vor über einem Jahrhundert beschrieben wurde und bei nahezu allen Tierarten vorkommt.

Annet Glas und Pieter Goltstein, Neurobiolog:innen im Team von Mark Hübener und Tobias Bonhoeffer, untersuchten dieses Phänomen in Mäusen. Dazu sollten die Tiere sich in einem Labyrinth die Position eines versteckten Stücks Schokolade merken. Die Mäuse erhielten dreimal hintereinander die Möglichkeit das Labyrinth zu erkunden und ihre Belohnung zu finden – einschließlich Pausen unterschiedlicher Länge. „Mäuse, die wir mit längeren Pausen zwischen den Lernphasen trainierten, konnten sich die Position der Schokolade nicht so schnell merken“, erklärt Annet Glas. „Doch am nächsten Tag war das Erinnerungsvermögen der Mäuse umso besser, je länger die Pausen waren.“

Während des Labyrinth-Tests maßen die Forschenden zusätzlich die Nervenzellaktivität im präfrontalen Kortex. Diese Gehirnregion ist für Lernvorgänge von besonderem Interesse, da sie für ihre Rolle bei komplexen Denkaufgaben bekannt ist. So zeigten die Wissenschaftler, dass eine Inaktivierung des präfrontalen Kortex die Gedächtnisleistung der Mäuse beeinträchtigte.

„Folgen drei Lernphasen kurz aufeinander, erwarten wir intuitiv, dass dieselben Nervenzellen aktiviert werden“, erzählt Pieter Goltstein. „Schließlich handelt es sich um das gleiche Experiment mit der gleichen Information. Nach einer langen Pause wäre es hingegen denkbar, dass das Gehirn die anschließende Lernphase als neues Ereignis interpretiert und mit anderen Nervenzellen verarbeitet.“

Als die Forschenden die Nervenzellaktivitäten in den unterschiedlichen Lernphasen verglichen, stellten sie allerdings genau das Gegenteil fest. Bei kurzen Pausen schwankte das Aktivierungsmuster im Gehirn mehr als im Vergleich zu langen Pausen: In schnell aufeinanderfolgenden Lernphasen aktivierten die Mäuse meist unterschiedliche Nervenzellen. Nach längeren Pausen wurden dagegen die Nervenzellen der ersten Lernphase auch später wieder genutzt.

Indem das Gehirn auf dieselben Nervenzellen zurückgreift, kann es womöglich die Verknüpfungen zwischen diesen in jeder Lernphase stärken. Die Kontakte müssen nicht erst „von neu“ aufgebaut werden. „Das ist der Grund warum wir glauben, dass das Erinnerungsvermögen von langen Pausen profitiert“, sagt Pieter Goltstein.

Damit gibt die Studie nach über einem Jahrhundert tiefere Einblicke in die neuronalen Vorgänge, die den positiven Effekt von Lernpausen erklären. Mit Unterbrechungen kommen wir also womöglich langsamer ans Ziel, haben jedoch deutlich länger etwas von unserem Wissen. Hoffentlich haben wir das bis zur nächsten Prüfung nicht vergessen!

KONTAKT:
Dr. Christina Bielmeier
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: bielmeier@neuro.mpg.de

Wissenschaftliche Ansprechpartner:
Dr. Pieter Goltstein
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
Email: goltstein@neuro.mpg.de

Prof. Dr. Tobias Bonhoeffer
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: office.bonhoeffer@neuro.mpg.de

Originalpublikation:
Annet Glas, Mark Hübener, Tobias Bonhoeffer, Pieter M. Goltstein
Spaced training enhances memory and prefrontal ensemble stability in mice
Current Biology, 28.07.2021
DOI: 10.1016/j.cub.2021.06.085

Weitere Informationen:
https://www.neuro.mpg.de/bonhoeffer/de – Webseite der Forschungsabteilung
https://www.neuro.mpg.de/news/2021-07-bonhoeffer/de – Hier finden Sie eine Audioversion der Pressemitteilung.

(nach oben)


Chinesischer Mais-Hunger wird bleiben

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Erfreuliche Aussichten für den Ackerbau und spannende Einschätzungen zu künftigen Herausforderungen erbrachte die diesjährige Web-Konferenz des internationalen Agrarökonomen-Netzwerks agri benchmark Cash Crop, die am 11. Juni zu Ende ging. Eine Woche lang diskutierten mehr als 140 Forschungspartner und Experten aus dem agri benchmark Netzwerk sowie geladene Gäste aus der Agrarbranche in zehn Sitzungen über die Zukunft der globalen Landwirtschaft. Das Netzwerk wird koordiniert vom Thünen-Institut für Betriebswirtschaft.

Untersuchungen von Jannik Dresemann vom agri benchmark Center in Braunschweig ergaben, dass Landwirte in vielen Anbausystemen vor Herausforderungen stehen: Zum einen sind es Unkraut- und Schädlingsresistenzen gegen bestimmte Pflanzenschutzmittel oder das schlichte Fehlen von Pflanzenschutzmitteln. Zum anderen ist es die Notwendigkeit, Nährstoffverluste – insbesondere Stickstoff – aufgrund der zunehmenden gesellschaftlichen Besorgnis über negative Umweltauswirkungen und Treibhausgasemissionen zu reduzieren. Vor allem das letztgenannte Thema wird sowohl für politische Entscheidungsträger als auch für Akteure der Wertschöpfungskette immer wichtiger.

Eine Podiumsdiskussion über die Konsequenzen aus diesen Erkenntnissen erbrachte, dass eine stärker standortspezifische Forschung zu neuen Anbausystemen sowie die Mobilisierung des vorhandenen Know-hows von Landwirten und Beratern erforderlich ist. Sogenannte „Lebende Labore“, in denen Erzeuger, Agrarindustrie und Pflanzenbauforscher großräumig gemeinsam an Innovationen und Lösungen im Pflanzenbau zusammenarbeiten, wurden als vielversprechende Option angesehen. Die zentrale Herausforderung wird sein: Wer übernimmt die Führungsrolle in einem solchen Prozess?

Der neue kanadische agri benchmark Partner, Ken Coles von Farming Smarter, sagte dazu: „Dieses Thema weiter zu erforschen ist ein spannendes Unterfangen. Ich freue mich sehr darauf, unsere Erfahrungen mit dem Netzwerk und den Stakeholdern weltweit zu teilen, auch im Rahmen eines entsprechenden Forschungsprojekts, an dem Jannik Dresemann vom agri benchmark Center am deutschen Thünen-Institut arbeitet.“

2021 – Erfreuliche Aussichten für viele Ackerbauern
In Anbetracht des jüngsten Anstiegs der globalen Rohstoffpreise – vor allem getrieben durch den rasanten Anstieg der chinesischen Mais-Importe – erwartet das Netzwerk für viele Produzenten ein sehr profitables Jahr 2021. Wie Yelto Zimmer, Koordinator von agri benchmark Cash Crop, erklärte: „Selbst wenn man den massiven Anstieg der Düngemittel- und Energiepreise berücksichtigt, deuten unsere Daten darauf hin, dass bei normalen Erträgen die Grundrenten 2021 mindestens 50 % höher sein werden als in der Periode 2018-2020.“ (siehe Abbildung).

Betrachtet man die Entwicklung der Pflanzenschutzkosten, so sieht man eine recht unterschiedliche Entwicklung: Während z.B. in Frankreich die typischen Betriebe ihre Ausgaben im Weizen über die letzten 6 Jahre um 10 bis 15 % reduzierten, stiegen die Kosten in den wichtigsten britischen Weizengebieten um etwa 30 %.

China: Anhaltender Anstieg der Mais-Nachfrage
Der internationale Experte für Schweineproduktion, Jurgen Hijink aus den Niederlanden, erklärte, dass der aktuelle Anstieg der chinesischen Maisnachfrage und -importe vor allem auf den Strukturwandel in der chinesischen Schweineproduktion zurückzuführen ist. Während früher etwa 30 % der Produktion aus Betrieben mit weniger als 50 Schweinen stammte, hat sich der Großteil der Produktion auf Betriebe im Bereich von mehr als 1.000 Schweinen verlagert. Der Grund für diese Veränderung: Die chinesische Regierung sieht in den sogenannten Hinterhofproduzenten die Hauptverursacher für die schnelle Verbreitung der Afrikanischen Schweinepest (ASP). Daher fördert und unterstützt sie massiv die Errichtung von Megaställen mit mehr als 10.000 Schweinen.

Der Nebeneffekt dieser Veränderung: Die Futterrationen der Großbetriebe basieren hauptsächlich auf handelsüblichem Getreide (Mais, Weizen, Gerste, Sorghum), während die Hinterhofproduktion vor allem Nebenprodukte wie Reiskleie, Erntenebenprodukte, Lebensmittelabfälle usw. verwendet. Im Vergleich zum Niveau vor der ASP-Krise hat diese Verschiebung dazu geführt, dass die Maisnachfrage bis 2021 um 15 % gestiegen ist; bis 2025 wird der Gesamtverbrauch an kommerziellem Getreidefutter um 30 % bis 40 % bzw. über 40 Millionen Tonnen steigen. Dieser Nettoeffekt beinhaltet eine verbesserte Futterverwertung aufgrund des Strukturwandels und einen Anstieg des Schweinefleischverbrauchs um etwa 10 %. Die Konsequenz: Wenn die chinesische Regierung die Landnutzung nicht massiv in Richtung Maisanbau umwidmet, dürfte das hohe Niveau der chinesischen Mais-Importe anhalten.

Wissenschaftliche Ansprechpartner:
Jeanette Malchow
agri benchmark Center am Thünen-Institut, Braunschweig
Mail: jeanette.malchow@agribenchmark.net

(nach oben)


Förderaufruf: Klimaschonendes Stickstoffmanagement im Pflanzenbau

Tassilo Frhr. v. Leoprechting Pressestelle
Bundesanstalt für Landwirtschaft und Ernährung (BLE)
Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) fördert in der Ackerbaustrategie ab sofort Forschungs- und Entwicklungsvorhaben sowie Wissenstransfervorhaben zum „Klimaschonenden Stickstoffmanagement im Pflanzenbau“. Projektskizzen können bis zum 18. Oktober 2021 bei der Bundesanstalt für Landwirtschaft und Ernährung (BLE) eingereicht werden.

Im Forschungs- und Entwicklungsvorhaben (FuE) sollen die Kenntnisse über den Stickstoffkreislauf sowie die Wirkungen und Wechselwirkungen spezifischer Maßnahmen verbessert werden. Im Fokus stehen Vorhaben, die erweiternde Erkenntnisse hinsichtlich Emissionsminderungen im pflanzenbaulichen Stickstoffmanagement liefern. Hierzu zählen die Verringerung von Ammoniak- und Lachgasemissionen, die Wirkung von Nitrifikations- und Ureasehemmstoffen sowie die Minderung denitrifikationsbedingter, klimawirksamer Emissionen aus landwirtschaftlichen Böden.

Darüber hinaus fördert das BMEL Wissenstransfervorhaben, die neuartige, praxisreife und emissionsarme Techniken in der Praxis etablieren. In diesen Vorhaben können Demonstrationsversuche durchgeführt werden.

Weitere Informationen befinden sich in der Bekanntmachung unter: http://www.ble.de/Klimaschonendes-Stickstoffmanagement-Pflanzenbau

Hintergrundinformationen
Um die Entwicklung einer leistungsfähigen und zugleich umwelt- und klimaschonenden Landwirtschaft voranzutreiben, legt die Bundesregierung in ih-rem Klimaschutzprogramm 2030 die „Senkung der Stickstoffüberschüsse einschließlich Minderung der Ammoniakemissionen und gezielte Verminderung der Lachgasemissionen sowie Verbesserung der Stickstoffeffizienz“ als Maßnahme im Bereich Landwirtschaft fest. Auch das Diskussionspapier „Ackerbaustrategie 2035“ (ABS) des BMEL formuliert Maßnahmenvorschläge, um die Düngeeffizienz zu erhöhen und die Nährstoffüberschüsse zu verringern.

Weitere Informationen:
http://www.ble.de/Klimaschonendes-Stickstoffmanagement-Pflanzenbau

(nach oben)


Kinder entwickeln langfristige Immunität gegen COVID-19

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Aktuelle Ergebnisse der COVID-19-Familienstudie Baden-Württemberg als Preprint veröffentlicht / Asymptomatischer Verlauf der Infektion bei Kindern fünfmal häufiger als bei Erwachsenen / Immunantwort stabiler als bei Erwachsenen

Wie verläuft eine COVID-19-Infektion bei Kindern, sind sie nach einem milden Verlauf geschützt und welche Rolle spielen sie im Pandemiegeschehen als Erkrankte, Infektionsherde und -verstärker? Diese zentralen Fragen haben Wissenschaftler*innen der Universitätsklinika in Freiburg, Heidelberg, Tübingen und Ulm sowie des Naturwissenschaftlichen und Medizinischen Instituts NMI in Reutlingen in der vom Land Baden-Württemberg initiierten und finanzierten COVID-19-Kinder-Studie untersucht. Sie zeigten, dass Kinder sich innerhalb der Familien deutlich seltener ansteckten als Erwachsene und der Verlauf meist deutlich milder war. Gleichzeitig war die Immunantwort bei Kindern im Schnitt stärker und hielt länger an als bei Erwachsenen, unabhängig davon, ob Symptome auftraten. Die Ergebnisse sind am 23. Juli 2021 als Preprint veröffentlicht worden.

Weniger Symptome, besserer Immunschutz
Für die Studie wurden 328 Familien mit mindestens einem an COVID-19 erkrankten Mitglied mehrfach untersucht. Insgesamt nahmen 548 Kinder im Alter zwischen 6 und 14 Jahren und 717 Erwachsene teil. In Familien mit einer infizierten Person steckten sich Kinder (34 Prozent) deutlich seltener an als Erwachsene (58 Prozent) und waren – im Fall einer Infektion – fünfmal häufiger ohne Krankheitszeichen (Erwachsene: 9 Prozent, Kinder: 45 Prozent). Trotzdem zeigten die Kinder elf bis zwölf Monate nach der Infektion stärkere und länger anhaltende spezifische Antikörperspiegel als Erwachsene. Das galt unabhängig davon, ob Krankheitszeichen bestanden oder nicht. Die kindlichen Antikörper sind gut wirksam gegenüber verschiedenen Virusvarianten, so dass auch nicht sichtbar erkrankte Kinder nach einer Infektion geschützt sein sollten. Keines der infizierten Kinder musste im Krankenhaus behandelt werden.

Krankheitszeichen unterscheiden sich
Auch bei den berichteten Beschwerden unterschieden sich Erwachsene und Kinder. Während bei Erwachsenen Fieber, Husten, Durchfall und Geschmacksstörungen gleichermaßen ein guter Hinweis auf eine Infektion waren, waren bei Kindern nur Geschmacksstörungen ein deutlicher Hinweis auf eine COVID-19-Infektion (in 87 Prozent). Husten und Fieber waren erst mit steigendem Alter ab etwa zwölf Jahren ein Hinweis auf eine Infektion.

Zusammengefasst zeigt sich: Von COVID-19 genesene Kinder entwickeln trotz eines oft sehr milden oder sogar symptomfreien Verlaufs eine sehr wirksame und anhaltende Immunabwehr gegen neue Coronavirus-Infektionen. Es gibt Anzeichen, dass die kindliche Immunabwehr die von Erwachsenen sogar übertrifft.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Philipp Henneke
Leiter der Abteilung für Pädiatrische Infektiologie und Rheumatologie
Zentrum für Kinder- und Jugendmedizin
Universitätsklinikums Freiburg
Telefon: 0761 270-77640
philipp.henneke@uniklinik-freiburg.de

Dr. Roland Elling
Funktionsoberarzt in der Abteilung für Pädiatrische Infektiologie und Rheumatologie
Zentrum für Kinder- und Jugendmedizin
Universitätsklinikum Freiburg
Telefon: 0761 270-45291
roland.elling@uniklinik-freiburg.de

Originalpublikation:
Titel der Studie: Typically asymptomatic but with robust antibody formation: Children’s unique humoral immune response to SARS-CoV-2
DOI: 10.1101/2021.07.20.21260863
Link zur Studie: https://www.medrxiv.org/content/10.1101/2021.07.20.21260863v1

(nach oben)


Fließgewässermonitoring: BUND startet gemeinsam mit Wissenschaftler:innen von UFZ und iDiv ein Citizen Science-Projekt

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Der Bund für Umwelt und Naturschutz Deutschland (BUND), das Helmholtz-Zentrum für Umweltforschung (UFZ) und das Deutsche Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig starten ein umfassendes Monitoring von deutschen Fließgewässern. Ziel ist es, die Belastung kleiner Fließgewässer durch Pestizide zu erforschen und die Auswirkungen auf aquatische Insektengemeinschaften zu erfassen. So soll langfristig der Zustand deutscher Kleingewässer untersucht, und auf dieser Grundlage die Artenvielfalt gefördert werden. Bürgerwissenschaftler:innen helfen dabei mit.

„Die Kleingewässer in Deutschland sind in einem kritischen Zustand“, sagt Olaf Bandt, Vorsitzender des BUND. „Insbesondere in landwirtschaftlich geprägten Regionen sind die Belastungen durch Pestizide und andere Schadstoffe besonders hoch.“ Erst kürzlich hatten Wissenschaftlerinnen und Wissenschaftler unter Leitung des UFZ die Ergebnisse eines ersten bundesweiten Monitorings von Kleingewässern in Agrarlandschaften veröffentlicht. Sie zeigen, dass die staatlichen Grenzwerte für Pestizide in der Regel zu hoch angesetzt sind und selbst diese zu hohen Werte in über 80 Prozent der Gewässer noch überschritten werden.
Kleinere Bäche und Gräben machen mehr als 70 Prozent des deutschen Fließgewässernetzes aus. Viele seltene Tier- und Pflanzenarten sind akut bedroht: Denn viele dieser Arten brauchen saubere und unbelastete Kleingewässer zum Überleben. Momentan werden Kleingewässer in Deutschland jedoch behördlich nicht systematisch überwacht.
Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Citizen Science-Projekt „FLOW“ wird die bisherigen Arbeiten durch die Mitarbeit von Bürgerwissenschaftlerinnen und -wissenschaftlern mit einer Vielzahl an Daten ergänzen. In den nächsten drei Jahren sind bundesweit mindestens 200 Monitoringeinsätze geplant, bei denen die Gemeinschaft der wirbellosen Tiere (Makrozoobenthos) untersucht und bestimmt wird. Außerdem wird die Gewässerstruktur beurteilt und die chemisch-physikalische Wasserqualität analysiert. Anschließend sollen auf Grundlage der Untersuchungsergebnisse gemeinsam Maßnahmen zur Reduktion von Pestizideinträgen und zur Verbesserung des Zustands von Gewässern entwickelt werden. Unterstützt werden die Monitoringeinsätze durch die Umweltmobile der Sächsischen Landesstiftung Natur und Umwelt (LaNU). „Die Bürgerwissenschaftler:innen, die sich im Projekt FLOW engagieren, werden durch ihre Aktivitäten in den nächsten drei Jahren erheblich dazu beitragen, Gewässer und Lebensgemeinschaften zu untersuchen und den Gewässerschutz zu verbessern“, betont Citizen Science-Expertin Prof. Aletta Bonn von UFZ und iDiv.
Nur etwa 8 Prozent der deutschen Fließgewässer befinden sich derzeit in einem „guten ökologischen Zustand“, obwohl dieses Ziel eigentlich schon 2015 erreicht sein sollte. Dieser Zustand ist laut Umweltbundesamt praktisch unverändert, seit die EU-Wasserrahmenrichtlinie im Jahr 2000 eingeführt wurde. Der BUND fordert die Bundesregierung auf, den Pestizideinsatz zum Schutz gesunder Ökosysteme zu reduzieren und besonders gefährliche Wirkstoffe zu verbieten. Kleine Bäche sind durch das geplante Insektenschutzgesetz noch nicht ausreichend vor Pestiziden geschützt. Eine umweltverträgliche Landwirtschaft muss künftig stärker gefördert werden, um unsere Gewässer, die aquatische Biodiversität und somit eine gesunde Umwelt zu schützen.
Das Projekt hat eine Laufzeit von Februar 2021 bis Januar 2024 und wird im Rahmen des Förderbereichs Bürgerforschung vom Bundesministerium für Bildung und Forschung gefördert. Es gehört zu 15 Projekten, die bis Ende 2024 die Zusammenarbeit von Bürger:innen und Wissenschaftler:innen inhaltlich und methodisch voranbringen und Antworten auf gesellschaftliche Herausforderungen geben sollen. Weitere Informationen unter: http://www.bmbf.de/de/buergerforschung-225.html und http://www.buergerschaffenwissen.de

Mehr Informationen zum FLOW-Projekt: http://www.bund.net/flow
Ergebnisse des Kleingewässermonitorings (UFZ-Pressemitteilung vom 15. Juni 2021): https://www.ufz.de/index.php?de=36336&webc_pm=33/2021

Wissenschaftliche Ansprechpartner:
Lilian Neuer, BUND Koordinatorin im Projekt FLOW / lilian.neuer@bund.net
Julia von Gönner, UFZ/iDiv-Koordinatorin im Projekt FLOW / julia.vongoenner@ufz.de

(nach oben)


Neue Ergebnisse: Salzwassereinbrüche können den Überdüngungsgrad der Ostsee nur wenig und nur vorübergehend verbessern

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Mithilfe von Detailanalysen an Wasser- und Sedimentproben aus dem Gotlandbecken gelang es Warnemünder Geowissenschaftler:innen, die geochemischen Prozesse nachzuverfolgen, die nach dem Jahrhundert-Salzwassereinbruch von 2014/2015 abliefen. Ihr Fazit: Selbst sehr große Mengen an sauerstoffhaltigem Wasser bringen nur geringe und vorübergehende Verbesserungen für die Nährstoffsituation in der zentralen Ostsee. Bereits 1,5 Jahre nach dem Ereignis waren die Sauerstoffreserven im Gotland-Becken wieder verbraucht und absedimentiertes Phosphat ging wieder in Lösung. Im Sediment verblieben allerdings Anreicherungen von Spurenmetallen, die im Zusammenhang mit Salzwassereinbrüchen noch unbekannt waren.

Sporadisch auftretende Einströme großer Mengen an salzhaltigem Nordsee-Wasser gelten als Hoffnungsträger, wenn es um die “toten Zonen” am Boden der zentralen Ostsee geht. Die sogenannten Salzwassereinbrüche bringen sauerstoffhaltiges Oberflächenwasser der Nordsee in die Ostsee, wo es aufgrund seiner – im Vergleich zum Brackwasser der Ostsee – höheren Dichte absinkt und am Boden bis in die zentrale Ostsee fließen kann. Dies ist der einzige Prozess, der innerhalb kurzer Zeit für eine Sauerstoffversorgung des Tiefenwassers sorgen und die Ausbreitung der “toten Zonen” eindämmen kann. Entsprechend groß war die Hoffnung, als im Dezember 2014 der drittgrößte Salzwassereinbruch seit 1880 sehr große Mengen an Salz und Sauerstoff in die Ostsee brachte.

Sauerstoffzufuhr ermöglicht nicht nur eine erneute Belebung des Meeresbodens, sie löst auch eine Kette von Oxidationsprozessen aus, in deren Verlauf es zur Ausfällung von Phosphat-Verbindungen kommen kann. Dem Wasser wird auf diese Weise Phosphor entzogen, ein entscheidender Nährstoff, der neben Stickstoff für die Überdüngung und die daran gekoppelten sommerlichen Cyanobakterien-Blüten („Blaualgen“) in der Ostsee verantwortlich ist.

Die Warnemünder Geowissenschaftler:innen Olaf Dellwig, Antje Wegwerth und Helge Arz nahmen diesen doppelt positiven Effekt der Salzwassereinbrüche zum Anlass, um ausgehend vom Ereignis im Dezember 2014 bis zum Herbst 2019 im Tiefenwasser und Sediment des Gotlandbeckens nach den Teilprozessen dieses Dominoeffektes zu forschen. Daten aus der Zeit vor der Belüftung standen zu Vergleichszwecken ebenfalls zur Verfügung.

Drei Fragen trieben sie vorrangig um: (1) Wie effektiv ist die Phosphatfällung und damit die Abnahme dieses Nährstoffs im Tiefenwasser nach einem Salzwassereinbruch? (2) Gibt es im Laufe der Tiefenwasser-Belüftung Mineralneubildungen und bleiben sie beim Wiedereinsetzen von Sauerstoffmangel stabil? (3) Lassen sich solche Minerale in älteren Ablagerungen als Indikatoren für frühere Salzwassereinbrüche nutzen? Ihre Ergebnisse haben sie vor kurzem in der Fachzeitschrift Continental Shelf Research veröffentlicht.

Innerhalb der gesamten Beobachtungszeit von mehr als 4,5 Jahren sank der Phosphat-Gehalt in der Wassersäule unterhalb einer Wassertiefe von 80 m verglichen mit den Werten vor dem Salzwassereinbruch nur um maximal 30%. Bereits 1,5 Jahre nach dem großen Belüftungsereignis 2014/2015 stellten sich wieder Bedingungen ähnlich der ursprünglichen Situation ein.
Im Gegensatz zu den Salzwassereinbrüchen in den Jahren 1960 bis 1970 führte dieser Salzwassereinbruch im Tiefenwasser zu keiner nennenswerten Bildung von Mangan-Karbonat (Rhodochrosit), einem Mineral, das in älteren Ablagerungen als Zeuge für Salzwassereinbrüche genutzt wurde.
Während Spurenmetalle wie Molybdän und Uran durch die Belüftung kurzfristig ins Wasser freigesetzt wurden, gelangten erhebliche Mengen an Kobalt in die Ablagerungen am Meeresboden.

„Wir haben in datierten Sedimenten der letzten 70 Jahre gezielt nach diesem Muster aus Kobalt-Anreicherung bei gleichzeitiger Verarmung an Molybdän und Uran gesucht und fanden bestätigt, dass es seit den 1980er Jahren immer parallel zu den Salzwassereinbrüchen auftauchte“, erläutert Olaf Dellwig, Geochemiker am IOW. Seine Kolleg:innen und er freuen sich, mit dieser Kombination an Spurenmetallen nun auch vergangene Salzwassereinbrüche identifizieren zu können, die nicht durch den unsicheren Indikator der Mangan-Karbonat-Lagen aufgezeichnet wurden. Für das Ökosystem Ostsee ist das Ergebnis weniger erfreulich: Von sporadischen Salzwassereinbrüchen ist auch in Zukunft keine nachhaltige Verkleinerung der „toten Zonen“ und keine Reduzierung des Nährstoffinventars zu erwarten.

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 93 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Olaf Dellwig | Tel.: 0381 – 5197 437 | olaf.dellwig@io-warnemuende.de
Sektion Marine Geologie, Leibniz-Institut für Ostseeforschung Warnemünde
Kontakt IOW-Presse- und Öffentlichkeitsarbeit:

Originalpublikation:
Dellwig, O., Wegwerth, A. and Arz, H.W., 2021. Anatomy of the Major Baltic Inflow in 2014: Impact of manganese and iron shuttling on phosphorus and trace metals in the Gotland Basin, Baltic Sea. Continental Shelf Research, 223: 104449. https://doi.org/10.1016/j.csr.2021.104449

(nach oben)


Vermehrte Regenfälle im Sommer verändern den Kohlenstoffkreislauf in der Arktis

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Arktische Flüsse transportieren mehr Nährstoffe und Kohlenstoff – mit potenziellen Auswirkungen auf Wasserqualität, Nahrungsketten und freiwerdende Klimagase

Arktische Flüsse werden zunehmend auch von Regen und nicht nur von Schneeschmelze gespeist. Das führt zu einer stärkeren Wechselwirkung der Gewässer mit Pflanzen und Boden – und damit zu einem stärkeren Eintrag von Nährstoffen, Kohlenstoff und anderem organischen wie anorganischen Material. Das zeigen Forschende um Joanne Heslop vom Deutschen GeoForschungsZentrum Potsdam (GFZ) und Casey Beel von der Queens University, Kingston (Kanada) in einer Studie, die im Fachmagazin Nature Communications erschienen ist. Sie haben mehr als zehn Jahre umfassende Daten über Wetterereignisse, Fließgewässer und deren biogeochemische Zusammensetzung analysiert. Potenzielle Auswirkungen betreffen einerseits Wasserqualität und Nahrungskette und andererseits die Freisetzung von Treibhausgasen wie CO2 und Methan. Somit sind die Daten wichtig für die Verbesserung von biogeochemischen und Klimamodellen.

Bedeutung arktischer Gewässer für den globalen Kohlenstoffkreislauf
Arktische Binnengewässer sind wichtige Komponenten des globalen Kohlenstoff-Kreislaufs. Sie enthalten Kohlenstoff, der beispielsweise durch mikrobielle Prozesse teilweise zu CO2 oder Methan umgewandelt und als Treibhausgas freigesetzt werden kann.

Dass und wie sich der Eintrag von Kohlenstoff und anderen organischen und anorganischen Substanzen in die Gewässer der hohen Arktis mit dem Klimawandel selbst verändert, haben Joanne Heslop, PostDoc am GFZ, und ihre kanadischen Kolleg*innen um Casey Beel von der Queens University, Kingston, am Cape Bounty Arctic Watershed Observatory auf Melville Island, Nunavut, in Kanada untersucht.

Nicht nur Schneeschmelze: häufigere Regenfälle im Spätsommer
Als hohe Arktis wird der Bereich oberhalb von 70 Grad nördlicher Breite verstanden. Diese Gegenden liegen weitab jeglicher Zivilisation, sind schlecht zugänglich und daher noch wenig intensiv untersucht. Bislang ging man davon aus, dass die dortigen Gewässer überwiegend von der Schneeschmelze gespeist werden. Im Laufe des Sommers führen die Flussläufe dann immer weniger Wasser, manche versiegen ganz. Dementsprechend fanden bislang die meisten Messkampagnen in der Schneeschmelzsaison statt.

Bei ihren Expeditionen haben Joanne Heslop und Casey Beel allerdings über die Jahre beobachtet, dass es in der Arktis immer häufiger regnet, vor allem in der späteren Sommersaison. Flussläufe werden daher nicht mehr nur überwiegend im Frühling und Frühsommer durch Schmelzwasser gespeist, sondern führen auch im weiteren Verlauf des Sommers noch Wasser aus Regenfällen. Bis zu 40 Prozent der jährlichen Flussmengen werden mittlerweile später im Jahr beobachtet. Etliche Flüsse versiegen gar nicht mehr, wie andere Arbeiten gezeigt haben.

Mehr terrestrisches Material im abfließenden Wasser
„Dadurch verändert sich die biogeochemische Zusammensetzung der Gewässer fundamental“, sagt Heslop. Der Abfluss der Schneeschmelze hat aufgrund der Schneedecke, der Kanalisierung und des gefrorenen Bodens nur eine begrenzte und sehr oberflächliche Interaktion mit der Landschaft, bevor er in den Fluss gelangt.

Die Niederschlagsereignisse treten vor allem später im Sommer auf, wenn es wärmer wird. Dann ist der Permafrostboden in Tiefen bis zu einige Dutzend Zentimeter aufgetaut, das mikrobielle Leben erwacht und es wachsen Pflanzen. Für das breit eingetragene und dann abfließende Wasser gibt es viel mehr Gelegenheit, mit der umgebenden Landschaft zu wechselwirken, bevor es die größeren Flüsse oder Seen speist. Dadurch verändern sich die Menge und die Art des mitgetragenen organischen oder anorganischen terrestrischen Materials.

Auswertung großer Datensätze über 14 Jahre
„Bislang wurde das wenig untersucht und als Effekt unterschätzt“, sagt Heslop. Für ihre Studie hat die Biogeochemikerin zusammen mit ihren Kolleg*innen hydrometeorologische und biogeochemische Daten aus dem Zeitraum von 2003 bis 2017 ausgewertet, die aus der hohen Arktis rund um das Cape Bounty Arctic Watershed Observatory stammen. Sie umfassten Temperatur- und Niederschlagsdaten, Abflussmengen, Fließenergie, Konzentrationen von Sedimenten und Nährstoffen einschließlich Kohlenstoff, sowie optische Merkmale gelöster organischer Stoffe.

In Jahren mit höheren Niederschlägen fanden die Forschenden größere Mengen an terrestrischem Material in den Flussläufen, als in vergleichsweise trockenen Jahren. Bei schwächerem Regen wurde vor allem gelöste Materie mitgeschwemmt. Je stärker der Regen, desto mehr Fließenergie in den Wasserströmen, sodass auch schwerere Steinchen und Partikel, die sich sonst am Flussbett absetzen, mitgerissen und flussabwärts transportiert werden.

Folgen
Wie sich Art und Menge des im Wasser transportierten Materials ändern, hat erhebliche Konsequenzen in zwei Bereichen: Zum einen bewirkt ein Mehr an organischen Substanzen und Nährstoffen Änderungen in der Wasserqualität sowie in der Folge auch für die Nahrungskette – von den Mikroorganismen bis zu Fischen und anderen Meerestieren, und damit auch für deren Lebensraum. Zum anderen – und das hat laut Heslop noch größere Bedeutung – beeinflussen diese Substanzen auch die Entstehung von Treibhausgasen wie CO2 und Methan: „Wenn in wärmeren Perioden frischerer Kohlenstoff und mehr Strömung vorhanden ist, besteht die Möglichkeit, dass Mikroorganismen diesen Kohlenstoff vermehrt zu Treibhausgasen verarbeiten.“

Resümee und Ausblick
Somit hat das Team durch seine Forschung den Blick nicht nur auf ein neues saisonales Zeitfenster im späteren Sommer gelenkt. „Unsere Ergebnisse werden das Verständnis dafür verbessern, wie die hydrologischen und landschaftlichen Charakteristika die Treibhausgasproduktion in der kanadischen Hocharktis beeinflussen. So gelangen wir zu wichtigen neuen Einsichten über den Kohlenstoffkreislauf in den polaren Permafrostregionen“, resümiert Heslop. Das ist vor allem vor dem Hintergrund des fortschreitenden Klimawandels bedeutsam, in dessen Folge sich Stärke, Ausmaß und Häufigkeit von Sommerregen in der Arktis weiter erhöhen werden. Der Fokus müsse künftig von den größeren Flussläufen mehr zu den kleinen Zuflüssen flussaufwärts wandern, wo die meiste Wechselwirkung zwischen Wasser und Erde stattfindet und die Effekte stärker messbar sind. Für all das brauche es auch neue Methoden und neue Forschungsansätze, so Heslop.

Joanne Heslop wird seit 2019 für drei Jahre mit einem GFZ Discovery Fellowship für Postdoktorand*innen gefördert.

Stark strömender Fluss in der Hoch-Arktis
Erhöhte Strömungsleistung in einem Fluss der Hoch-Arktis als Ergebnis eines herbstlichen Regenereignisses. Diese Niederschlagsereignisse sind wichtige, aber zu wenig beprobte und untersuchte Mechanismen zur Versorgung arktischer Flüsse mit gelöstem und partikulärem terrestrischem Material. (Foto: Scott Lamoureux, Queens University)
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11425_arctic-rainfall_Scott-Lamoureux-…

Stark strömender Fluss in der Hoch-Arktis – Schwenk
Erhöhte Strömungsleistung in einem Fluss der Hoch-Arktis als Ergebnis eines herbstlichen Regenereignisses. (Foto: Scott Lamoureux, Queens University)
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11425-mp4_arctic-rainfall_Scott-Lamour…

Wissenschaftliche Ansprechpartner:
Dr. Joanne Heslop
Sektion Geomikrobiologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28666
E-Mail: joanne.heslop@gfz-potsdam.de

Originalpublikation:
Beel, C., Heslop, J., Orwin, J., Pope, M., Schevers, A., Hung, J., Lafreniere, M., Lamoureux, S.: Emerging dominance of summer rainfall driving High Arctic terrestrial-aquatic connectivity. Nature Communications, 12, 1448 (2021). DOI: 10.1038/s41467-021-21759-3

(nach oben)


Gereinigtes und ungereinigtes Abwasser: In Modellregion (Mexiko) werden Risiken beim Einsatz auf Agrarflächen erforscht

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Julius Kühn-Institut (JKI) untersucht im Rahmen eines neu bewilligten DFG-Projektes den Einfluss der Abwasserqualität auf das Pflanzenmikrobiom und übertragbare Antibiotikaresistenzen

(Braunschweig) FOR5095 – hinter diesem unscheinbaren Kürzel, verbirgt sich ein deutsch-mexikanischer-Forschungsverbund, den die Deutsche Forschungsgemeinschaft (DFG) für die nächsten vier Jahre mit insgesamt rund 2,5 Millionen Euro fördert. Auch die Braunschweiger Mikrobiom-Forscherin Prof. Dr. Kornelia Smalla vom Julius Kühn-Institut (JKI), Bundesforschungsinstitut für Kulturpflanzen ist an FOR5095 beteiligt. Sie leitet das Teilprojekt 5 (SP 5), in dem untersucht wird, ob Antibiotikarückstände in Böden und Pflanzen das Pflanzenmikrobiom beeinflussen und so zur Anreicherung übertragbarer Antibiotika-Resistenzen beitragen.

Die sieben Partner von FOR5095 wollen am Beispiel des weltweit größten zusammenhängenden Abwasserbewässerungssystems nördlich von Mexiko-Stadt die Interaktionen von Schadstoffen, Krankheitserregern und Antibiotikaresistenz erforschen. „In dem rund 900 Quadratkilometer großen Gebiet finden wir einmalige Bedingungen vor“, erklärt Prof. Smalla vom JKI. Denn hier wurden Agrarflächen in den vergangenen 100 Jahren mit einer Mischung aus unbehandeltem Abwasser und Regenwasser bewässert. Dadurch konnten sich die Rückstände von Arznei- und Desinfektionsmitteln, Metalle und auch antibiotikaresistente Bakterien in den Böden der Felder anreichern. Inzwischen wurde im Valle Mezquital die weltweit drittgrößte Kläranlage in Betrieb genommen, die von den Partnern der DFG-Forschergruppe bereits 2013 besichtigt werden durfte. Nun gelangt das Abwasser von Mexiko-Stadt nicht mehr ungeklärt auf die Felder. Die Forschenden befürchten jedoch, dass jetzt mehr antibiotikaresistente Bakterien auf die landwirtschaftlichen Flächen und in die Nahrungskette gelangen könnten. Denn sie vermuten, dass zwar insgesamt weniger Bakterien im geklärten Abwasser enthalten sind, dafür aber multiresistente Bakterien einen Selektionsvorteil haben, wenn das behandelte Abwasser zu einer Mobilisierung der in der Vergangenheit im Boden akkumulierten Schadstoffe führt.

„Diese vermutete Selektion von Antibiotikaresistenzen und die Ausbreitung von Krankheitserregern in Agrarsystemen und ihren Transfer wollen wir untersuchen“, beschreibt Smalla den Beitrag des JKI-Teilvorhabens. Zunächst wird geprüft, ob die Umweltkonzentrationen von Schadstoffen, die aus dem Boden freigesetzt und von Pflanzen aufgenommen werden, hoch genug sind, um Antibiotikaresistenzen zu selektieren und horizontalen Gentransfer, also der Austausch von Genen zwischen verschiedenen Bakterienarten, in Böden und Pflanzen zu stimulieren. Dann soll am JKI herausgearbeitet werden, inwiefern der Bodentyp die Freisetzung von Schadstoffen und die damit verbundene Selektion von Antibiotikaresistenzen verändert. Dazu wird in Topf-Experimenten die Zusammensetzung des Mikrobioms, die Häufigkeit von Antibiotikaresistenz-Genen sowie von mobilen genetischen Elementen, die mit gramnegativen Bakterien assoziiert sind, in drei Bodentypen aus Mexiko verglichen. Alle drei Bodentypen wurden seit über 80 Jahren mit unbehandeltem Abwasser bewässert.

Hintergrundinformation zum Thema Abwassernutzung in der Landwirtschaft
Die Wiederverwendung von Abwasser für die Bewässerung landwirtschaftlicher Flächen ist eine effiziente Möglichkeit, Wasser zu sparen und die Nahrungsmittelproduktion für eine wachsende Bevölkerung unter den Bedingungen des Klimawandels zu gewährleisten. Aufgrund von Investitionen in die Infrastruktur wird in vielen Ländern dazu vermehrt behandeltes Abwasser verwendet. Kläranlagen gelten jedoch als Hotspots für die Entstehung von Antibiotikaresistenzen, und auch geklärtes Abwasser enthält meist Antibiotikarückstände, aber leider weniger organische Substanz, die diese an sich binden. Daher steht die Frage im Raum, ob der Einsatz des geklärten Abwassers nicht neue Probleme mit sich bringt.

Hintergrundinformation zum DFG-Projekt FOR5094
Sprecher der neu eingerichteten DFG-Forschungsgruppe ist Prof. Dr. Jan Siemens, der an der Justus Liebig Universität Gießen (JLU) die Professur für Bodenressourcen und Bodenschutz innehat. Neben der JLU sind die Universität Bonn, das Universitätsklinikum Bonn, die Beuth Hochschule Berlin, das Julius Kühn-Institut in Braunschweig und die Universität Tübingen an der Gruppe FOR5095 beteiligt. Das Projekt wird in Kooperation mit der Universidad Nacional Autónoma de México durchgeführt.

Wissenschaftliche Ansprechpartner:
Wissenschaftliche Ansprechpartnerin
Prof. Dr. Kornelia Smalla
Julius Kühn-Institut (JKI)
Institut für Epidemiologie und Pathogendiagnostik
Messeweg 11/12, 38104 Braunschweig
Tel. 0531 299-3814
kornelia.smalla@julius-kuehn.de

(nach oben)


Gesundheits-Check für Flüsse

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Wissenschaftler der FAU erforschen den Zusammenhang von gelöstem Sauerstoff und Wasserqualität.

Gelöster Sauerstoff ist wichtig für Gewässer. Sein kontinuierlicher Eintrag ist für im Wasser lebende Organismen notwendig – aber durch viele Faktoren gefährdet. In einer Studie, die in der hochrangigen Fachzeitschrift Earth-Science Reviews veröffentlicht* wurde, nehmen Forschende der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) und weitere Autorinnen und Autoren aus dem im Bayerischen Netzwerk für Klimaforschung geförderten Projekt AquaKlif die Rolle des gelösten Sauerstoffs in Flüssen unter die Lupe. Anhand weltweiter Messdaten zeigt die Studie: Da Flüsse die biogeochemischen Informationen ganzer Einzugsgebiete integrieren, kann ihre Sauerstoffdynamik wichtige Hinweise auf die Gesundheit der umgebenden Ökosysteme und Landschaften liefern.
Gelöster Sauerstoff ist eines der wichtigsten Elemente für den Großteil der Lebewesen im Wasser – aber gleichermaßen ein knappes Gut, da seine Löslichkeit begrenzt ist. Die Wassertemperatur, das Fließgefälle in Bächen und Flüssen und die angrenzende Landnutzung beeinflussen die Sauerstoffgehalte in Fließgewässern und deren Sedimenten. Gerade die Sedimente am Bachgrund sind für zahlreiche an und im Wasser lebende Arten ein wichtiger Lebensraum, in dem etliche Tiere das Ei- oder Larvenstadium verbringen. Die Autoren fassen die wichtigsten Quellen und Senken von gelöstem Sauerstoff in Flusssystemen zusammen und diskutieren seine Rolle in angrenzenden Seen, Stauseen, Böden und Grundwasser.

Lebensbedingungen am und um den Fluss
„Spannend waren nach der für ein Review-Paper notwendigen Literaturrecherche unsere eigenen Analysen, in denen wir mit zusammen mit Romy Wild von der TU München über 170.000 Messdaten von gelöstem Sauerstoff aus der Global River Chemistry Datenbank ausgewertet haben“, sagt Hauptautor David Piatka vom GeoZentrum der FAU. Auf weltweitem Maßstab konnte der Einfluss verschiedener Faktoren gezeigt werden, angefangen von wasserchemischen Daten über die Topographie bis hin zur Bevölkerungsdichte im Einzugsgebiet. „So erfahren wir nicht nur etwas über die Lebensbedingungen im Fluss und an seinem Ufer, sondern auch wie es an den vielen kleinen Zuflüssen und in ihrem Umfeld aussieht. Mit dieser Methode können wir sogar für das gesamte Einzugsgebiet abschätzen, wie intakt die Natur dort ist“, bringt es Doktorand David Piatka auf den Punkt. Trotz der Komplexität aller Sauerstoffproduzierenden und -umsetzenden Prozesse in Flüssen zeigte sich die Wassertemperatur als wichtigste Einflussgröße. Piatkas Fazit: „Die umfangreiche Auswertung der vorhandenen Daten lässt erwarten, dass die Klimaerwärmung allein schon aufgrund der geringeren Sauerstofflöslichkeit in wärmer werdenden Gewässern für aquatische Ökosysteme kritisch werden kann.“

Weiterentwicklung von Monitoring-Techniken
Die Forscherinnen und Forscher schlagen abschließend vor, wie das Monitoring von Flüssen – die oft als „Integratoren ganzer Landschaften“ gesehen werden – weiter verbessert werden kann: Neben hochauflösenden Konzentrationsmessungen sind bessere Kenntnisse über Verweildauer sowie Quellen und Senken des Sauerstoffs wichtig. Neuere methodische Werkzeuge wie stabile Isotope, die Analyse von Eisenumsetzungen, biologische Untersuchungen und die Messung von im Wasser gelöstem Radongas können helfen. Diese Techniken werden aktuell im AquaKlif Projekt weiterentwickelt und angewandt.

„Der Artikel bringt viele Fakten über gelösten Sauerstoff in Flüssen erstmals auf globaler und kontinentaler Basis ans Licht“, betont Prof. Johannes Barth, in dessen Arbeitsgruppe für Angewandte Geologie David Piatka promoviert. „Ebenso wichtig ist es, die Umsetzung dieses lebenswichtigen Elements im Detail zu untersuchen: Wie sehen Bilanzen in kleinen Flüssen aus, wie wird Sauerstoff in Sedimente transportiert und mit welchen Raten wird er dort umgesetzt? Das sind entscheidende Fragen für lokale Funktionsweisen von aquatischen Ökosystemen.“

Diese wassergebundenen Lebensgemeinschaften liegen auch Prof. Jürgen Geist von der Technischen Universität München am Herzen: „Die Verfügbarkeit von gelöstem Sauerstoff ist für die Lebewesen im Gewässer von entscheidender Bedeutung. Mit dem Artikel ist es gelungen einen ganzheitlichen und globalen Blick auf die Bedeutung und die Umsetzungsprozesse von Sauerstoff in Gewässern zu bekommen. Aus dem Verständnis dieser Prozesse heraus können wichtige Indikatoren für den Zustand von Gewässersystemen abgeleitet werden.“

„Unser Artikel im renommierten Journal Earth-Science Reviews ist ein gelungenes Beispiel für gemeinsame Ansätze im Verbundprojekt, das Expertise aus Geowissenschaften, Hydrologie und Biologie zusammenbringt und so innovative methodische Ansätze vorschlagen kann“ freut sich Hydrologe Prof. Dr. Stefan Peiffer von der Universität Bayreuth, der das AquaKlif-Projekt als Sprecher vertritt.

*DOI: 10.1016/j.earscirev.2021.103729

“Transfer and transformations of oxygen in rivers as catchment reflectors of continental landscapes: A review”

Informationen zum Verbundprojekt AquaKlif:
https://www.bayceer.uni-bayreuth.de/aquaklif/

Wissenschaftliche Ansprechpartner:
David Piatka und Prof. Johannes Barth
GeoZentrum Nordbayern
Lehrstuhl für Angewandte Geologie
david.piatka@fau.de, Tel. 015163391286
johannes.barth@fau.de, Tel. 01727234591

Originalpublikation:
https://doi.org/10.1016/j.earscirev.2021.103729

(nach oben)


Dicker Luft zu Leibe gerückt – Protein-Baustein hilft atmosphärisches CO2 zu binden: Verfahren aus dem Rostocker LIKAT

Regine Rachow Pressestelle
Leibniz-Institut für Katalyse
Ein neues Verfahren aus dem Rostocker Leibniz-Institut für Katalyse vermag mittels Kohlendioxid aus der Luft ohne Umwege Formiate herzustellen, einen chemischen Grundstoff. Für die Reaktion werden neben dem Katalysator lediglich Wasserstoff und die Aminosäure L-Lysin benötigt. Das ist eine von 20 essenziellen Aminosäuren, aus denen Proteine aufgebaut sind.
Mit diesem Forschungsergebnis bewegt sich die Chemie zumindest schon einmal im Labor einen weiteren Schritt weg von ihrer traditionellen fossilen Rohstoffbasis – Erdöl und Erdgas – hin zu nachhaltigen Prozessen, die Klima und Ressourcen schonen. Veröffentlicht wurde das Paper im renommierten Fachjournal CHEMICAL SCIENCE.

Formiate sind die Salze der Ameisensäure. Sie eignen sich z.B. zum Beizen, Imprägnieren, Konservieren sowie für organische Synthesen. Weltweit werden jährlich 800.000 Tonnen davon produziert.
Das geschieht bisher auf Basis von Kohlenmonoxid, denn ihre Synthese benötigt, wie die Produktion der allermeisten alltäglichen Dinge auf der Welt, Kohlenstoff. „Künftig stellt sich die dringende Frage nach neuen Kohlenstoffquellen“, erläutert Dr. Henrik Junge, Mitautor der Veröffentlichung in CHEMICAL SCIENCE, die Bedeutung des Forschungsthemas. Denn um die globale Erwärmung aufzuhalten, lernt die Weltgemeinschaft gerade, nach und nach auf fossile Roh- und Brennstoffe zu verzichten.

Klimagas als Rohstoff
Die Fachwelt diskutiert deshalb seit einiger Zeit über CO2 aus der Luft als Rohstoff. Einerseits setzt atmosphärisches Kohlendioxid mit seinem steigenden Anteil von derzeit mehr als 400 ppm dem Klima heftig zu. Andererseits ist diese Konzentration für eine direkte Verarbeitung in chemischen Prozessen viel zu gering. Und aktuell eingesetzte Verfahren für eine Anreicherung sind teuer und aufwändig.
Praktisch genutzt wird bisher lediglich die Abluft von Kraftwerken und anderen industriellen Anlagen, die konzentrierteres CO2 emittieren. Dort hält die sogenannte Aminwäsche das CO2 zurück, so dass es als Rohstoff verfügbar wird. Doch Amine sind giftig und ihr intensiver Geruch stört vor allem im Siedlungsumfeld von Biogasanlagen. Überdies sind sie als Abkömmlinge des Ammoniaks ein Produkt der erdölbasierten Chemie, die ja erklärtermaßen abgelöst werden soll.
Die Frage lautet also: Welche umweltverträglichen und weniger giftigen Stoffe eignen sich, um das Kohlendioxid zu binden? Für die CHEMICAL SCIENCE-Autoren Duo Wei, Henrik Junge und LIKAT-Direktor Matthias Beller boten sich Aminosäuren an. Henrik Junge: „Aus der Literatur wissen wir, dass Aminosäuren das CO2 hochkonzentriert in wässriger Lösung festhalten können.“

Reaktionspartner aus der Natur
Die LIKAT-Chemiker nahmen sich als Beispiel ein Protein namens RuBisCO vor, es ist das am häufigsten durch die Photosynthese produzierte Protein. Ein Bestandteil davon ist die Aminosäure L-Lysin, die wiederum CO2 für den weiteren Stoffwechsel stabilisiert, und zwar in Form kohlenstoffhaltiger Salze: Carbamante und Bicarbonate. Sie alle sind Teil katalytischer Mechanismen in der Natur, die zunehmend als Vorbild auch für chemische Reaktionen dienen.
Tatsächlich konnte das Trio Wei, Junge und Beller diesen Prozess nutzen. Sie wiesen zum einen nach, dass L-Lysin die Aminwäsche ersetzen und das CO2 effektiv binden kann. Zum anderen zeigten sie, dass sich in diesem Prozess auch im Labor Carbamate und Bicarbonate bilden. „Und wenn wir diese Stoffe hydrieren, das heißt, Wasserstoff und einen Katalysator dazugeben, gelangen wir zu Formiaten“, erläutert Henrik Junge.
So konnten sie, und darin besteht die Innovation des Verfahrens, im Labor das gewonnene Kohlendioxid gewissermaßen in einem Ritt zu einem sinnvollen, langlebigen Produkt weiterverarbeiten. Und zwar auch in äußerst dünner CO2-Konzentration aus der Luft und mithilfe der nachhaltig produzierten Ausgangsstoffen L-Lysin und Wasserstoff.

SAW-Projekt der Leibniz-Gemeinschaft
Die Forschungsarbeiten gehören zum Verbundprojekt „Supreme“, das von Forschungsgeldern der Leibniz-Gemeinschaft finanziert wird. Beteiligt sind neben dem LIKAT zwei weitere Leibniz-Institute in Greifswald (INP) und Bremen (IWT). Ziel ist es, Kohlendioxid aus der Luft zu Methanol zu hydrieren. Mit den Formiaten enden die LIKAT-Chemiker derzeit auf halben Wege, doch es ist nach den Worten von Henrik Junge ein so „ermutigendes Ergebnis“, dass CHEMICAL SCIENCE diese Geschichte auf das Cover ihrer Ausgabe nahm.

Wissenschaftliche Ansprechpartner:
Dr. Henrik Junge, Telefon: +49 (381) 1281-174, E-Mail: Henrik.Junge@catalysis.de

Originalpublikation:
DOI: 10.1039/d1sc00467k

(nach oben)


Neue Web-Plattform zur Planung der Hochwasservorsorge in Städten

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Mit SaferPlaces lassen sich – basierend auf Open-Data und Berechnungen in der Cloud – Gefahren abbilden und die Effekte von Schutz- und Vorsorgemaßnahmen abschätzen. So können Szenarien bereits in Planungssitzungen online durchgespielt und diskutiert werden.

Starkregen und Hochwasser machen zurzeit – wie schon im vergangenen Winter – Schlagzeilen. Überschwemmungen wie diese, aber auch steigende Meeresspiegel und Sturmfluten stellen – in Bezug auf die wirtschaftlichen Schäden – zusammen mit Stürmen die größte Naturgefahr dar und können auch Leib und Leben bedrohen. SaferPlaces, ein neuer Webservice zur Überflutungsvorsorge, soll Städte und Gemeinden künftig dabei unterstützen, gefährdete Bereiche zu identifizieren sowie Schutz- und Vorsorgemaßnahmen systematisch und effizient zu planen, etwa an Gebäuden, Deichen oder durch Schaffung von Versickerungsflächen. Das interaktive Online-Tool wird im Rahmen der EU-Initiative Climate-KIC unter Mitwirkung des Deutschen GeoForschungsZentrums GFZ Potsdam entwickelt und ist bereits als Prototyp abrufbar. Es stützt sich auf offene Daten und basiert auf neuen klimatischen, hydrologischen und hydraulischen, topografischen und ökonomischen Modellierungstechniken.

Mit dem fortschreitenden Klimawandel nehmen extreme Wetterereignisse zu und machen die Überflutungs- und Hochwasservorsorge auch in vielen Regionen Europas zu einer Daueraufgabe. In den dicht besiedelten Städten und Gemeinden ist das Schadenspotenzial besonders hoch. Informationen über das Ausmaß, die Häufigkeit und die Folgen von Überschwemmungen werden zu einer wesentlichen Grundlage für die Stadtplanung. Damit die Kommunen gezielt und effizient Maßnahmen zum Schutz und zur Vorsorge planen können, wurde im Rahmen des dreijährigen EU-Projektes SaferPlaces ein Web-basiertes Werkzeug hierfür entwickelt. Unter Leitung des Consulting-Unternehmens GECOSistema sind daran neben dem GFZ noch drei weitere Forschungseinrichtungen bzw. Universitäten beteiligt sowie drei weitere Unternehmen und die drei Pilot-Städte Köln (D), Rimini (Italien) und Pamplona (Spanien).

Webservice zur Online-Planung zum Hochwasserschutz
„Das Besondere an unserem System ist der Plattformgedanke“, sagt Kai Schröter, der das Projekt am GFZ leitet. „Die Auswirkungen von Maßnahmen lassen sich auf unserer Plattform unmittelbar berechnen und darstellen, von der Ausbreitung des Wassers bis hin zu den entstehenden Schäden. Entsprechende Szenarien können so beispielsweise von den multi-disziplinären Teams direkt in Planungssitzungen durchgespielt und diskutiert werden.“ In Köln haben bereits Anwenderworkshops stattgefunden mit den Stadtentwässerungsbetrieben, Hochwasserschutzbehörden und Versicherern.

Damit das so schnell und unkompliziert funktioniert, finden alle Berechnungen in der Webcloud statt: Die Nutzer*innen benötigen keine extra Software sondern nur einen Browser, über den sie die verfügbaren Daten eingeben. „Damit wollen wir explizit auch kleinere Städte und Gemeinden ansprechen und unser Werkzeug in vielen Ländern und Städten nutzbar machen“, betont Schröter.

Allgemein verfügbare Daten als Basis
Die Berechnungen basieren auf Open Data, also auf allgemein verfügbaren Datensätzen wie flächendeckende Geländehöhen, Wasserständen von Flüssen und Meer, Regenmengen und deren Häufigkeit, Durchflussmengen in Flüssen sowie den kurz- wie langfristigen Prognosen, die es bereits für die nächsten zwei bis drei Jahrzehnte hierfür gibt. Dazu kommen Informationen über die Landschafts- und Infrastruktur der jeweiligen Regionen.

Abbildung von Gefahren und Planung von Maßnahmen
Zunächst lassen sich so die Gefahren abbilden: Wo entstehen die größten Schäden? Wohin breitet sich das Wasser aus, wenn Starkregen fällt, Flüsse über die Ufer treten oder der Meeresspiegel steigt? Welche Gebäude und Infrastrukturen werden wie stark betroffen? Mit welchen Schäden ist zu rechnen?
Auf dieser Basis können dann Maßnahmen geplant werden. Sie reichen von Umbauten an bestehenden Gebäuden wie erhöhte Zugangsschwellen und abgedichtete Kellerfenster und -zugänge über neue oder verbesserte Deiche und Hochwasserschutzschilde bis hin zur Schaffung von Versickerungsflächen wie tiefliegenden Parks und Grünflächen, die notfalls wochenlang überflutet bleiben können.

Nutzerfreundlichkeit Dank vereinfachter Berechnungsansätze
Damit die Auswirkungen der Maßnahmen auf der Plattform direkt durchgespielt werden können, haben die Forschenden – im Gegensatz zu bestehender Software und Modellierungssystemen – hier explizit vereinfachte Berechnungsansätze verfolgt. Um den Rechenaufwand gering zu halten, mussten sie Algrorithmen entwickeln, die möglichst wenig Rechenkapazität benötigen.

Forschende am GFZ modellieren Schäden an der Infrastruktur
Während andere Projektpartner die Überflutungsflächen unter Berücksichtigung der natürlichen Gegebenheiten wie der Topographie, also der Form der Landschaft modelliert haben, stand im Fokus der GFZ-Forschung die Schadenmodellierung an den Gebäuden. Hierfür wurden zusätzlich Informationen über die Art der Flächennutzung, Gebäudetypen wie Einfamilienhaus oder Gewerbe, aber auch über die sozioökonomischen Eigenschaften der Einwohnerschaft wie deren Einkommensniveau berücksichtigt. „Da wir probabilistische Modelle nutzen, können wir auch die Unsicherheit beschreiben, die mit den Vorhersagen verbunden ist“, betont Schröter.

Die erste Phase des Projektes ist im Juli zu Ende gegangen. „Die drei ursprünglichen Pilotanwendungen laufen und sind schon ziemlich weit ausgereift, auch hinsichtlich der Nutzerfreudlichkeit“, resümiert Schröter. Mittlerweile sind mit Fuenlabrada und Coslada (Spanien), Mailand und Ceriva (Italien), sowie Byronbay (Australien) weitere Fallstudien hinzugekommen. Auch eine globale Anwendung für die Überflutungsberechnung ist inzwischen verfügbar.

Weitere Entwicklungen
Künftig soll eine kommerzielle Nutzung etabliert werden, beispielsweise über den Erwerb von Lizenzen.
Mitte Juli wurde SaferPlaces nach erfolgreicher Projektskizze eingeladen, sich bis Oktober mit einem Vollantrag auf Förderung aus dem EIC Accelerate programme zu bewerben. Damit unterstützt die EU Projekte darin, zur Marktreife zu gelangen.

Die Projektpartner
Zum internationalenen Konsortium unter der Leitung von GECOSistema gehören das CMCC – Euro-Mediterranean Centre on Climate Change, das Helmoltz Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ (Sektion Hydrologie), die Universität Bologna, die Technische Universität Madrid und MEEO Meteorological Environmental Earth Observation.

Die Finanzierung
Das Projekt wurde bis Juli 2021 über drei Jahre vom EIT Climate-KIC gefördert, eine Wissens- und Innovationsgemeinschaft (KIC – Knowledge and Innovation Community), die daran arbeitet, den Übergang zu einer kohlenstofffreien, klimaresistenten Gesellschaft zu beschleunigen.

Weitere Informationen finden Sie auf der Projektwebsite: http://www.saferplaces.co
Der Prototyp des Web-Service ist erreichbar unter: http://www.platform.saferplaces.co
(optimiert für Chrome bzw. Chromium Browser)

Wissenschaftliche Ansprechpartner:
Priv. Doz. Dr.-Ing. Kai Schröter
Sektion Hydrologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1525
E-Mail: kai.schroeter@gfz-potsdam.de

Weitere Informationen:
http://www.saferplaces.co (Projektwebsite)
http://platform.saferplaces.co (Prototyp des neuen Web-Service, optimiert für Chrome bzw. Chromium Browser)

(nach oben)


Ein wissenschaftlicher Test enthüllt, wie anfällig ein Mensch für Corona-Mythen ist

Christina Krätzig Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg
Eine von fünf Personen glaubt Fehlinformationen über Corona. Wer dafür besonders anfällig ist, lässt sich aus dem generellen Umgang der Person mit Informationen ableiten – und sogar vorhersagen. Das zeigt eine Studie, die unter der Leitung von Dr. Dr. Marco Meyer von der Universität Hamburg entstanden ist. Im Online-Selbsttest, der auf den Forschungsergebnissen beruht, kann jede und jeder sich selbst überprüfen.

Knapp 20 Prozent der US-Bevölkerung glaubt falsche Behauptungen über das Coronavirus wie beispielsweise, dass Händetrockner das Virus abtöten können oder dass es durch Stubenfliegen übertragen wird. Die Frage, wer besonders anfällig für solche Mythen ist, lässt sich aufgrund bisher bekannter Faktoren wie der politischen Identität, dem Bildungsgrad, der Intelligenz, der Persönlichkeit oder demografischen Faktoren kaum beantworten.

Ein Team aus Wissenschaftlern der Universität Hamburg, der Macquarie University in Australien und der Rijksuniversiteit Groningen in den Niederlanden hat nun eine Antwort gefunden. Es hat dabei einen neuen Erklärungsansatz verfolgt: den der epistemischen Laster. Die Studie wurde im Fachjournal „Episteme“ veröffentlicht.

Epistemische Laster sind Charaktereigenschaften, die den Erwerb, die Erhaltung und die Weitergabe von Wissen behindern können. Dazu gehören zum Beispiel Gleichgültigkeit gegenüber der Wahrheit oder Starrheit in Bezug auf die eigenen Glaubensgrundsätze. In der Philosophie spielt die Vorstellung der epistemischen Laster eine große Rolle. Doch bisher wurde erst selten versucht, empirische Bestätigungen für deren Bedeutung im Umgang mit Wissen zu erbringen.

„Eine Motivation zu unserer Studie war es, die Rolle epistemischer Laster bei der Bewertung von Informationen generell zu untersuchen. Dazu bietet die Corona-Pandemie eine einzigartige Gelegenheit“, erklärt Marco Meyer, der einen Doktorgrad in Philosophie und einen Doktorgrad in Wirtschaftswissenschaften hält. An der Universität Hamburg leitet er eine Nachwuchsforschungsgruppe und beschäftigt sich schwerpunktmäßig mit dem Thema Ethik.

Die Wissenschaftler haben ihre These an 998 US-Amerikanerinnen und Amerikanern überprüft. Dazu ließen sie die Teilnehmenden ihre Neigung zu epistemischen Lastern zum einen selbst einschätzen. Zum anderen führten sie eine Beobachtungsstudie durch, in der sie den Grad der epistemischen Lasterhaftigkeit mithilfe einer neu entwickelten Skala maßen. In einem dritten Schritt fragten sie die Probandinnen und Probanden gezielt nach ihrem Glauben an Mythen und Fehlinformationen über Covid-19.

„Wir haben herausgefunden, dass Menschen, die nicht auf Corona-Fehlinformationen hereinfallen, zwei Eigenschaften gemeinsam haben: Sie sind erstens neugierig und zweitens in der Lage, ihre Ansichten zu ändern, wenn sie auf vertrauenswürdige Quellen stoßen, die ihren bisherigen Annahmen widersprechen“, so Meyer.

Betrachtet man die Neigung zu epistemischen Lastern, lässt sich doppelt so gut vorhersagen, ob eine Person an Corona-Mythen glaubt als dies aufgrund von Faktoren wie der politischen Identität, dem Bildungsgrad, der Persönlichkeit oder demografischen Aspekten wie beispielswiese Alter, Geschlecht oder ethnische Zugehörigkeit möglich wäre.
Die Studie stützt also die These, dass epistemische Laster generell die Aneignung von Wissen behindern. „Aus den Erkenntnissen könnte man individuellere Ansprachen und Methoden entwickelt, wie Menschen ihre epistemische Starrheit oder Gleichgültigkeit überwinden können, zum Beispiel durch pädagogische Interventionen“, erklärt Mayer. Dies biete einen Ansatz, dem Glauben an Fehlinformation und Verschwörungsmythen langfristig entgegenzuwirken.

Bin ich epistemisch laster- oder tugendhaft? Und was sagt dies über meine Anfälligkeit für Corona- Mythen aus? Die Forschungsfragen der Wissenschaftler zum Ausprobieren und mit anschließender Auswertung (englisch) finden Sie auf den Internetseiten der Universität Hamburg unter https://www.philosophie.uni-hamburg.de/philosophisches-seminar/personen/meyer-ma…

Wissenschaftliche Ansprechpartner:
Dr. Dr. Marco Meyer
Universität Hamburg
Faculty of Humanities
Institute of Philosophy
Mail: marco.meyer@uni-hamburg.de

Originalpublikation:
https://www.cambridge.org/core/journals/episteme/article/epistemic-vice-predicts…

Anhang
Pressemitteilung als PDF

(nach oben)


Wissenschaftliche Politikberatung im Projekt MACSUR SciPol: Mit Wissenschaft gegen den Klimawandel

Hendrik Schneider Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V.
Um die Klimaziele des European Green Deals und des Pariser Klimaabkommens zu erreichen, ist es wichtig, dass Erkenntnisse der Forschung in politische Strategien einfließen. Im Projekt MACSUR SciPol planen zehn Wissenschaftseinrichtungen, eine bislang noch fehlende Schnittstelle zwischen Politik und Wissenschaft für den Sektor Landwirtschaft und Ernährung auf europäischer Ebene zu etablieren. Das Projekt steht Modell für eine institutionalisierte Form wissenschaftlicher Politikberatung. MACSUR SciPol startete im Juni 2021 unter Koordination des Leibniz-Zentrums für Agrarlandschaftsforschung (ZALF) e. V. mit einem Kickoff-Workshop und läuft als Pilotprojekt über 18 Monate.

Landwirtschaft und Nahrungsmittelsysteme sind von den Folgen des Klimawandels betroffen und setzen gleichzeitig nicht unerhebliche Mengen an Treibhausgas-emissionen frei. Im Rahmen des Pariser Abkommens und des Green Deals strebt die EU an, den Ausstoß von Treibhausgasen bis 2030 um 55 Prozent gegenüber 1990 zu reduzieren und bis 2050 Treibhausgas-Neutralität zu erreichen. Das Pilotprojekt MACSUR schafft ein Forum, das politische Akteure mit wissenschaftlicher Expertise dabei unterstützen wird, diese Klimaziele und wirksame Maßnahmen für den Umgang mit dem Klimawandel im europäischen Agrar- und Ernährungssektor umzusetzen. Das übergeordnete Ziel von MACSUR SciPol ist es, ein Verfahren zur wissenschaftsbasierten Beantwortung politischer Fragen zu etablieren.

Prof. Katharina Helming, Projektleiterin von MACSUR SciPol am Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e. V., verdeutlichte im Kickoff-Workshop Ende Juni den besonderen Ansatz des Vorhabens: „Wir haben beobachtet, dass selbst exzellente Forschung nicht immer den Transfer in die Politik schafft. Diese Lücke schließt das Projekt, indem es einen anderen Weg beschreitet. MACSUR SciPol greift gezielt Fragestellungen aus der Politik zu Klimaschutz und Klimawandel in der Landwirtschaft auf und liefert dazu passende wissenschaftliche Antworten. Wir warten also nicht, bis Politik mit Fragen an uns als Wissenschaft herantritt, sondern holen uns die Fragen gezielt aus dem Politikbetrieb der beteiligten Länder. So entwickeln wir passgenaue wissenschaftliche Beratungsansätze.“

MACSUR SciPol ist aus dem Netzwerk MACSUR der Joint Programming Initiative for Agriculture, Food Security and Climate Change (FACCE-JPI) des Rats der Europäischen Union und beteiligter Mitgliedsländer hervorgegangen.

Politische Fragen beantworten
Die Besonderheit des Forschungsprojekts liegt in einer engen Zusammenarbeit der Forschung mit der Politik. Den Ausgangspunkt bilden konkrete Schlüsselfragen, die von europäischen Politikvertreterinnen und -vertretern zu Landwirtschaft, Ernährung und Klimawandel aus jeweils landesspezifischer Perspektive gestellt wurden. Dieser Fragenkatalog ist in drei Themenbereiche unterteilt. Der erste Themenkomplex befasst sich mit Fragen des Klimaschutzes, also Strategien für die Reduktion von Emissionen durch Landwirtschaft, Nutztierhaltung und auf Ebene der Verbraucher, sowie die Bindung von Kohlenstoff. Der zweite Themenkomplex deckt Anpassungsstrategien an die Folgen des Klimawandels ab. Im dritten Themenbereich werden die möglichen Auswirkungen der empfohlenen Strategien zum Klimaschutz und zur Klimaanpassung unter anderem auf Mensch und Tier, Ökosysteme und Biodiversität, soziale Gerechtigkeit und Ernährungssicherheit diskutiert.

Modellbasiertes Wissen und interdisziplinäre Zusammenarbeit
Um konkrete Antworten auf diese Fragen zu liefern, greift MACSUR SciPol auf Forschungserkenntnisse zurück, die aus wissenschaftlichen Modellen generiert werden. Modelle ermöglichen es, zukünftige Erträge unter Einfluss des Klimawandels abzuschätzen oder Treibhausgasemissionen zu kalkulieren, die in Landwirtschaft und Nahrungsmittelerzeugung bis zum Verbraucher entstehen. „Was modellgeneriertes Wissen angeht, kann das Projekt auf die gebündelten Modellierungskompetenzen aus dem Netzwerk MACSUR und der FACCE JPI zurückgreifen“, betont Prof. Frank Ewert, Wissenschaftlicher Direktor des ZALF und derzeitiger Vorsitzender des Wissenschaftlichen Beirats von FACCE JPI im Kickoff-Workshop von MACSUR SciPol im Juni.

Das Projekt verfolgt einen transdisziplinären, partizipativen Ansatz. Um politische Entscheidungsfindung zu unterstützen, werden zusätzlich zu der engen Kooperation zwischen Forschung und Politik auch Vertreterinnen und Vertreter aus Landwirtschaft, Zivilgesellschaft und Naturschutz in Multi-Stakeholder-Dialoge einbezogen. Das wissenschaftliche Netzwerk des Projekts besteht derzeit aus Projektpartnern verschiedener Fachrichtungen aus acht europäischen Ländern. Die Global Research Alliance on Agricultural Greenhouse Gases unterstützt das Projekt und tritt als Beobachterorganisation für MACSUR SciPol auf.

Projektpartner:
– Koordination: Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V., Deutschland
– Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei, Deutschland
– Universität Aarhus, Dänemark
– Institute of Agricultural Economics, Ungarn
– The Irish Agriculture and Food Development Authority, (Teagasc), Irland
– Universität Florenz, Italien
– Universität Birmingham, Großbritannien
– Queens University Belfast, Nordirland
– Stichting Wageningen Research, Niederlande
– Universität für Bodenkultur Wien, Österreich

Netzwerkpartner:
– Institute for Rural and Regional Research, Norwegen
– Agricultural Research And Development Station, Rumänien
– Facultad de Ciencias Agropecuarias, Universität Córdoba, Argentinien
– French National Research Institute for Agriculture, Food and Environment, Frankreich
– Österreichisches Institut für Wirtschaftsforschung, Österreich

Förderhinweis:
Bundesanstalt für Landwirtschaft und Ernährung (Deutschland), Universität Aarhus (Dänemark), Research Institute of Agricultural Economics (Ungarn), Department of Agriculture, Food and the Marine (Irland), Ministry of Agricultural, Food and Forestry Policies (Italien), Department for Environment Food and Rural Affairs (Großbritannien), Ministry of Agriculture, Nature and Food Quality (Niederlande), Bundesministerium für Landwirtschaft, Regionen und Tourismus (Österreich), Research Council of Norway (Norwegen), French National Research Institute for Agriculture, Food and Environment (Frankreich), Global Research Alliance (Sekretariat beim New Zealand Ministry for Primary Industries, Neuseeland)

Wissenschaftliche Ansprechpartner:
Prof. Katharina Helming
Programmbereich 3 „Agrarlandschaftssysteme“
khelming@zalf.de

Originalpublikation:
https://www.zalf.de/de/aktuelles/Seiten/Pressemitteilungen/Politikberatung-Klima…

Weitere Informationen:
https://www.faccejpi.net/en/FACCEJPI/FACCE-JPI/Actions/Core-Theme-1/Knowledge-Hu… Webseite MACSUR SciPol
https://www.faccejpi.net/en/FACCEJPI/FACCE-JPI/About.htm Webseite FACCE JPI
https://twitter.com/FScipol MACSUR SciPol auf Twitter

(nach oben)


Pärchenbeziehung ist meist von Vorteil für Bakterien: Ökologen der Uni Osnabrück untersuchen Teamwork in der Natur

Dr. Oliver Schmidt Stabsstelle Kommunikation und Marketing
Universität Osnabrück
Indem sie eine Symbiose mit einem anderen Organismus eingehen, können Bakterien neue Nahrungsressourcen nutzen. Durch diese Pärchenbildungsstrategie vergrößern sie zumeist auch ihren Lebensraum. Zu diesem Ergebnis kommt die Arbeitsgruppe um Prof. Dr. Christian Kost vom Fachbereich Biologie/Chemie der Uni Osnabrück. Sein Team hatte die Bedeutung partnerschaftlicher Wechselbeziehungen für das Nahrungsmanagement am Beispiel von fünf verschiedenen Bakterienarten untersucht. Die Studie ist unter dem Titel „Obligate cross-feeding expands the metabolic niche of bacteria“ in dem wissenschaftlichen Fachjournal Nature Ecology & Evolution erschienen: https://www.nature.com/articles/s41559-021-01505-0

„In der Natur sehen wir, dass Bakterien oft auf andere Bakterienstämme angewiesen sind, diese mit ihren lebensnotwendigen Nährstoffen zu versorgen. Solche sogenannten ‚Mutualismen‘ sind partnerschaftliche Wechselbeziehungen zwischen Bakterien, aus denen beide Interaktionspartner einen positiven Nutzen ziehen“, erklärt Prof. Kost. Da beide Bakterienstämme oft über unterschiedliche Nahrungspräferenzen verfügen würden, stellte sich die Frage, ob Paare zweier voneinander abhängiger Bakterienstämme mehr oder weniger Nährstoffressourcen nutzen können als die beiden Bakterienstämme alleine.

Zusammen mit Kollegen der Universität Gießen erzeugte Kosts Team unter kontrollierten Laborbedingungen Bakterienstämme, die einen bestimmten Nährstoff nicht mehr selbst herstellen konnten. Weiterwachsen konnten diese Stämme nur, wenn sie den benötigen Nährstoff von einem zweiten Bakterienstamm bekamen. Die Paare wurden in verschiedenen Nährmedien kultiviert, die je eine unterschiedliche Nahrungsressource enthielten. Durch Analyse des Wachstums der Bakterienstämme untersuchten die Ökologen dann, ob eine solche partnerschaftliche Beziehung die Zahl der nutzbaren Nahrungsressourcen eher vergrößerte oder verkleinerte.

„Unter diesen im Labor erzeugten Bedingungen konnten wir beobachten, dass die Ko-Kultur zweier voneinander abhängiger Bakterienstämme ihren gemeinsamen Lebensraum meist erweiterte“, berichtet Prof. Kost. So brachte der Mutualismus den Bakterienpaaren einen echten Überlebensvorteil.

Im Detail stellte das Forschungsteam fest, dass weiter entfernt verwandte Bakterienarten ihren Nischenraum als Paar deutlich mehr erweitern konnten als artverwandte Paare. Auch Stämme, die sich auf die Nutzung weniger Nahrungsressourcen spezialisiert hatten, konnten sich durch die sogenannte „mutualistische Interaktion“ neue Nahrungsquellen erschließen. Im Gegensatz dazu verkleinerte der Mutualismus den Nischenraum von Generalisten-Bakterien, so das Studienergebnis. Vereinfacht gesagt: Paare aus der Kategorie „Gleich und gleich“ sowie besonders unwählerische Individuen erhielten durch das Pärchendasein keinen nennenswerten Vorteil, wohingegen gegensätzliche Paare und Spezialisten gemeinsam wachsen konnten.

„Unsere Forschung hilft zu verstehen, wie sich Symbiosen und mutualistische Interaktionen auf die beteiligten Partner auswirken. Diese Art von Wechselbeziehung ist weit in der Natur verbreitet und betrifft nicht nur Bakterien, sondern beispielsweise auch Pflanzen und ihre Bestäuber oder Stickstoff-fixierende Bakterien und Pilze im Wurzelbereich. Unsere Arbeit identifiziert ‚Teamwork‘ in der Natur als wichtige Strategie, mit der Organismen ihre Fähigkeiten deutlich erweitern können“, resümiert Prof. Dr. Christian Kost von der Universität Osnabrück.
Zur Veröffentlichung: https://www.nature.com/articles/s41559-021-01505-0 

Contact:
Prof. Dr. Christian Kost
Osnabrueck University, Department of Ecology
christian.kost@uni-osnabrueck.de
+49 541 969-2853
https://www.kostlab.com

(nach oben)


Gereinigtes und ungereinigtes Abwasser: In Modellregion (Mexiko) werden Risiken beim Einsatz auf Agrarflächen erforscht

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Julius Kühn-Institut (JKI) untersucht im Rahmen eines neu bewilligten DFG-Projektes den Einfluss der Abwasserqualität auf das Pflanzenmikrobiom und übertragbare Antibiotikaresistenzen

(Braunschweig) FOR5095 – hinter diesem unscheinbaren Kürzel, verbirgt sich ein deutsch-mexikanischer-Forschungsverbund, den die Deutsche Forschungsgemeinschaft (DFG) für die nächsten vier Jahre mit insgesamt rund 2,5 Millionen Euro fördert. Auch die Braunschweiger Mikrobiom-Forscherin Prof. Dr. Kornelia Smalla vom Julius Kühn-Institut (JKI), Bundesforschungsinstitut für Kulturpflanzen ist an FOR5095 beteiligt. Sie leitet das Teilprojekt 5 (SP 5), in dem untersucht wird, ob Antibiotikarückstände in Böden und Pflanzen das Pflanzenmikrobiom beeinflussen und so zur Anreicherung übertragbarer Antibiotika-Resistenzen beitragen.

Die sieben Partner von FOR5095 wollen am Beispiel des weltweit größten zusammenhängenden Abwasserbewässerungssystems nördlich von Mexiko-Stadt die Interaktionen von Schadstoffen, Krankheitserregern und Antibiotikaresistenz erforschen. „In dem rund 900 Quadratkilometer großen Gebiet finden wir einmalige Bedingungen vor“, erklärt Prof. Smalla vom JKI. Denn hier wurden Agrarflächen in den vergangenen 100 Jahren mit einer Mischung aus unbehandeltem Abwasser und Regenwasser bewässert. Dadurch konnten sich die Rückstände von Arznei- und Desinfektionsmitteln, Metalle und auch antibiotikaresistente Bakterien in den Böden der Felder anreichern. Inzwischen wurde im Valle Mezquital die weltweit drittgrößte Kläranlage in Betrieb genommen, die von den Partnern der DFG-Forschergruppe bereits 2013 besichtigt werden durfte. Nun gelangt das Abwasser von Mexiko-Stadt nicht mehr ungeklärt auf die Felder. Die Forschenden befürchten jedoch, dass jetzt mehr antibiotikaresistente Bakterien auf die landwirtschaftlichen Flächen und in die Nahrungskette gelangen könnten. Denn sie vermuten, dass zwar insgesamt weniger Bakterien im geklärten Abwasser enthalten sind, dafür aber multiresistente Bakterien einen Selektionsvorteil haben, wenn das behandelte Abwasser zu einer Mobilisierung der in der Vergangenheit im Boden akkumulierten Schadstoffe führt.

„Diese vermutete Selektion von Antibiotikaresistenzen und die Ausbreitung von Krankheitserregern in Agrarsystemen und ihren Transfer wollen wir untersuchen“, beschreibt Smalla den Beitrag des JKI-Teilvorhabens. Zunächst wird geprüft, ob die Umweltkonzentrationen von Schadstoffen, die aus dem Boden freigesetzt und von Pflanzen aufgenommen werden, hoch genug sind, um Antibiotikaresistenzen zu selektieren und horizontalen Gentransfer, also der Austausch von Genen zwischen verschiedenen Bakterienarten, in Böden und Pflanzen zu stimulieren. Dann soll am JKI herausgearbeitet werden, inwiefern der Bodentyp die Freisetzung von Schadstoffen und die damit verbundene Selektion von Antibiotikaresistenzen verändert. Dazu wird in Topf-Experimenten die Zusammensetzung des Mikrobioms, die Häufigkeit von Antibiotikaresistenz-Genen sowie von mobilen genetischen Elementen, die mit gramnegativen Bakterien assoziiert sind, in drei Bodentypen aus Mexiko verglichen. Alle drei Bodentypen wurden seit über 80 Jahren mit unbehandeltem Abwasser bewässert.

Hintergrundinformation zum Thema Abwassernutzung in der Landwirtschaft
Die Wiederverwendung von Abwasser für die Bewässerung landwirtschaftlicher Flächen ist eine effiziente Möglichkeit, Wasser zu sparen und die Nahrungsmittelproduktion für eine wachsende Bevölkerung unter den Bedingungen des Klimawandels zu gewährleisten. Aufgrund von Investitionen in die Infrastruktur wird in vielen Ländern dazu vermehrt behandeltes Abwasser verwendet. Kläranlagen gelten jedoch als Hotspots für die Entstehung von Antibiotikaresistenzen, und auch geklärtes Abwasser enthält meist Antibiotikarückstände, aber leider weniger organische Substanz, die diese an sich binden. Daher steht die Frage im Raum, ob der Einsatz des geklärten Abwassers nicht neue Probleme mit sich bringt.

Hintergrundinformation zum DFG-Projekt FOR5094
Sprecher der neu eingerichteten DFG-Forschungsgruppe ist Prof. Dr. Jan Siemens, der an der Justus Liebig Universität Gießen (JLU) die Professur für Bodenressourcen und Bodenschutz innehat. Neben der JLU sind die Universität Bonn, das Universitätsklinikum Bonn, die Beuth Hochschule Berlin, das Julius Kühn-Institut in Braunschweig und die Universität Tübingen an der Gruppe FOR5095 beteiligt. Das Projekt wird in Kooperation mit der Universidad Nacional Autónoma de México durchgeführt.

Wissenschaftliche Ansprechpartner:
Wissenschaftliche Ansprechpartnerin
Prof. Dr. Kornelia Smalla
Julius Kühn-Institut (JKI)
Institut für Epidemiologie und Pathogendiagnostik
Messeweg 11/12, 38104 Braunschweig
Tel. 0531 299-3814
kornelia.smalla@julius-kuehn.de

(nach oben)


Ganz nach Plan

Claudia Eulitz Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Kieler Forschungsteam entwickelt selektiven Katalysator für gezielte chemische Reaktionen

Der Zufall spielt in chemischen Reaktionen oft eine große Rolle. Fast immer entstehen dabei zahlreiche unerwünschte Nebenprodukte, die unnötig Energie und Ressourcen verbrauchen. Ein Forschungsteam um Professorin Swetlana Schauermann vom Institut für Physikalische Chemie der Christian-Albrechts-Universität zu Kiel (CAU) kombiniert verschiedene Messverfahren, um chemische Reaktionen auf atomarer Ebene zu untersuchen und so grundlegend besser zu verstehen. In der renommierten Fachzeitschrift Angewandte Chemie haben sie jetzt eine Methode vorgestellt, mit der sich Reaktionen so gestalten lassen, dass am Ende nur das gewünschte Molekül entsteht. Den Unterschied macht eine spezielle Extraschicht von Molekülen, die als Katalysator die gewünschte Reaktion gezielt auslöst.

Was genau dazu führt, dass am Ende einer chemischen Reaktion ein bestimmter neuer Stoff entsteht, ist im Einzelnen nicht bekannt. Die Synthese von neuen Molekülen läuft häufig nach dem „trial and error“-Prinzip ab: Wissenschaftlerinnen und Wissenschaftler müssen oft zahlreiche Tests durchführen, bis sie das gewünschte Ergebnis erhalten. Das Kieler Forschungsteam verfolgt einen anderen Ansatz und kombinierte dafür spezielle spektroskopische und mikroskopische Methoden. „Wir wollen zunächst die Prozesse auf atomarer Ebene verstehen, um anschließend selektive Katalysatoren entwickeln zu können, mit denen sich chemische Produkte gezielt herstellen lassen“, sagt Swetlana Schauermann, Professorin für Oberflächenchemie und Katalyse an der CAU.

Aufgrund seiner bisherigen Untersuchungen nahm das Team an, dass eine zusätzliche Molekülschicht auf Oberflächen eine gezielte Reaktion auslösen kann. Dafür untersuchten sie, wie aus Acrolein mithilfe eines Palladium-Katalysators gezielt Propenol hergestellt werden kann, wenn die Oberfläche des Metalls vorab mit Allylcyanid beschichtet wurde. Normalerweise kann durch eine Reaktion mit Wasserstoff, auch Hydrierung genannt, entweder Propenol (Alkohol) oder Propanal (Aldehyd) entstehen. „Als Molekül für die zusätzliche Schicht haben wir Allylcyanid gewählt, weil es eine spezielle elektronische Struktur und einer hohen Elektronendichte besitzt. Aufgrund seiner Eigenschaften kann es sehr gut mit reagierenden Molekülen in Wechselwirkungen treten“, erklärt Carsten Schröder, Doktorand in der Arbeitsgruppe von Schauermann und Erstautor der Studie. Außerdem spielt es in zahlreichen Industriezweigen eine Rolle, in denen mit organischen Synthesen gearbeitet wird.

Für seine Experimente beschichtete das Forschungsteam zunächst reines Palladiummetall mit Allylcyanid. Im Rastertunnelmikroskop konnten sie eine Schicht im Detail sichtbar machen und zeigen, dass die drei Kohlenstoffatome des Allyls flach auf den Metallatomen lagen. Als sie die Oberfläche anschließend Wasserstoff aussetzten, begann eine chemische Umwandlung und die flache Schicht veränderte sich. Im Rastertunnelmikroskop zeigten sich jetzt deutlich kürzere Abstände zwischen den Allylcyanid-Molekülen.

„Durch eine Kombination unserer spektroskopischen und mikroskopischen Analysemethoden fanden wir heraus, was passiert war: Der Wasserstoff hatte sich an das Allylcyanid-Molekül gebunden und es in einen gesättigten Kohlenwasserstoff mit einer sogenannten Iminfunktion umgewandelt“, sagt Schröder. Die Molekülenden mit dem gesättigten Kohlenwasserstoffrest verloren den Kontakt zu den Palladiumatomen, wodurch sich die Moleküle aufrichteten und so eine dichtere Schicht auf der Oberfläche bildeten. Hierauf konnte das Acrolein jetzt positionsgenau andocken und so den Hydrierungsprozess auslösen, der zur Entstehung von Propenol führt.

In dieser Art ist es zum ersten Mal gelungen, einen Katalysator mit einer zusätzlichen Molekülschicht zu aktivieren und auf atomarer Ebene zu untersuchen. „Ein detailliertes Verständnis solcher Prozesse könnte das Forschungsgebiet zu Katalysatoren rasant weiterentwickeln“, hofft Schauermann. Überflüssige Reaktionsprodukte zu entfernen und zu entsorgen, ist bislang mit viel Aufwand verbunden. „Wenn wir in der Lage sind, einzelne Moleküle gezielt herzustellen, können wir Energie, Kosten und Ressourcen sparen und zum Beispiel zu umweltfreundlicheren Prozessen beitragen.“

Bildmaterial steht zum Download bereit:
http://www.uni-kiel.de/de/pressemitteilungen/2021/162-Katalysator-1.jpg
Bildunterschrift: Mit hochpräzisen Messmethoden will das Forschungsteam um Professorin Swetlana Schauermann (von rechts), Carsten Schröder und Marvin Schmidt chemische Reaktionen auf atomarer Ebene verstehen, um sie zielgerichtet ablaufen zu lassen.

http://www.uni-kiel.de/de/pressemitteilungen/2021/162-Katalysator-2.jpg
Bildunterschrift: An der Infrarotspektroskopieanlage stellt Doktorand Carsten Schröder den Druck der Acrolein-Moleküle ein, um die chemische Reaktion zu starten.

http://www.uni-kiel.de/de/pressemitteilungen/2021/162-Katalysator-3.jpg
Bildunterschrift: Doktorand Marvin Schmidt führt Proben des Katalysatormetalls ins Rastertunnelmikroskop ein, um atomare Veränderungen auf der Oberfläche zu untersuchen.

http://www.uni-kiel.de/de/pressemitteilungen/2021/162-Katalysator-4.jpg
Bildunterschrift: Unter dem Rastertunnelmikroskop können die Chemikerinnen und Chemiker sehen, wie sich die Moleküle auf der Oberfläche ihres Katalysatormetalls im nicht-reaktiven Zustand (a) und unter reaktiven Bedingungen (b) unterscheiden. Das Modell zeigt, wie sich die chemische Zusammensetzung der Ligandenlage unter reaktiven Bedingungen verändert und so die Entstehung von Propenol begünstigt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. rer. nat. Swetlana Schauermann
Institut für Physikalische Chemie
Tel.: +49 431 880-2831
E-Mail: schauermann@pctc.uni-kiel.de
http://www.schauermann.phc.uni-kiel.de

Originalpublikation:
Understanding Ligand-Directed Heterogeneous Catalysis: When the Dynamically Changing Nature of the Ligand Layer Controls the Hydrogenation Selectivity, Carsten Schröder, Marvin C. Schmidt, Philipp A. Haugg, Ann-Katrin Baumann, Jan Smyczek, Swetlana Schauermann, Angew. Chem. Int. Ed. 2021, 60, https://doi.org/10.1002/anie.202103960

Weitere Informationen:
https://onlinelibrary.wiley.com/page/journal/15213773/homepage/press/202120press… – Pressemitteilung der Zeitschrift Angewandte Chemie (Englisch)
http://www.uni-kiel.de/de/detailansicht/news/162-katalysator – Link zur Meldung
http://www.kinsis.uni-kiel.de – Website Forschungsschwerpunkt KiNSIS (Kiel Nano, Surface and Interface Science – KiNSIS) der CAU

(nach oben)


25.000 Jahre altes menschliches Umweltgenom wiederhergestellt

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Uralte Sedimente aus Höhlen können DNA über Jahrtausende konservieren. Deren Analyse wird allerdings dadurch erschwert, dass meist nur wenige Sequenzen aus den Sedimenten gewonnen werden können. Ron Pinhasi und Pere Gelabert haben nun in einer Studie der Universität Wien drei Säugetier-Umweltgenome aus einer einzigen 25.000 Jahre alten Bodenprobe der Satsurblia-Höhle im Kaukasus (Georgien) gewonnen. Die Studie erscheint in Current Biology.

Die Satsurblia-Höhle wurde von Menschen zu unterschiedlichen Zeiten im Paläolithikum bewohnt: Bisher konnte an diesem Fundort bereits ein 15.000 Jahre altes Genom eines menschlichen Individuums sequenziert werden. In den älteren Schichten der Höhle wurden keine weiteren menschlichen Überreste entdeckt.

Innovativer Ansatz ermöglicht DNA-Bestimmung in Umweltproben
Ron Pinhasi und Pere Gelabert haben mit einem internationalen Team gemeinsam mit Susanna Sawyer von der Universität Wien und in Zusammenarbeit mit Pontus Skoglund und Anders Bergström vom Francis Crick Institute in London einen innovativen Ansatz angewendet. Dieser ermöglicht eine DNA-Bestimmung in Umweltproben mit Hilfe aufwändiger Sequenzierungsmethoden und Datenanalyseressourcen. Dadurch konnte ein menschliches Umweltgenom der BIII-Höhlenschicht wiedergewonnen werden, das ca. 25.000 Jahre alt ist und damit vor der Eiszeit datiert wird.

Durch diesen neuen Ansatz konnte bewiesen werden, dass ein menschliches Umweltgenom ohne Skelettüberreste wiedergewonnen werden kann. Die Analyse des genetischen Materials ergab, dass das menschliche Umweltgenom SAT29 eine alte menschliche Abstammungslinie darstellt, die sich teilweise in der heutigen west-eurasischen Bevölkerung fortsetzt. Um diese Ergebnisse zu bestätigen, stellten die Wissenschafter*innen einen Vergleich zwischen dem wiedergewonnenen Genom und den genetischen Sequenzen aus Knochenüberresten der nahegelegenen Dzudzuana-Höhle an. Dieser lieferte den eindeutigen Beweis für die genetische Ähnlichkeit. Somit ist auch die Möglichkeit einer späteren Kontamination der Proben in der Gegenwart ausgeschlossen.

Vergangene Ökosysteme rekonstruieren
Neben dem identifizierten menschlichen Genom konnten noch weitere Genome aus den Umweltproben wiedergewonnen werden, die vom Wolf oder Bison stammen. Die Sequenzen wurden zur Rekonstruktion der Populationsgeschichte von Wolf und Bison im Kaukasus herangezogen und tragen damit zum besseren Verständnis der Populationsdynamik dieser Tierarten bei. Die Forscher*innen planen nun die Durchführung weiterer Analysen der Bodenproben aus der Satsurbia-Höhle, um Erkenntnisse zu den Interaktionen zwischen alte Fauna und Menschen, sowie Auswirkungen der Klimaveränderungen auf Säugetierpopulationen zu gewinnen. Durch die Möglichkeit der DNA-Gewinnung aus Bodenproben kann die Evolution ganzer vergangener Ökosysteme rekonstruiert werden.

Publikation in Current Biology:
Gelabert et al. 2021. Genome-scale sequencing and analysis of human, wolf and bison DNA from 25,000 year-old sediment. Current Biology. DOI:

Wissenschaftliche Ansprechpartner:
Ron Pinhasi, PhD
Department für Evolutionäre Anthropologie
Universität Wien
1090 – Wien, Althanstraße 14 (UZA I)
+43-1-4277-547 21
+43-664-60277-547 21
ron.pinhasi@univie.ac.at

Originalpublikation:
Publikation in Current Biology:
Gelabert et al. 2021. Genome-scale sequencing and analysis of human, wolf and bison DNA from 25,000 year-old sediment. Current Biology. DOI: 10.1016/j.cub.2021.06.023

(nach oben)


Bohnen nur gegart genießen

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Mehr Meldungen zu gesundheitlichen Beeinträchtigungen nach dem Verzehr von grünen Bohnen

Im Jahr 2020 erhielten die Giftinformationszentren auffällig viele Anfragen zu Beschwerden nach Verspeisen von grünen Bohnen. Die pandemiebedingte Veränderung des Essverhaltens in Privathaushalten könnte mit dazu beigetragen haben. So deuten verschiedene Studien darauf hin, dass Menschen in Deutschland mehr Gemüse konsumieren und öfter selbst kochen als vor der Pandemie. „Im Gegensatz zu vielen anderen Gemüsearten dürfen Bohnen nicht roh verzehrt werden“, sagt Professor Dr. Dr. Andreas Hensel, Präsident des Bundesinstituts für Risikobewertung (BfR). „Rohe Bohnen enthalten Phasin. Das Protein kann für den Menschen schon in minimalen Dosen gesundheitsschädlich sein und wird erst durch hohe Temperaturen zerstört.“ Auch die Kommission „Bewertung von Vergiftungen“ des BfR rät deshalb zu besonderer Vorsicht. Schonende Garmethoden, wie sanftes Dünsten oder Dämpfen, eignen sich nicht für Bohnen. Ausreichend erhitzt sind Hülsenfrüchte aber gut bekömmlich. Sie enthalten viele wertvolle Inhaltsstoffe.

Link zur BfR-App „Vergiftungsunfälle bei Kindern“:
https://www.bfr.bund.de/de/apps_vergiftungsunfaelle.html

In der modernen Küche wird häufig nur schonend gegart – dadurch bleibt das Gemüse knackig und weniger Vitamine gehen verloren. Bei einigen Gemüsearten, wie zum Beispiel Gartenbohnen, sollte bei der Zubereitung jedoch unbedingt auf eine ausreichende Erhitzung und Garzeit geachtet werden. Die Samen und Hülsen der grünen Gartenbohne enthalten das Protein Phasin, das zur Gruppe der Lektine gehört. Auch in anderen Bohnenarten kommen solche Lektine vor. Phasin kann ¬Magen-Darm-Störungen verursachen.

Nach dem Verzehr weniger roher Samen treten häufig Bauchschmerzen und Übelkeit auf. In schweren Fällen kann es zu blutigen Durchfällen, Fieber und Blutdruckabfall kommen. Die Symptome beginnen meist zwei bis drei Stunden nach Konsum der Samen. Ob Symptome auftreten und wie stark diese ausgeprägt sind, ist individuell sehr unterschiedlich. Kinder sind aufgrund ihres geringen Körpergewichts besonders gefährdet.

Wenn versehentlich rohe Bohnen gegessen wurden oder nach einer unzureichenden Garung Symptome auftreten, empfiehlt das BfR, umgehend ein Giftinformationszentrum anzurufen. Kontaktdaten und weitere Informationen zu giftigen Pflanzen gibt es in der BfR-App „Vergiftungsunfälle bei Kindern“.

Wer Bohnen im eigenen Garten anbaut, sollte Kinder über die Gefahr aufklären oder sicherstellen, dass sie keinen unbeaufsichtigten Zugang zu den Pflanzen haben. Vorsicht auch mit Samentütchen zur Aussaat: Die teilweise bunt marmorierten Bohnensamen können auf Kinder einen besonderen Reiz ausüben.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Corona macht uns müde

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Der Verlauf einer Pandemie in einem Land wird wesentlich von sozialen, politischen und psychologischen Prozessen bestimmt. Diese soziale Dynamik erschien bis heute als kaum prognostizierbar, und machte es unmöglich, einen Pandemieverlauf vorherzusagen. Denn die meisten vorliegenden Simulationsmodelle sind nur wenige Wochen belastbar, da sie soziale Prozesse statisch oder zu linear abbilden. Hier setzt eine neue Studie des Helmholtz-Zentrums Hereon von Prof. Kai Wirtz an. Sie ist jetzt im Fachjournal Scientific Reports erschienen.

Jede Pandemie wirkt auf das Leben und Handeln der Menschen, und dies steuert wiederum den Pandemieverlauf. Die bestimmenden sozialen, politischen und psychologischen Faktoren konnten bislang nicht durch mathematische Modelle beschrieben werden, was Prognosen der Coronapandemie schwierig machte. Dem will die neue Studie abhelfen. Der Forscher Kai Wirtz vom Hereon-Institut für Küstensysteme – Analyse und Modellierung hat dort vor allem die sozialen Phänomene und deren Veränderung in quantitativer Form beschrieben. Das entspricht Bestrebungen der Helmholtz-Gemeinschaft, wonach alle Disziplinen angehalten sind, die Forschung zur Pandemie voranzutreiben. „Soziale Modellierung treibt mich als Wissenschaftler schon länger um. Sie ist vor kurzem auch in der Küstenforschung angekommen. Die größte Herausforderung bei dieser Entwicklung war die Einbindung des menschlichen Handelns in konventionelle epidemiologische Modelle“, so Wirtz.

Wie Corona die Menschen verändert
Für die neue Studie nutzt Wirtz die Einmaligkeit der globalen Coronapandemie. Sie geht mit einer nie da gewesenen Datenerhebung einher, wie er betont. Die Studie nutzt einen Teil dieser Datensätze – sie kommen vor allem von Apple, John Hopkins CSSE und YouGov – um ein neuartiges Modell anhand der unterschiedlichen Pandemieverläufe von 20 betroffenen Regionen quantitativ zu testen. Die Regionen entsprechen elf EU-Ländern, darunter Italien, Scheden und Deutschland, dem Iran und acht Bundesstaaten in den USA.

Allen Ländern, die Anfang 2020 von der Pandemie betroffen waren, gelang es, die Infektionsraten durch Maßnahmen wie soziale Distanzierung zu reduzieren. Nachdem im Mai 2020 die Lockdowns aufgehoben wurden, erreichten einige Regionen sehr niedrige Fallzahlen, während andere von einer anhaltend hohen Sterblichkeit betroffen waren. Später, im Herbst und Winter 2020/2021, wurden alle diese Regionen von massiven zweiten und dritten Wellen getroffen, trotz der Erfahrungen aus den ersten Lockdowns.

Das Modell der Studie konnte die Prognostizierbarkeit von gesellschaftlichem Handeln wesentlich verbessern, indem es klassische Gleichungen zur Ausbreitung eines Virus mit einfachen Regeln zur gesellschaftlichen Dynamik kombiniert: Als Grundlage wird angenommen, dass Gesellschaften solidarisch und rational handeln, um die kombinierten Schäden aus COVID-19-bedingter Mortalität und den unmittelbaren sozio-ökonomischen Kosten von Kontaktverboten möglichst gering zu halten. „Allerdings zeigen Simulationsergebnisse, dass noch ein weiterer Mechanismus zentral zur Beschreibung der Dynamik in den 20 Regionen ist: die Erosion gesellschaftlichen Zusammenhalts, in der Wissenschaft soziale Kohäsion genannt, einhergehend mit einer sinkenden Bereitschaft zu sozialer Distanzierung“, sagt Wirtz. Psychologische Ermüdung, bröckelnde Gruppendynamik, Existenzdruck können Ursachen dafür sein.

Verlorener Zusammenhalt
Erst die Simulation dieses Erosionsprozesses führt zu Kurven regionaler Sterblichkeitsraten und Mobilitäts- und Verhaltensänderungen, die fast exakt mit den empirischen Daten übereinstimmen. Die Studie stellt somit das erste Modell vor, das den Vorhersagehorizont von bislang maximal drei Wochen auf bis zu einem Jahr erweitert. Potenziell kann es auch den Einfluss von neuen SARS-CoV-2 Mutationen beschreiben.

Anhand der Studie können die regional diversen zweiten und dritten Wellen der Pandemie als Folge unterschiedlicher gesellschaftlicher Kohäsion und klimatologischer Faktoren erklärt werden. Die Modellrechnungen zeigen, dass in vielen Ländern im Sommer 2020 eine Null-Covid-Strategie möglich gewesen wäre. „Allerdings nur bei Aufhaltung des sozialen Ermüdungsprozesses sowie rigider Einreisebeschränkungen“, sagt Kai Wirtz. Wegen der guten Übereinstimmung mit den Daten kann das Modell Hinweise für mittelfristige strategische Planung geben, etwa zur effizienteren Impfstoffverteilung. Bereits Anfang 2021 sagte es für Deutschland voraus, dass jeder verzögerte Tag der Massenimpfung im Schnitt zu 178 zusätzlichen Covid-Toten führt. Mit dieser Forschung ist der menschliche Umgang mit dem Virus ein Stück besser analysierbar geworden und hilft uns bei zukünftigen Entscheidungen.

Wissenschaftliche Ansprechpartner:
Prof. Kai Wirtz I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I T: +49 (0) 4152 87-1513 I kai.wirtz@hereon.de I www.hereon.de

Christoph Wöhrle I Helmholtz-Zentrum Hereon I Kommunikation und Medien
T: +49 (0)4152 87-1648 I presse@hereon.de I www.hereon.de

Originalpublikation:
https://doi.org/10.1038/s41598-021-93248-y

Weitere Informationen:
https://www.hereon.de/institutes/coastal_systems_analysis_modeling/ecosystem_mod…

(nach oben)


Metallrückgewinnung aus Abwässern: Innovative biotechnologische Verfahren und ihr Impact

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)
Industrielle Abwässer enthalten schwach konzentrierte kritische Metalle. Um diese zurückzugewinnen, haben zehn europäische Partner im Projekt BIOMIMIC zwei Prozesse weiterentwickelt. Zum Projektteam gehörten auch zwei deutsche Partner: Das Fraunhofer ISI hat die Verfahren im Hinblick auf Wirtschaftlichkeit und Ökologie sowie auf ihren Beitrag zur Versorgungssicherheit untersucht, G.E.O.S. hat ein biotechnologisches Verfahren entwickelt, das Metalle und Sulfat aus Grubenwässern beseitigen kann.

Im Projekt BIOMIMIC wurden Verfahren weiterentwickelt, mit denen sich kritische Metalle aus industriellen Abwässern zurückgewinnen lassen. Zehn europäische Partner aus Wissenschaft und Industrie betrachteten dafür drei Abwasserströme: Grubenwässer aus stillgelegten Bergbaustollen in Sachsen, Sickerwasser aus der Rotschlammlagerung einer Aluminiumoxid-Herstellungsanlage in Irland sowie Lösungen, die bei der Laugung von Aschen aus einer schwedischen Müllverbrennung anfallen.

Als Koordinator der deutschen Teilprojekte leitete das Fraunhofer-Institut für System- und Innovationsforschung ISI das Teilvorhaben »Impact«. Die Wissenschaftler:innen sollten den potenziellen Nutzen der in BIOMIMIC entwickelten Verfahren im Hinblick darauf bewerten, welchen Beitrag sie zur Versorgungssicherheit der EU mit kritischen Rohstoffen leisten können, wie sie ökonomisch realisierbar sind und welche ökologischen Vor- und Nachteile sie haben.

Der zweite deutsche Verbundpartner, die G.E.O.S. Ingenieurgesellschaft mbH, entwickelte im Teilvorhaben »Verfahrenstechnik« ein Sulfatreduktionsverfahren und demonstrierte es im kleintechnischen Maßstab. Damit lassen sich metall- und sulfathaltige Wässer unter Verwendung eines Bewegtbettbioreaktors erfolgreich behandeln: Mehr als 90 Prozent der Metalle werden als Metallsulfide abgetrennt, mehr als 99 Prozent der toxischen Substanzen und mehr als 60 Prozent des Sulfats werden entfernt. Ein Vorteil des Verfahrens ist der geringe regeltechnische Aufwand, da es ohne Gaszufuhr auskommt. Weiterhin ist die nicht verwertbare Reststoffmenge mit einem Zehntel des Ausgangsprodukts deutlich geringer als bei chemischen Behandlungsverfahren.

Auch die Ergebnisse der anderen Projektpartner zeigen, dass sich Prozesse mit sulfatreduzierenden Bakterien sehr gut eignen, um metall- und sulfathaltige Wässer zu reinigen und die Wertmetalle zurückzugewinnen. Zur Aufbereitung des Sickerwassers aus der Aluminiumoxid-Herstellungsanlage wurde eine Anlage für ein Biosorptionsverfahren fertiggestellt.

Prozesse können helfen, lokale Umweltprobleme zu lösen
Die Impact-Bewertung des Fraunhofer ISI zeigt, dass die in BIOMIMIC weiterentwickelten Verfahren technisch in der Lage sind, Metallverunreinigungen aus den betrachteten Abwasserströmen zu entfernen. Der potenzielle Beitrag dieser Aufbereitung zur EU-Versorgungssicherheit ist zwar eher gering, die Potenziale zur Lösung lokaler Umweltprobleme sind aber nicht zu vernachlässigen.

Um jedoch eine eindeutig umweltgerechtere und wirtschaftlich realisierbare Alternative zu rein chemischen Behandlungen der Abfallströme zu werden, müssen beide Verfahren hinsichtlich ihrer ökologischen und ökonomischen Leistung weiter optimiert werden: Der Prozess mit sulfatreduzierenden Bakterien ließe sich unter anderem verbessern, indem die Energieeffizienz gesteigert wird, zudem könnten andere Abfallströme genutzt werden, um Energie und Kohlenstoff für den Prozess zur Verfügung zu stellen. Beim Biosorptionsverfahren hat die Nutzung von Biokohle gegenüber Hydrokohle ökologische und ökonomische Vorteile.

Projektleiterin Dr. Sabine Langkau, die am Fraunhofer ISI das Geschäftsfeld Nachhaltigkeitsinnovationen und Politik leitet, betont: »Die Aufbereitung von industriellen Abwässern bietet oft keine ökonomischen Gewinnmöglichkeiten für Unternehmen, selbst wenn diese Abwasserströme wie in den hier untersuchten Fällen versorgungskritische Metalle enthalten. Daher bedarf es auch weiterhin gesetzlicher Vorgaben wie beispielsweise der aktuellen EU-Wasserrahmenrichtlinie, um Abwasserbehandlungsverfahren in die Anwendung zu bringen und damit lokale Umweltprobleme zu lösen. Darüber hinaus kann eine Bewertung der ökologischen und ökonomischen Auswirkungen der Verfahren unter Berücksichtigung der eingesetzten Energie- und Chemikalienmengen helfen, die Verfahren zu optimieren und das am besten geeignete Verfahren auszuwählen.«

Über das Projekt:
Das Projekt »BIOMIMIC« bestand aus mehreren Teilprojekten, an denen zehn europäische Partner innerhalb der transnationalen Ausschreibung des ERA-Nets ERA-MIN 2 gefördert wurden. Die deutschen Teilprojekte »Impact« und »Verfahrenstechnik« wurden vom Bundesministerium für Bildung und Forschung gefördert.

Medienkontakt
Anne-Catherine Jung
Leiterin Presse und Kommunikation
Fraunhofer-Institut für System- und Innovationsforschung ISI
Telefon +49 721 6809-100
E-Mail presse@isi.fraunhofer.de

Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der fundierten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.

Wissenschaftliche Ansprechpartner:
Dr. Sabine Langkau: Telefon +49 721 6809-498, E-Mail sabine.langkau@isi.fraunhofer.de

Weitere Informationen:
http://publica.fraunhofer.de/documents/N-636240.html BIOMIMIC: Innovative biotechnologische Methoden zur effektiven Metallrückgewinnung aus Sekundärmaterialien (Abschlussbericht und Kurzfassung)
https://biomimic-project.eu/ Informationen zum Projekt

(nach oben)


Neue Daten zur Langzeit-Immunität von COVID-19-Infizierten

Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
Forscherinnen und Forscher an der Universität zu Lübeck und am Gesundheitsamt der Hansestadt Lübeck haben eine weitere Studie zur Dauer der Immunität nach einer COVID-19-Infektion abgeschlossen und herausgefunden, dass die Immunität mindestens 10 Monate anhält. Die Kombination aus Zellimmunität und Antikörpern scheint ursächlich zu sein.

Die Fragestellung war, ob und falls ja wie lange infizierte Personen nach einer SARS-CoV-2 Infektion Antikörper und Interferon-gamma (IFN-γ) produzieren und so anschließend über ausreichende Abwehrmechanismen verfügen, die sie vor einer erneuten Infektion schützen können.

Insgesamt 412 Erwachsene mit überwiegend milder oder moderater Symptomatik wurden im Rahmen dieses Projekts untersucht. Das Blut der Teilnehmenden wurde auf das Vorhandensein von spezifischen anti-SARS-CoV-2 IgG Antikörpern und auf die Freisetzung von Interferon-gamma (IFN-γ) untersucht. IFN-γ ist einer der wichtigsten Botenstoffe im Immunsystem und wird von sogenannten T-Lymphozyten freigesetzt. Bei den meisten Infektionen, so auch bei dem Coronavirus, sind diese Zellen unverzichtbar, damit die sogenannten B-Lymphozyten schützende Antikörper produzieren können. Somit kann eine gezielte Aussage über die Abwehrlage getroffen werden.
Anti-SARS-CoV-2 IgG Antikörper konnten auch zehn Monate nach der Infektion bei 316/412 (76,7%) der Studienteilnehmerinnen und Studienteilnehmer gemessen werden. Bei 274/412 (66,5 %) der Patientinnen und Patienten waren sowohl Antikörper (IgG) nachweisbar und der IFN-γ Test fiel positiv aus.
Im Schnitt waren auch 300 Tage nach der Infektion noch 50% der Antikörper und der IFN-γ Konzentrationen nachweisbar. Interessanterweise wurden bei einigen Teilnehmenden zwar hohe Antikörperwerte, aber niedrige IFN-γ-Spiegel gemessen und umgekehrt. Diese Beobachtung wird weiter untersucht. Das Projekt wurde in Kooperation mit der Firma Euroimmun in Lübeck durchgeführt. Die Ergebnisse wurden bereits auf dem medRxiv-preprint server veröffentlicht.

“Unsere Daten zeigen, dass bei nahezu allen Teilnehmerinnen und Teilnehmern nach durchgemachter COVID-Infektion eine ausreichende Immunreaktion stattgefunden hat. Der Schutz hält für mindestens 10 Monate nach Infektion an. Die Ergebnisse können helfen zu entscheiden, in welchen Abständen Auffrischimpfungen gegen das Virus nötig sind“, so Prof. Dr. Werner Solbach, vom Zentrum für Infektions- und Entzündungsforschung an der Universität zu Lübeck.

„In unserer gemeinsamen Studie haben wir neben der etablierten Untersuchung auf Antikörper den Ansatz verfolgt, mit Hilfe der IFN-γ Messung eine Aussage zur so genannten zellulären Immunität, d.h. Abwehrlage auf Zellebene, treffen zu können. Die Ergebnisse sind beruhigend und lassen den Schluss zu, dass nur in der Zusammenschau von Antikörpern und Zellimmunität eine Aussage getroffen werden kann, wie lange man nach einer durchgemachten COVID-Infektion geschützt ist“, so Priv.-Doz. Dr. Alexander Mischnik, Leiter des Lübecker Gesundheitsamts und Letztautor der Studie.

Die vollständige Publikation ist online abrufbar unter:
https://medrxiv.org/cgi/content/short/2021.06.24.21259218v1

Wissenschaftlicher Kontakt:
Prof. Dr. med. Werner Solbach
Zentrum für Infektions- und Entzündungsforschung
Universität zu Lübeck
Ratzeburger Allee 160 | 23562 Lübeck
Tel.: 0451 3101 1947
werner.solbach@uni-luebeck.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Werner Solbach
Zentrum für Infektions- und Entzündungsforschung
Universität zu Lübeck
Ratzeburger Allee 160 | 23562 Lübeck
Tel.: 0451 3101 1947
werner.solbach@uni-luebeck.de

Originalpublikation:
https://medrxiv.org/cgi/content/short/2021.06.24.21259218v1

(nach oben)


Hy2Biomethane: Intelligente Kombination von Biogas und Wasserstoff

Severin Mantel-Lehrer Hochschulkommunikation
Technische Hochschule Ingolstadt
Das Institut für neue Energie-Systeme (InES) der Technischen Hochschule Ingolstadt (THI) erhält eine Förderung für das Projekt „Hy2Biomethane“. Unter Verwendung des bei Biogasanlagen durch die Fermentation anfallenden Kohlendioxids soll mit Wasserstoff aus einer vor Ort angeschlossenen Elektrolyse wiederum Methan erzeugt werden. Als vielversprechender Konversionspfad wird dabei die biologische Methanisierung näher untersucht. Das konkrete Ziel des Forschungsprojektes besteht in der Konzeptionierung, Entwicklung und labortechnischen Erprobung der verfahrenstechnischen Einbindung eines Rieselbettreaktors in die Druckwasserwäsche-basierten Biogasaufbereitung.

Das Institut für neue Energie-Systeme (InES) der Technischen Hochschule Ingolstadt (THI) geht mit einem weiteren Forschungsvorhaben beim Thema Wasserstoffinfrastruktur und -verwertung voran. Wissenschaftler des InES-Forschungsbereichs Industrielle Energiesysteme profitieren dabei von besten Voraussetzungen bei der an der THI vorhandenen Laborinfrastruktur.
Auch die Politik unterstreicht mittlerweile durch vielfältige Initiativen den Stellenwert, den Wasserstoff als universeller Energieträger für kommende Phasen der Energiewende einnehmen soll. Vor diesem Hintergrund beschäftigt sich auch das InES bereits seit Jahren mit dieser Zukunftstechnologie. Im Rahmen des nun vom Bundesministerium für Wirtschaft und Energie geförderten Projekts „Hy2Biomethane“ sollen Biogas und Wasserstoff intelligent miteinander kombiniert werden.
Unter Verwendung des bei Biogasanlagen durch die Fermentation anfallenden Kohlendioxids soll mit Wasserstoff aus einer vor Ort angeschlossenen Elektrolyse wiederum Methan erzeugt werden. Als vielversprechender Konversionspfad wird dabei die biologische Methanisierung näher untersucht. Das konkrete Ziel des Forschungsprojektes besteht in der Konzeptionierung, Entwicklung und labortechnischen Erprobung der verfahrenstechnischen Einbindung eines Rieselbettreaktors in die Druckwasserwäsche-basierten Biogasaufbereitung. Den hierfür speziell entwickelten Rieselbettreaktor steuert der Lehrstuhl für Energieverfahrenstechnik der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) als Projektpartner bei. Die Konzeptionierung sowie den Aufbau der gesamten Versuchsanlage übernehmen die Wissenschaftler des InES. Dabei können sie auch auf die exzellente Infrastruktur im Labor für Bioenergietechnik der Fakultät Maschinenbau am Campus der THI zurückgreifen.
Prof. Markus Goldbrunner leitet als Verbundkoordinator das Gesamtvorhaben. „Die Erzeugung von Biomethan durch die intelligente Kombination von Biogasanlagen und Elektrolyse, sowie die Einspeisung von Biomethan in das Erdgasnetz bietet nicht nur für Biogasanlagen eine zukunftsorientierte Alternative“, so Prof. Goldbrunner.
Das Projekt „FlexBiomethane“, ein zweites Forschungsvorhaben des InES, befasst sich bereits seit vergangenem Jahr mit der katalytischen Direktmethanisierung von Biogas und ergänzt damit die oben beschriebenen Forschungsaktivitäten zur Wasserstofferzeugung und Methanisierung. Beide Projekte werden in der kommenden Ausgabe 04/2021 der VDI-Zeitschrift „Technik in Bayern“ näher erläutert, welche sich dem Schwerpunktthema Wasserstoff widmet.
Details zu allen weiteren Forschungsprojekten des Instituts für neue Energie-Systeme sowie auch dessen Forschungsbereichs Industrielle Energiesysteme können auf den Webseiten des InES abgerufen werden: http://www.thi.de/go/energie

(nach oben)


Carbon Black aus Autoreifen recyceln

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Altreifen werden bislang vorwiegend zur Gewinnung von Energieträgern genutzt: Das darin enthaltene Carbon Black wird nur zu geringen Anteilen recycelt, da es etwa 20 Prozent mineralische Asche enthält. Mit einem neuen Verfahren des Fraunhofer-Instituts für Bauphysik IBP lässt sich diese Asche nahezu vollständig abtrennen – und so sowohl das Carbon Black als auch die Minera-lien aus der Asche erneut nutzen.

Etwa drei Kilogramm Carbon Black – auch Industrieruß genannt – stecken in einem üblichen PKW-Reifen. Das Problem dabei: Für die Herstellung einer Tonne Carbon Black braucht man etwa 1,5 Tonnen fossile Rohstoffe und große Mengen Wasser, es entstehen bis zu drei Tonnen Kohlenstoffdioxid. Es wäre daher äußerst sinnvoll, das in Altreifen enthaltene Carbon Black zu recyclen. Das in ihnen enthaltene Rohstofflager ist riesig: Etwa vier Milliarden Altreifen haben sich bereits auf Deponien angesammelt, jährlich kommen etwa 1,8 Milliarden Reifen dazu. Bislang gewinnt man aus den Altreifen – ebenso wie aus technischen Gummimaterialien – jedoch vor allem Öle, mit denen wiederum Energie für industrielle Prozesse gewonnen wird oder die als Rohstoff in Raffinerien eingesetzt werden. Das Recovered Carbon Black dagegen, das bei dem Pyrolyse-Verfahren entsteht, bleibt größtenteils ungenutzt: Es enthält bis zu 20 Prozent mineralische Asche, die aus den bei der Reifenherstellung genutzten Additiven besteht – vor allem aus silikatischen Verbindungen und Zinkkomponenten.

Purifiziertes Carbon Black aus Altreifen
Forscherinnen und Forscher des Fraunhofer IBP in Valley haben im Auftrag der RCB Nanotechnologies GmbH aus München ein Entmineralisierungsverfahren entwickelt, über das sich das recycelte Carbon Black von seiner mineralischen Last befreien lässt. »Das so behandelte Recoverd Carbon Black ist nahezu frei von mineralischen Reststoffen, es lässt sich beispielsweise zu 100 Prozent für die Seitenteile von Reifen einsetzen – also ohne Beimischung von primärem Carbon Black. Es kann die ursprünglichen Industriematerialien somit vollständig ersetzen«, sagt Dr. Severin Seifert, Gruppenleiter am Fraunhofer IBP. Zum Vergleich: Ohne die Entmineralisierung lassen sich gerade einmal zehn Prozent des recycelten Carbon Blacks zum Primärmaterial zumischen. Dazu kommt: Bei dem Entmineralisierungsverfahren entsteht nicht nur hochwertiger Industrieruß. Auch die Mineralstoffe werden mit großer Reinheit wiedergewonnen und können industriell weiterverwendet werden.

Doch wie gelingt es den Forschern, das Carbon-Black-Asche-Gemisch, das beim Pyrolyse-Verfahren entsteht, entsprechend aufzureinigen? »Wir nutzen dazu einen nasschemischen Prozess«, erläutert Christian Kaiser, Projektleiter am Fraunhofer IBP. »Vereinfacht gesagt: Wir geben das (Roh) Carbon Black-Asche-Gemisch zusammen mit verschiedenen Additiven in einen Reaktor, vermischen es mit Fluid und fahren eine definierte Druck- und Temperaturkurve. Dabei werden die einzelnen Stoffe selektiv aus dem Gemisch herausgelöst.« Was sich zunächst einfach anhört, hat es durchaus in sich: Die Parameter und Additive müssen derart eingestellt werden, dass sich jeweils nur ein bestimmtes Mineral möglichst sortenrein aus dem Gemisch herauslöst. Zudem müssen Temperatur und Druck dabei so moderat bleiben, dass das Verfahren auch technisch ohne größere Einschränkungen umsetzbar ist. Auch dürfen nicht zu viele Additive zugegeben werden – schließlich gilt es, die wirtschaftlichen Aspekte mit im Blick zu behalten und den Prozess nicht zu teuer werden zu lassen. Einen Teil der Additive gewinnen die Forscher und Forscherinnen daher zurück und schließen auch hier den Stoffkreislauf. Das Ergebnis des Entmineralisierungsverfahrens: Recyceltes Carbon Black mit hohem Reinheitsgrad für den Einsatz in Reifen und anderen Gummiprodukten sowie als Farbmittel (Masterbatch) für Kunststoffanwendungen, Silikate, die etwa in der Baustoffindustrie oder für Farben eingesetzt werden können, sowie Zinksalze für unterschiedlichste Anwendungen.

Industrielle Anlage bereits im Bau
Eine Pilotanlage mit einem Reaktorvolumen von 200 Litern existiert bereits – und wird die nächsten zwei Jahre am Fraunhofer IBP in Valley für die weiterführende Forschung aktiv im Betrieb sein. Ziel ist es, das Recovered Carbon Black auch für weitere industrielle Anwendungen nutzbar zu machen. Der Grundprozess ist ebenfalls bereits patentiert, mit der RCB Nanotechnologies GmbH als exklusivem Lizenznehmer. Derzeit arbeitet die Firma daran, den Prozess in den industriellen Maßstab zu überführen: Die Produktionshalle ist bereits gebaut, das Reaktorvolumen für einen Produktionsstrang soll jeweils bei 4000 Litern liegen. Das heißt: Ein Produktionsstrang wird pro Stunde 400 Kilogramm recyceltes Carbon Black von der Asche befreien – das sind 2500 Tonnen pro Jahr. In der finalen Ausbaustufe soll die gesamte Anlage eine Kapazität von knapp 30 000 Tonnen pro Jahr haben.

Längerfristig soll der Prozess zudem von einem Batch-Prozess in einen kontinuierlichen Prozess überführt werden. Auch Interessenten gibt es bereits: »Unsere Partner bekommen mittlerweile mehr Musteranfragen, als wir bedienen können«, sagt Kaiser. » Schließlich, stellt das so veredelte Recovered Carbon Black eine erste ernstzunehmende und nachhaltige Lösung für den Ersatz der technischen Industrierußen dar.«

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/juli-2021/carbon-bl…

(nach oben)


SARS-CoV-2: Schnelltests nur bedingt zuverlässig

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Gängige Schnelltests auf eine Infektion mit dem SARS-CoV-2-Virus erkennen Infizierte deutlich seltener als ein PCR-Test. Das zeigt eine neue Studie eines Forschungsteams der Würzburger Universitätsmedizin.

Im Bemühen, die Corona-Pandemie einzudämmen, sind Antigen-Schnelltests derzeit ein weit verbreitetes Instrument. In der Schule, vor dem Besuch von Kulturveranstaltungen, auf der Fahrt in den Urlaub: Überall ist ein negatives Testergebnis der Schlüssel zum Einlass. Kein Wunder: Schließlich sind die Schnelltests eine einfache, kostengünstige und direkt vor Ort auswertbare Möglichkeit der Testung auf eine Infektion mit SARS-CoV-2.

Labordaten der Hersteller, auf denen die Zulassung basiert, bescheinigen den Tests eine hohe Zuverlässigkeit. Verglichen mit der Referenzmethode der COVID-19-Diagnostik, dem Nachweis der Erbsubstanz des Virus durch sogenannte PCR-Tests, soll ihre Sensitivität Werte von über 90 Prozent erreichen. „Sensitivität“ gibt in diesem Fall an, bei welchem Prozentsatz erkrankter Patienten die Infektion durch die Anwendung des Tests tatsächlich erkannt wird, das heißt, ein positives Testresultat auftritt.

Sensitivität liegt deutlich unter Herstellerangaben
Forscherinnen und Forscher aus den Instituten für Hygiene und Mikrobiologie sowie Virologie und Immunbiologie der Julius-Maximilians-Universität Würzburg (JMU) sowie mehrerer Kliniken des Universitätsklinikums Würzburg (UKW) sind jetzt zu einem anderen Ergebnis gekommen. Demnach liegt die Sensitivität der Antigen-Schnelltests im klinischen Praxiseinsatz mit 42,6 Prozent signifikant unter den Herstellerangaben. Die Ergebnisse dieser Studie hat das Team in der aktuellen Ausgabe der Fachzeitschrift EBioMedicine veröffentlicht.

Aus insgesamt 5.068 Untersuchungen stammen die Daten der Studie – bei den Teilnehmenden wurden jeweils sowohl ein Antigen-Schnelltest als auch ein PCR-Test durchgeführt. Anschließend wurden die Ergebnisse miteinander verglichen. Während die Sensitivität der Schnelltests dabei deutlich schlechter als erwartet ausfiel, erreicht ein anderes Kriterium gute Werte: die Spezifität. Sie liegt mit 99,68 Prozent im Bereich der Herstellerangaben. Die Spezifität beziffert den Anteil der korrekt negativ getesteten Personen.

Potenzielle Superspreader werden gut erkannt
„Unsere Auswertung zeigt, dass SARS-CoV-2-Infizierte mit sehr hoher Viruslast – potenzielle ‚Superspreader‘ – sehr zuverlässig mittels Antigen-Schnelltests als positiv erkannt werden. In SARS-CoV-2-Proben mit niedrigen Viruslasten hingegen werden Infektionen so gut wie nicht erkannt“, fasst Studienleiter Dr. Manuel Krone die zentralen Ergebnisse der Studie zusammen. Krone ist Arbeitsgruppenleiter am Institut für Hygiene und Mikrobiologie und seit 1. Juni 2021 stellvertretender Leiter der Stabsstelle Krankenhaushygiene des UKW.

Problematisch ist dies aus Sicht der Mediziner vor allem zu Beginn einer Infektion. „Dann liefern Antigen-Schnelltests möglicherweise erst später als ein PCR-Test die richtige Diagnose und können so den Betroffenen eine falsche Sicherheit geben“, sagt Krone. Den Testanwendern sollte dies bewusst sein, so der Mediziner. Schließlich sei die Gefahr groß, dass sich Infizierte aufgrund eines negativen Testergebnisses nicht mehr an die Abstands- und Hygieneregeln halten und somit das Virus in ihrem Umfeld verbreiten. Weniger problematisch sei das „falsch-negative“ Testergebnis am Ende einer Infektion, weil dann von den Infizierten kein hohes Ansteckungsrisiko mehr ausgeht.

Wichtige Erkenntnisse für Teststrategien
Die Ergebnisse der Studie sind für COVID-19-Teststrategien von großer Bedeutung: „Antigen-Schnelltests sollten nicht als Ersatz für PCR-Untersuchungen bei symptomatischen Personen eingesetzt werden, wenn PCR-Kapazitäten zur Verfügung stehen“, sagt Krone. Von ihrem Einsatz prinzipiell abraten will der Mediziner jedoch nicht: „Großflächig und regelmäßig eingesetzt ermöglichen sie eine zusätzliche Erkennung von in vielen Fällen auch asymptomatischen SARS-CoV-2-Infizierten und damit eine Unterbrechung von Infektionsketten.“

Isabell Wagenhäuser, Doktorandin am Institut für Hygiene und Mikrobiologie und Erstautorin der Studie, ergänzt: „In Situationen, in denen eine momentan hohe Infektiosität ausgeschlossen werden soll, weil viele Menschen auf engem Raum zusammenkommen, können Antigen-Schnelltests eine sinnvolle Ergänzung weiterer Hygienemaßnahmen darstellen. Auch die infektionsepidemiologische Lage spielt eine wichtige Rolle bei der Beurteilung, ob ein Einsatz von Antigen-Schnelltests sinnvoll ist.“

Inzidenz muss berücksichtigt werden
Das sieht auch Professor Ulrich Vogel, Leiter der Stabsstelle Krankenhaushygiene des UKW, so. Er weist darauf hin: „Bei der Entscheidung zum Einsatz von Antigen-Schnelltests muss immer auch die aktuelle Inzidenz bedacht werden, da der positive Vorhersagewert der Tests bei niedrigen Inzidenzen abfällt.“

Wissenschaftliche Ansprechpartner:
Dr. Manuel Krone, Institut für Hygiene und Mikrobiologie, T: +49 931 31-88040, krone_m@ukw.de

Originalpublikation:
Clinical performance evaluation of SARS-CoV-2 rapid antigen testing in point of care usage in comparison to RT-qPCR. Isabell Wagenhäuser, Kerstin Knies, Vera Rauschenberger, Michael Eisenmann, Miriam McDonogh, Nils Petri, Oliver Andres, Sven Flemming, Micha Gawlik, Michael Papsdorf, Regina Taurines, Hartmut Böhm, Johannes Forster, Dirk Weismann, Benedikt Weißbrich, Lars Dölken, Johannes Liese, Oliver Kurzai, Ulrich Vogel, Manuel Krone, EBioMedicine (2021); 69:103455, https://doi.org/10.1016/j.ebiom.2021.103455

(nach oben)


Säure in der Nano-Pore: Wasser in Zeolithen hilft bei der Umwandlung von Biomasse in Biosprit

Dr. Andreas Battenberg Corporate Communications Center
Technische Universität München
Zeolithe sind extrem poröse Materialien: Zehn Gramm davon können eine innere Oberfläche von der Größe eines Fußballfeldes besitzen. Ihre Hohlräume lassen sich nutzen, um chemische Reaktionen zu katalysieren und damit Energie zu sparen. Ein internationales Forschungsteam hat nun neue Erkenntnisse über die Rolle von Wassermolekülen in diesen Prozessen gewonnen. Eine wichtige Anwendung ist die Umwandlung von Biomasse in Biosprit.

Treibstoff aus Biomasse gilt zwar als klimaneutral, dennoch benötigt man Energie um ihn herzustellen: Erst höhere Temperaturen und Druck sorgen dafür, dass die gewünschten chemischen Reaktionen stattfinden.

„Wenn wir in Zukunft auf fossile Energieträger verzichten und Biomasse im großen Stil effizient nutzen wollen, dann müssen wir auch Wege finden, den Energiebedarf bei der Verarbeitung zu reduzieren“, sagt Johannes Lercher, Professor für Technische Chemie an der Technischen Universität München (TUM) und Direktor am Institute for Integrated Catalysis am Pacific Northwest National Laboratory in Richland, Washington (USA).

Zusammen mit einem internationalen Forschungsteam hat der Chemiker sich jetzt die Rolle von Wassermolekülen bei Reaktionen innerhalb der nur wenige Nanometer großen Poren in Zeolithen genauer angesehen.

Das Saure an der Säure
Eine Säure zeichnet sich dadurch aus, dass sie bereitwillig Protonen abgibt. Salzsäure spaltet sich so auf in ein negativ geladenes Chlorid-Anion, wie es auch im Kochsalzkristall vorkommt, und ein positiv geladenes Proton, das in Wasser an Wassermoleküle andockt. Es entsteht so ein positiv geladenes Hydronium-Ion, das dieses Proton aber auch gerne wieder weiter reicht, beispielsweise an ein organisches Molekül.

Wird diesem ein Proton „aufgedrängt“, versucht es sich zu stabilisieren. Aus einem Alkohol kann so ein Molekül mit einer Doppelbindung werden – ein typischer Reaktionsschritt auf dem Weg von Biomasse zu Biosprit. Die Wände von Zeolithen stabilisieren die bei der Umwandlung auftretenden Übergangszustände und helfen so, den Energieaufwand für die Reaktion zu minimieren.

Ein Zeolith wird sauer
In Zeolithen gibt es Sauerstoffatome im Kristallverband, die bereits ein Proton besitzen. Im Zusammenspiel mit Wassermolekülen bilden sie, wie molekulare Säuren, Hydronium-Ionen.

Während die sich im Wasser jedoch verteilen, sind sie im Zeolithen fest gebunden. Durch chemische Vorbehandlung kann man die Zahl dieser aktiven Stellen variieren und so in den Poren des Zeolithen eine bestimmte Dichte von Hydronium-Ionen herstellen.

Der optimale Zeolith für jede Reaktion
Das Forschungsteam variierte nun systematisch die Größe der Hohlräume, die Dichte der aktiven Zentren und die Wassermenge. So konnte es zeigen, welche Porengröße und welche Wassermenge ausgewählte Beispielreaktion am besten katalysiert.

„Grundsätzlich kann man die Reaktionsgeschwindigkeit steigern, indem man die Poren enger macht und die Ladungsdichte erhöht“, erklärt Johannes Lercher. „Diese Steigerung hat allerdings Grenzen: Wenn es zu eng wird und die Ladungen zu dicht nebeneinander sind, nimmt die Reaktionsgeschwindigkeit wieder ab. Für jede Reaktion kann man so die optimalen Bedingungen finden.“

„Zeolithe sind für alle chemischen Reaktionen geeignet, deren Reaktionspartner in diese Poren hineinpassen und bei denen eine Säure als Katalysator eingesetzt wird“, betont Lercher. „Wir stehen hier ganz am Anfang einer Entwicklung die das Potenzial hat, die Reaktivität von Molekülen auch bei niedrigen Temperaturen deutlich zu erhöhen und damit bei der Gewinnung von Kraftstoffen oder chemischen Substanzen in erheblichem Umfang Energie einzusparen.“

An der Forschung beteiligt waren das Forschungszentrum für Chemie und Katalyse an der Technischen Universität München, das US-Institute for Integrated Catalysis am Pacific Northwest National Laboratory, das Schweizer Paul-Scherrer-Institut sowie die Universität Yangzhou und das Qingdao Institute of Bioenergy and Bioprocess Technology in China. Die Arbeit wurde gefördert durch die Technische Universität München und das US Department of Energy, Office of Science.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Johannes A. Lercher
Lehrstuhl für Technische Chemie II und
Zentralinstitut für Katalyseforschung
Technische Universität München
Lichtenbergstr. 4, 85748 Garching
Tel.: +49 89 289 13540 – E-Mail: johannes.lercher@ch.tum.de

Originalpublikation:
Niklas Pfriem, Peter H. Hintermeier, Sebastian Eckstein, Sungmin Kim, Qiang Liu, Hui Shi, Lara Milakovic, Yuanshuai Liu, Gary L. Haller, Eszter Baráth, Yue Liu, Johannes A. Lercher
Role of the ionic environment in enhancing the activity of reacting molecules in zeolite pores
Science, May 28, 2021: Vol. 372, Issue 6545, pp. 952-957 – DOI: 10.1126/science.abh3418

Weitere Informationen:
https://science.sciencemag.org/content/372/6545/952.abstract Originalpublikation
https://www.tum.de/nc/die-tum/aktuelles/pressemitteilungen/details/36774/ Presseinformation auf der TUM-Website
https://www.department.ch.tum.de/tc2/ Website der Arbeitsgruppe

(nach oben)


Ist Carsharing gut für die Umwelt?

Miriam Hegner Presse- und Öffentlichkeitsarbeit
Verband der Hochschullehrer für Betriebswirtschaft e.V.
Carsharing ermöglicht registrierten Nutzern die unkomplizierte Miete eines Fahrzeuges per Smartphone. Während in stationsbasierten Systemen jedes Auto nach der Miete wieder zu seinem festen Standort zurückgebracht werden muss, ermöglichen free-floating Systeme die Rückgabe auf jedem beliebigen öffentlichen Parkplatz einer Großstadt. Jochen Gönsch, Professor für Betriebswirtschaftslehre und Service Operations an der Universität Duisburg-Essen, erläutert, warum das gut für die Umwelt ist.

Moderne und bedarfsorientierte Flotten senken den Verbrauch
Viele Carsharing-Anbieter verfügen über moderne Fahrzeuge, die sehr gute Verbrauchs- und Abgaswerte besitzen. Nicht zuletzt aus Imagegründen stehen zahlreiche Elektrofahrzeuge zur Verfügung. Hinzu kommt, dass die Flotten aus überdurchschnittlich vielen Kleinwagen bestehen. Automobilhersteller senken so über ihre Carsharing-Töchter den durchschnittlichen Verbrauch aller hergestellten Pkw. Für sie ist das wichtig, weil die EU hier Obergrenzen vorschreibt. Ein weiteres Argument ist oft, dass Kundinnen und Kunden immer das passende Auto nutzen können: Die Kundin muss nicht immer Kleinbus fahren, nur weil sie ab und an mit der Familie in Urlaub fährt, sondern kann die Größe des PKWs nach tatsächlichem Bedarf wählen.

Gute Auslastung schont die Umwelt
Auch wenn die Auslastung von Carsharing-Fahrzeugen meist im einstelligen Prozentbereich liegt, so werden sie doch deutlich intensiver genutzt als Privatfahrzeuge. Für die gleiche Fahrleistung müssen also weniger Fahrzeuge hergestellt und entsorgt werden. Vor allem wird der benötigte Parkraum reduziert – laut Studien um bis zu 20%.

Aber: Wird am Ende tatsächlich der Pkw oder auch der Bus ersetzt?
Es stellt sich die Frage, ob durch Carsharing tatsächlich der eigene PKW oder nur die Nutzung des öffentlichen Nahverkehrs ersetzt wird. Studien zeigen, dass bei Nutzern von Carsharing der private Pkw-Besitz sinkt. Die entsprechenden Fahrten werden einerseits durch Carsharing, insbesondere aber auch durch den öffentlichen Nahverkehr ersetzt. Das heißt, Carsharing leistet mittelfristig einen Beitrag zu einer nachhaltigen, zukunftsfähigen Mobilität.

Professor Gönsch ist einer von über 170 VHB experts des Verbands der Hochschullehrer für Betriebswirtschaft e.V. (VHB). Mit rund 2.800 Mitgliedern ist der Verband eine wachsende, lebendige Plattform für wissenschaftlichen Austausch, Vernetzung und Nachwuchsförderung in allen Bereichen der BWL und darüber hinaus.

Wissenschaftliche Ansprechpartner:
Jochen Gönsch, Professor für Betriebswirtschaftslehre und Service Operations an der Universität Duisburg-Essen
jochen.goensch@uni-due.de

Weitere Informationen:
https://vhbonline.org/vhb-experts

(nach oben)


Kontaktlinse fürs Ohr

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Lärm, ein Hörsturz, Gefäßverengungen, das Alter – Schwerhörigkeit kann viele Ursachen haben. Um Betroffenen mit Hörschädigung ein besseres Leben zu ermöglichen, hat das Mannheimer Start-up Vibrosonic eine neuartige Hörhilfe entwickelt, deren Lautsprecher direkt auf dem Trommelfell aufliegt. Diese Hörkontaktlinse® muss nicht implantiert werden. Ihre Klangqualität übertrifft die bisheriger Hörsysteme. Vibrosonic ist eine Ausgründung der Fraunhofer-Projektgruppe für Automatisierung in der Medizin und Biotechnologie PAMB des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA und der Universitäts-HNO-Klinik Tübingen.

Etwa 15 Millionen Deutsche sind schwerhörig, schätzt der Deutsche Schwerhörigenbund e.V. In vielen Fällen können Hörhilfen das Hörvermögen verbessern und den Alltag der betroffenen Menschen erleichtern. Bei gängigen Hörgeräten sitzt der Lautsprecher im Gehörgang des Trägers. Daraus resultierende akustische Verzerrungen können die Klangqualität beeinträchtigen. Das Mikrofon befindet sich hinter dem Ohr und ist dadurch anfällig für Störgeräusche wie etwa Wind. Mit einer innovativen Hörhilfe will das Mannheimer Start-up Vibrosonic diesen Nachteilen entgegenwirken. Dr. Dominik Kaltenbacher und Dr. Jonathan Schächtele, ehemals Wissenschaftler der Fraunhofer-Projektgruppe PAMB, und Dr. Ernst Dalhoff von der Uni-HNO-Klinik Tübingen haben das Unternehmen im Jahr 2016 ausgegründet. Heute, fünf Jahre später, zählt Vibrosonic 27 Mitarbeitende.

Auf der Hörkontaktlinse® basierende Hörlösungen von Vibrosonic verstärken Klänge im Frequenzbereich von 80 Hz bis 12 kHz
Die erste, CE-zertifizierte Hörlösung Vibrosonic alpha besteht aus drei Komponenten: der Hörkontaktlinse®, einem Gehörgangsmodul und einem Hinter-dem-Ohr-Modul. Hörkontaktlinse® und Gehörgangsmodul verbleiben fest im Gehörgang, das Hinter-dem-Ohr-Modul kann flexibel abgenommen werden. Mit der Hörkontaktlinse® sitzt der Lautsprecher nicht im Gehörgang, sondern auf dem Trommelfell. Schwingungen überträgt sie ohne Luftschall direkt auf die Gehörknöchelchen. Die Klangübertragung erfolgt durch direkte mechanische Stimulation des Gehörs. Dadurch kann das natürliche Hören weitgehend nachempfunden werden.

Die Hörkontaktlinse®, Lautsprecher und eine der drei Komponenten der Vibrosonic alpha, ist in der Lage, Klänge im gesamten hörbaren Frequenzbereich von unter 80 Hz bis deutlich über 12 kHz zu verstärken. Klassische Systeme hingegen können dies nicht.

Aufgrund der Unterschiede in der Trommelfellform wird die Hörkontaktlinse® für jeden Patienten individuell hergestellt. Dazu wird der Vibrosonic-Aktor, ein piezoelektrischer Mikrolautsprecher, in eine Silikonform eingegossen. »Da unsere Hörkontaktlinse® direkt auf dem Trommelfell getragen wird – wie eine Kontaktlinse auf dem Auge – können sehr tiefe und besonders hohe Töne sehr gut verstärkt und störende Geräusche durch Rückkopplungen prinzipbedingt weitgehend vermieden werden. Die tiefen Töne sind beispielsweise beim Genuss von Musik entscheidend, weil der Klang dadurch satter wird. Hohe Töne gut hören zu können, ist für das Sprachverstehen wichtig, denn die codierten Obertöne machen den Charakter einer Stimme aus«, erläutert Vibrosonic CEO Dr. Dominik Kaltenbacher.

Strukturen des Aktors tausendmal kleiner als ein menschliches Haar
Bei hochgradiger Schwerhörigkeit oder extremer Miniaturisierung stoßen herkömmliche Hörgeräte aufgrund von Rückkopplungs- und Verzerrungseffekten an ihre Grenzen – verursacht durch Leistungsgrenzen der seit jeher verwendeten Spulen-Lautsprecher. »In der Hörkontaktlinse® verwenden wir den weltweit ersten Hörgerätelautsprecher, der konsequent mit den Methoden der Mikrosystemtechnik entwickelt und realisiert wurde, den sogenannten Vibrosonic-Aktor. Einzelne Strukturen des Vibrosonic-Aktors sind tausendmal kleiner als die Dicke eines menschlichen Haars. Trotz kleinster Abmessungen verfügt er über überragende audiologische Eigenschaften«, sagt Kaltenbacher.

Hörsystem für Patienten mit leichtem bis moderat schwerem Hörverlust
Erste Studien mit wenigen Probanden haben gezeigt, dass Vibrosonic alpha das Klangerlebnis von Menschen mit leichter bis mittelgradiger Hörschädigung verbessern kann. Das System eignet sich für Patienten ab 18 Jahren und kann sowohl auf einem als auch auf beiden Ohren getragen werden, je nach individuellem Hörverlust. Geplant ist aber, alle derzeitigen Hörsystemkomponenten derart zu miniaturisieren, dass sie im Gehörgang verschwinden und unsichtbar sind.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/juli-2021/kontaktli…

(nach oben)


19,6 Millionen Beschäftigte arbeiten in einer anderen Gemeinde

Christian Schlag Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
Knapp 60 Prozent der sozialversicherungspflichtig Beschäftigten arbeiteten im Jahr 2020 nicht an ihrem Wohnort. Das entspricht 19,6 Millionen Menschen. Gegenüber dem Vorjahr blieb sowohl die Zahl als auch der Anteil der Beschäftigten stabil, die auf dem Weg zur Arbeit die Gemeindegrenzen überschreiten. Das ergab eine Auswertung des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR), die sich auf Pendlerstatistiken der Bundesagentur für Arbeit stützt.

Knapp 60 Prozent der sozialversicherungspflichtig Beschäftigten arbeiteten im Jahr 2020 nicht an ihrem Wohnort. Das entspricht 19,6 Millionen Menschen. Gegenüber dem Vorjahr blieb sowohl die Zahl als auch der Anteil der Beschäftigten stabil, die auf dem Weg zur Arbeit die Gemeindegrenzen überschreiten. Das ergab eine Auswertung des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR), die sich auf Pendlerstatistiken der Bundesagentur für Arbeit stützt.

Die Pendlerstatistik sagt nichts darüber aus, wie viele Beschäftigte sich im vergangenen Jahr im Homeoffice befanden und entsprechend nicht täglich pendelten. Sie zeigt jedoch, wie sich die Arbeitsmarktzentren regional verteilen und wie weit diese aufs Umland ausstrahlen.

Im Vergleich der Großstädte übt München die größte Anziehungskraft für Arbeitskräfte aus dem Umland aus. So wohnten im Jahr 2020 410.000 der in München arbeitenden Beschäftigten außerhalb der Stadtgrenzen. Es folgen Frankfurt am Main (384.000), Hamburg (355.000) und Berlin (332.000).

Die höchsten Anteile an Beschäftigten mit einem Wohnort außerhalb der Stadtgrenzen wiesen im Jahr 2020 die Großstädte Darmstadt (69 Prozent), Ludwigshafen am Rhein, Erlangen und Offenbach am Main (jeweils 68 Prozent) auf.

„Die Pandemie hat die Arbeitswelt grundlegend verändert“, so der Leiter des BBSR, Dr. Markus Eltges. „Formen der mobilen Arbeit bieten die große Chance, den Pendlerverkehr in den Großstädten und ihrem Umland zu reduzieren – und damit auch die umwelt- und gesundheitlichen Belastungen zu verringern, die durch das Pendeln entstehen. Kleine und mittelgroße Kommunen können als Wohnorte abseits der Großstädte attraktiver werden, wenn Beschäftigte nur wenige Tage im Monat im Büro sind und größtenteils von zu Hause aus arbeiten“, sagt Eltges. „Die Arbeitgeber müssen diese neue Arbeitswelt auch wollen und sehen, was sie für Vorteile hat. Bei einer Win-win-Situation wird es kein Zurück in die alte Arbeitswelt geben.“

Interessierte können die Ergebnisse für die Großstädte auf der Website des BBSR unter http://www.bbsr.bund.de abrufen.

Datengrundlage der Auswertung sind die Pendlerstatistiken der Bundesagentur für Arbeit mit Stand 30.06.2020.

Kontakt

Kontakt
Christian Schlag
Stab Direktor und Professor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
im Bundesamt für Bauwesen und Raumordnung (BBR)
Deichmanns Aue 31–37
53179 Bonn
Telefon: +49 228 99401-1484
christian.schlag@bbr.bund.de

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) berät als Ressortforschungseinrichtung die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

Wissenschaftliche Ansprechpartner:
Thomas Pütz
Referat „Digitale Stadt, Umwelt und Verkehr“
Telefon: +49 228 99401-2300
thomas.puetz@bbr.bund.de

(nach oben)


Gemeinsam für Umwelt und Gesellschaft: Umfangreiche Analyse zum Klimawandel vorgestellt

Martin Labadz Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Der Klimawandel schreitet weiter voran. Doch wie wirkt er sich künftig auf die Natur, unsere Gesundheit, unser Wirtschaften und unseren Alltag aus? Mögliche Veränderungen und Anpassungsoptionen hat die BfG zusammen mit zahlreichen anderen Bundesbehörden in einer umfassenden Analyse erarbeitet. Entstanden ist die Klimawirkungs- und Risikoanalyse des Bundes.

Die Klimawirkungs- und Risikoanalyse (KWRA) ist eine der umfangreichsten Analysen von Risiken und Wirkungen des Klimawandels in Deutschland. Sie wird im Auftrag der Bundesregierung im Rahmen der Deutschen Anpassungsstrategie an den Klimawandel (DAS) alle sechs Jahre durch das Behördennetzwerk „Klimawandel und Anpassung“ erstellt. An der aktuellen Version, die heute im Rahmen einer vom Bundesumweltministerium veranstalteten Abschlusskonferenz vorgestellt wurde, haben Expertinnen und Experten aus 25 Bundesbehörden und -institutionen aus neun Ressorts mitgearbeitet – federführend organisiert vom Umweltbundesamt. Die KWRA umfasst somit die gesammelten Erkenntnisse und Ergebnisse der behördlichen Forschungsarbeit zum Thema Klimawandel, und das interdisziplinär und ressortübergreifend.

Für den Bereich Wasser hat die BfG ihre Expertise in den Sachstandsbericht einfließen lassen. Denn: Wasser ist und bleibt einer der wichtigsten Faktoren für Mensch, Umwelt und Wirtschaft: Ansteigende Meeresspiegel, zunehmende Hochwasserereignisse, aber auch Niedrigwasser, verbunden mit steigenden Wassertemperaturen und abnehmender Wasserqualität, könnten zukünftig viele gesellschaftlich relevante Bereiche vor Herausforderungen stellen.

Dr. Birgit Esser, Leiterin der BfG, betonte auf der Abschlusskonferenz: „Es ist essentiell, dass wir den Blick in die wasserwirtschaftliche Zukunft immer auf den neuesten wissenschaftlichen Stand bringen. Die komplexe Herausforderung Klimawandel kann aber nur interdisziplinär sowie behörden- und ressortübergreifend angegangen werden. Alle Perspektiven sind gleichermaßen gefordert, vom Umweltschutz bis hin zur Ingenieurtechnik. Deshalb arbeiten wir im Behördennetzwerk der DAS, aber auch in den Forschungsprogrammen Blaues Band Deutschland, im Nationalen Hochwasserschutzprogramm und BMVI-Expertennetzwerk intensiv mit.“

Bei diesen und weiteren ressortübergreifenden Programmen liefert die BfG wesentliche Grundlagen für die Klimawirkungsanalysen und die Klimaanpassung. Und stellt damit für das Thema Wasser insgesamt und insbesondere für die Bundeswasserstraßen Daten für eine Vielzahl von Themen und Nutzern bereit, und das auf stets aktuellem Wissensstand.

Wissenschaftliche Ansprechpartner:
Dr. Enno Nilson (0261-1306 5325, nilson@bafg.de)

Anhang
Pressemitteilung: Gemeinsam für Umwelt und Gesellschaft: Umfangreiche Analyse zum Klimawandel vorgestellt

(nach oben)


Kleingewässer in Agrarlandschaften stark mit Pestiziden belastet

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Pestizide sichern die Erträge in der Landwirtschaft, indem sie schädliche Insekten, Pilze und Unkräuter bekämpfen. Sie gelangen aber auch in Bäche und schädigen die aquatischen Lebensgemeinschaften, die für den Erhalt der Artenvielfalt entscheidend sind, Teil des Nahrungsnetzes sind und die Selbstreinigung des Wassers unterstützen. In einem bundesweiten Monitoringprogramm haben Wissenschaftler:innen unter UFZ-Leitung gezeigt, dass die Grenzwerte für Pestizide zu hoch angesetzt sind und selbst diese in über 80 Prozent der Gewässer überschritten werden. Wie sie schreiben, kann der Verlust der Artenvielfalt nur gestoppt werden, wenn die Umweltrisikobewertung der Pestizide reformiert wird.

Zwei Jahre lang haben die Forscherinnen und Forscher die Pestizidbelastung an mehr als 100 Messstellen an Bächen untersucht, die durch überwiegend landwirtschaftlich genutzte Tieflandregionen in zwölf Bundesländern fließen. Sie stellten dort erhebliche Überschreitungen des RAK-Werts fest – das ist die im behördlichen Zulassungsverfahren eines Pflanzenschutzmittels festgelegte Konzentration eines Wirkstoffs, die im Gewässer nicht überschritten werden darf, um negative Auswirkungen auf Gewässerorganismen zu verhindern. So wurden die RAK-Werte in der überwiegenden Mehrzahl der Gewässer überschritten (81 Prozent). In 18 Prozent der Bäche wurden sogar für mehr als zehn Pestizide derartige Überschreitungen nachgewiesen. „Wir haben bundesweit eine deutlich höhere Pestizidbelastung in den Kleingewässern nachgewiesen als wir das ursprünglich erwartet haben“, sagt Prof. Matthias Liess, Ökotoxikologe am UFZ und Koordinator des Projekts Kleingewässermonitoring. Zum Beispiel überschritt Thiacloprid, ein Insektizid aus der Klasse der Neonicotinoide, den RAK-Wert in drei Gewässern um mehr als das 100fache. Andere Insektizide wie Clothianidin, Methiocarb und Fipronil, aber auch Herbizide wie Terbuthylazin, Nicosulfuron und Lenacil toppten den RAK-Wert um den Faktor 10 bis 100 in 27 Gewässern.

Aufgrund des umfangreichen Datensatzes konnten die Forscher:innen nachweisen, dass Pestizide auf Lebensgemeinschaften aquatischer Wirbelloser bereits in viel niedrigeren Konzentrationen wirken als bisher in der Pestizid-Zulassung angenommen. Ab welcher Konzentration das der Fall ist, hängt davon ab, welche Arten überleben sollen. Sollen in Kleingewässern beispielsweise empfindliche Insektenarten wie Köcherfliegen und Libellen geschützt werden, sind sehr viel niedrigere Grenzwerte – um den Faktor 1.000 – notwendig als wenn eher unempfindliche Schnecken und Würmer erhalten werden sollen. „Für empfindliche Insektenarten ist die Pestizidkonzentration in den kleinen Tieflandgewässern der wesentliche Faktor, der ihr Überleben bestimmt. Andere Umweltprobleme wie Gewässerausbau, Sauerstoffmangel oder zu hoher Nährstoffgehalt spielen dagegen eine geringere Rolle“, sagt Matthias Liess. Damit habe diese Studie erstmals ein Ranking der Umweltprobleme ermöglicht.

In der derzeitigen Zulassungspraxis von Pflanzenschutzmitteln wird die hohe Empfindlichkeit der Arten im Ökosystem unterschätzt. Denn bislang wird das ökologische Risiko von Pestiziden im Freiland auf Basis von Laborstudien, künstlichen Ökosystemen und Simulationsmodellen vorhergesagt. Die Ergebnisse aus dem Labor spiegelten aber laut Matthias Liess nicht die Realität wider: „Im Ökosystem wirken neben Pestiziden noch zahlreiche weitere Stressoren auf die Organismen, sodass diese auf Pestizide deutlich empfindlicher reagieren. Natürliche Stressoren wie der Räuberdruck oder die Konkurrenz der Arten werden im Zulassungsverfahren nicht ausreichend berücksichtigt. Diese offensichtlichen Probleme fallen aber nicht auf, da sowohl die Menge des Pestizideintrags als auch ihre Wirkung weder in Deutschland noch in anderen Staaten in der Umwelt validiert werden“, sagt er.

Im Verlauf des Kleingewässermonitorings stellten die Wissenschaftler:innen weiter fest, dass die Art der Probenahme entscheidenden Einfluss auf die gemessenen Konzentrationen der Pestizide hat. Sie hatten nämlich nicht nur die von der EU-Wasserrahmenrichtlinie als Standard vorgegebene Schöpfprobe genommen, sondern auch eine sogenannte Ereignisprobe. Dabei nimmt ein automatisch gesteuerter Probenehmer nach einem Niederschlagsereignis Wasserproben aus dem Gewässer. „Die Ereignisprobe liefert wesentlich realistischere Ergebnisse, da die Pestizide insbesondere bei Niederschlägen durch den aufkommenden Oberflächenabfluss vom Acker in die Gewässer eingetragen werden“, sagt Matthias Liess. Die ereignisbezogenen Proben weisen gegenüber den Schöpfproben eine 10-fach höhere Belastung auf. „Um die Gewässerbelastung realistisch abzubilden, müssen Proben nach Regenfällen genommen werden. Deshalb brauchen wir ein regelmäßiges behördliches Umweltmonitoring, um die Menge und die Auswirkungen der Pestizide bewerten zu können“, sagt Matthias Liess. Auch müssten neue wissenschaftliche Erkenntnisse schneller als bislang in den Zulassungsprozess neuer Pflanzenschutzmittel einfließen, fordern er und seine Kolleg:innen. „Dass heute noch Pestizide eingesetzt werden, deren Zulassung viele Jahre zurückliegt und damit oft auf einer überholten Risikobewertung beruht, muss sich schnellstens ändern. Nur so können wir die Artenvielfalt in unseren Gewässern erhalten und mit ihnen die Leistungen, die diese Lebensgemeinschaften für unsere Ökosysteme erbringen.“

Die vom Umweltbundesamt (UBA) beauftragte Pilotstudie „Kleingewässermonitoring“ (KgM) wurde federführend vom UFZ-Department System-Ökotoxikologie durchgeführt und vom UFZ und dem UBA finanziert. Beteiligt haben sich daran elf UFZ-Departments, die Universität Koblenz-Landau, die Universität Duisburg-Essen, die Christian-Albrechts-Universität zu Kiel das UBA sowie die 12 Umweltbehörden der beteiligten Bundesländer.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Liess
UFZ-Department System-Ökotoxikologie
matthias.liess@ufz.de

Originalpublikation:
Matthias Liess, Liana Liebmann, Philipp Vormeier, Oliver Weisner, Rolf Altenburger, Dietrich Borchardt, Werner Brack, Antonis Chatzinotas, Beate Escher, Kaarina Foit, Roman Gunold, Sebastian Henz, Kristina L. Hitzfeld, Mechthild Schmitt-Jansen, Norbert Kamjunke, Oliver Kaske, Saskia Knillmann, Martin Krauss, Eberhard Kuster, Moritz Link, Maren Luck, Monika Moder, Alexandra Muller, Albrecht Paschke, Ralf B. Schafer, Anke Schneeweiss, Verena C. Schreiner, Tobias Schulze, Gerrit Schuurmann, Wolf von Tumpling, Markus Weitere, Jorn Wogram, Thorsten Reemtsma: Pesticides are the dominant stressors for vulnerable insects in lowland streams. Water Research (2021): https://doi.org/10.1016/j.watres.2021.117262

Weitere Informationen:
http://www.ufz.de/kgm

(nach oben)


Fußball-Bundesliga: Stadionbesuche ohne konsequente Maskenpflicht führten zu mehr Infektionen

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Zu Beginn der vergangenen Saison waren bei vielen Spielen der ersten, zweiten und dritten Fußballbundesliga Zuschauer im Stadion erlaubt. Eine neue Studie des RWI – Leibniz-Institut für Wirtschaftsforschung und der SDU University of Southern Denmark in Sonderborg untersucht die Auswirkungen dieser Events auf das Corona-Infektionsgeschehen. Das Ergebnis: Spiele der ersten Bundesliga, die mit höheren Zuschauerzahlen verbunden waren, haben zu einem statistisch signifikanten Anstieg der Neuinfektionen geführt. Der Effekt ist dabei auf jene Spiele zurückzuführen, bei denen Masken lediglich auf den Wegen zum Sitzplatz getragen werden mussten.

Das Wichtigste in Kürze:
– An den ersten beiden Spieltagen der ersten bis dritten Fußballbundesliga der Saison 2020/21 konnten je nach Spiel bis zu 10.000 Zuschauer – bei unterschiedlichen lokalen Hygienekonzepten – ins Stadion gehen.
– Die Studie stellt bei einer Gesamtbetrachtung aller Ligen keine signifikanten Auswirkungen der Spiele auf das Infektionsgeschehen fest. Dies ändert sich allerdings, wenn nur die Spiele der ersten Bundesliga – und mit höheren Zuschauerzahlen – betrachtet werden: Diese Spiele haben zu einer statistisch signifikant höheren Infektionsdynamik geführt.
– Im Durchschnitt führten Erstligaspiele an den ersten beiden Spieltagen zu 0,6 Infektionen mehr pro 100.000 Einwohner pro Tag. Dies entspricht im betrachteten Zeitraum einem lokalen Anstieg der Infektionsraten um etwa sieben bis acht Prozent.
– Hierbei stellt die Studie deutliche Unterschiede mit Blick auf die Maskenpflicht fest. Demnach ist der Effekt auf die Spiele zurückzuführen, bei denen Masken lediglich auf den Wegen zum Platz getragen werden mussten. Spiele mit strenger Maskenpflicht – d.h. permanente Tragepflicht auch am zugewiesenen Platz – haben dagegen nicht zu höheren Infektionszahlen geführt.
– Die Studie vergleicht die lokale COVID-19-Infektionsentwicklung in den Landkreisen, in denen ein Profifußballspiel mit mindestens 1.000 Zuschauern stattfand, mit der Entwicklung in Landkreisen, in denen keine Profimannschaften beheimatet sind. Die Untersuchung ist somit unabhängig von dem in der Praxis schwierigen Nachweis der tatsächlichen Infektionsorte. Bisherige lokale Analysen, die keine Infektionen im Stadion aufgezeigt haben, bezogen sich nur auf die Infektionen, bei denen Gesundheitsämter den tatsächlichen Infektionsort nachweisen konnten.

„Die Studie deutet darauf hin, dass Sportveranstaltungen mit vielen Zuschauern ein erhöhtes Infektionsrisiko darstellen, wenn im Stadion keine konsequente Maskenpflicht gilt“, sagt Studienautor Philipp Breidenbach, stellvertretender Leiter des Forschungsdatenzentrums Ruhr am RWI. „Gute Hygienekonzepte im Stadion scheinen das Risiko wirksam zu reduzieren, zumindest bei Spielen mit begrenzter Zuschauerzahl.“

Wissenschaftliche Ansprechpartner:
Dr. Philipp Breidenbach, philipp.breidenbach@rwi-essen.de , Tel.: (0201) 8149-328,

Originalpublikation:
Dieser Pressemitteilung liegt die Studie „Large-scale sport events and COVID-19 infection effects: Evidence from the German professional soccer ‚experiment’“ von Philipp Breidenbach und Timo Mitze zugrunde, die in der Fachzeitschrift „The Econometrics Journal“ erscheinen wird.

(nach oben)


60 Prozent der Flüsse weltweit fallen zeitweise trocken – Tendenz steigend

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Ein internationales Forscher*innen-Team, unter ihnen Senckenberg-Generaldirektor Klement Tockner, hat erstmalig alle Flüsse weltweit erfasst und quantifiziert, die zeitweise austrocknen. Sie zeigen, dass 60 Prozent der globalen Fließgewässer an mindestens einem Tag im Jahr trockenfallen – über alle Kontinente und klimatischen Zonen hinweg. In der unter Leitung von Mathis Messager von der McGill Universität im kanadischen Montreal entstandenen und heute im renommierten Fachjournal „Nature“ veröffentlichten Studie zeigen die Forschenden, dass über die Hälfte der Weltbevölkerung in der Nähe dieser zeitweise trockenfallenden Flüsse lebt – Tendenz steigend.

Seit Jahrtausenden siedeln Menschen bevorzugt in der Nähe von Gewässern. Flüsse sind Teil des globalen Wasserkreislaufs, bedeutender Lebensraum für zahlreiche Arten, Wirtschaftsfaktor, Transportweg, Energielieferant und Erholungsort. Doch gerade die Bäche und Flüsse leiden immens unter dem globalen Klimawandel, der intensiven Landnutzung und dem Ressourcenverbrauch. „Aktuell konzentriert sich die Forschung und die daraus folgenden Schutzmaßnahmen überwiegend auf Gewässer, die permanent Wasser führen“, erklärt Prof. Dr. Klement Tockner, Gewässerökologe und Generaldirektor der Senckenberg Gesellschaft für Naturforschung sowie Professor an der Goethe-Universität Frankfurt, und fährt fort: „Doch sogar große, charismatische Flüsse, wie beispielsweise der Nil, der Gelbe Fluss in China oder der nordamerikanische Rio Grande, fallen bereits vollständig trocken. Dies kann zu einem erschwerten Wasserzugang für Millionen von Menschen führen und hat tiefgreifende Auswirkungen auf das Ökosystem Fluss.“

Unter der Leitung des Doktoranden Mathis Messager, McGill Universität in Montreal, zeigt Tockner gemeinsam mit internationalen Kolleg*innen in der heute veröffentlichten Nature-Studie, dass weltweit in 51 bis 60 Prozent der Flüsse an mindestens einem Tag im Jahr kein Wasser fließt. In besonders trockenen Gebieten der Erde, wie in Indien, Westaustralien oder der afrikanischen Sahelzone, sind es laut der Modellierungen sogar 99 Prozent der Fließgewässer. „Aber auch in den kühlgemäßigten und feuchten Klimazonen trocknen fast 30 Prozent der Fließgewässer immer wieder aus. Unter Berücksichtigung kleiner Bäche sind es dort sogar mehr als die Hälfte der Wasserläufe. Mit anderen Worten: Flüsse, die – zumindest temporär – trockenfallen sind eher die Regel als die Ausnahme auf der Erde“, fügt der Gewässerökologe hinzu. Regionale Beispiele hierfür sind der Urselbach, ein etwa 16 Kilometer langes Gewässer, das im Vordertaunus entspringt und durch Frankfurt führt, sowie die Weil, ein Zufluss der Lahn, welche im vergangenen Sommer trockenfielen. Tockner ergänzt: „Natürlich trockenfallende Gewässer sind wertvolle und einzigartige Lebensräume, aber trocknet ein permanent wasserführender Bach oder Fluss aus, dann hat das massive Auswirkungen auf die Natur und schlussendlich den Menschen.“

Anhand von hydrologischen, klimatischen, bodenkundlichen und geologischen Daten von 5615 Messstationen konnten die Forscher*innen zeigen, dass trockenfallende Flüsse auf allen Kontinenten und in allen Klimazonen zu finden sind. „Das hat weitreichende Konsequenzen für die Erforschung und den Schutz von Fließgewässern“, erklärt Tockner und fährt fort: „Um die zukünftigen Auswirkungen des Klima- und Landschaftswandels auf diese Ökosysteme und ihre Arten verstehen zu können, müssen wir das Trockenfallen der Flüsse als einen zentralen Parameter berücksichtigen.“ Zukünftig werden laut den Forschenden nicht nur die Hochwässer zunehmen, sondern insbesondere auch die Austrocknung der Gewässer.

Laut der Studie ist der nächstgelegene Bach oder Fluss für 52 Prozent der Weltbevölkerung nicht durchgängig wasserführend. Der Gewässerökologe ist sich sicher, dass die neuen Ergebnisse helfen werden, die Flüsse nachhaltiger zu bewirtschaften und damit auch die Menschen, die für ihren Lebensunterhalt und ihre Kultur direkt auf diese Ökosysteme angewiesen sind, zu schützen. „Wir können nun zeigen wo und dass Fließgewässer nicht immer fließen, in einem nächsten Schritt möchten wir untersuchen, wann und wie lange diese Trockenzeiten heute und in Zukunft auftreten und was bedeutet es für Natur und Mensch“, gibt Tockner einen Ausblick.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Klement Tockner
Generaldirektor der Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1214
klement.tockner@senckenberg.de

Originalpublikation:
Messager, M.L., Lehner, B., Cockburn, C. et al. Global prevalence of non-perennial rivers and streams. Nature 594, 391–397 (2021). https://doi.org/10.1038/s41586-021-03565-5

(nach oben)


Schlaf trägt möglicherweise zur besseren Wirksamkeit einer Impfung und zu einer verbesserten Immunabwehr bei

Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)
Ein ausreichender und erholsamer Schlaf hat einen positiven Effekt auf das Immunsystem, kann vielleicht sogar Infekten vorbeugen und kann dienlich für die Genesung sein. Zunehmend klar wird, dass Schlaf auch eine wichtige Rolle in der Immunantwort nach einer Impfung hat. Schlafhygienische Maßnahmen sind deshalb nicht nur ein wichtiges Instrument für eine möglicherweise bessere Wirksamkeit einer Impfung, sondern tragen auch allgemein zu einer verbesserten Immunabwehr bei.

In dem Sprichwort „Schlaf ist die beste Medizin“ steckt viel mehr Wahrheit als man zunächst vermuten würde. Dass Schlaf in engem Zusammenhang mit einem funktionierenden Immunsystem steht, ist unumstritten, auch wenn die Zusammenhänge dieser beiden sehr komplexen Systeme sicherlich bisher nur in Ansätzen verstanden werden. Dabei sind die Verbindungen zwischen Schlaf und Immunsystem bidirektional, das heißt, dass auf der einen Seite eine Aktivierung des Immunsystems, z.B. im Rahmen eines Infektes, den Schlaf beeinflussen kann, aber auch andersherum der Schlaf wesentlich für eine funktionierende Immunabwehr ist. Die Aktivierung des Immunsystems während eines Infektes oder auch bei chronisch entzündlichen Erkrankungen kann sowohl zu einem erhöhten Schlafbedürfnis mit einer erhöhten Schlafdauer und -intensität, aber auch zu einer Schlafstörung mit vermindertem oder fragmentiertem Schlaf führen.

Ein ausreichender und erholsamer Schlaf hat einen positiven Effekt auf das Immunsystem, kann vielleicht sogar Infekten vorbeugen und kann dienlich für die Genesung sein. Man nimmt an, dass der Schlaf wesentlich dafür verantwortlich ist, ein Gleichgewicht von während des Wachens anfallenden Entzündungsmediatoren wiederherzustellen und bestimmte Funktionen des Immunsystems in Gang zu setzen, die für die Abwehr eines Infektes notwendig sind. Schlaf ist somit für das Immunsystem keineswegs ein passiver Zustand, sondern das Gehirn und Körper sind hoch aktiv während dieses besonderen Zustands. Es ist bereits gut bekannt, dass Schlafmangel einen negativen Einfluss auf das Immunsystem hat und das Risiko von Infektionen erhöht. In ersten Untersuchungen zu COVID-19 hatten Betroffene mit einem schweren COVID-19-Verlauf häufiger bereits schwerwiegendere Schlafstörungen auch schon vor der Erkrankung.

Bei einer Impfung soll bewusst eine Immunreaktion ausgelöst werden. Bisher gibt es nur wenige Studien, die den Zusammenhang von Schlaf, Immunreaktion und die Wirkung von Impfungen im Zusammenhang von Schlaf untersucht haben. Diese Studien zeigen bisher keine eindeutigen Befunde und sind möglicherweise auch in Abhängigkeit der spezifischen Impfung unterschiedlich. Der Schlaf kann in der ersten Nacht nach einer Impfung beeinträchtigt sein. Bei Untersuchungen von gesunden Probanden, die eine Hepatitis A bzw. eine Impfung gegen das Influenza A-Virus bekommen hatten, konnte gezeigt werden, dass diese Schlafstörungen jedoch nur sehr mild ausgeprägt waren. Anderseits konnte aber nachgewiesen werden, dass die Intensität von Tiefschlaf nach einer Impfung Einfluss auf die Zahl der gebildeten Antikörper hatte. Die Mechanismen, die hierbei eine Rolle spielen, sind sehr komplex und das Wissen der Zusammenhänge wächst. „Zunehmend klar wird, dass Schlaf auch eine wichtige Rolle in der Immunantwort nach einer Impfung hat. Ob diese Daten auf eine Corona-Impfung übertragbar sind, ist bisher zwar nicht bestätigt, aber sehr gut möglich. Sicher ist, dass man vor und nach einer Impfung aktiv auf einen ausreichenden und erholsamen Nachtschlaf achten sollte. Schlafhygienische Maßnahmen sind deshalb nicht nur ein wichtiges Instrument für eine möglicherweise bessere Wirksamkeit einer Impfung, sondern tragen auch allgemein zu einer verbesserten Immunabwehr bei“, betont Dr. med. Anna Heidbreder, Mitglied des DGSM-Vorstands und Oberärztin in der Universitätsklinik für Neurologie der Medizinischen Universität Innsbruck. Schlaf ist also nicht nur die „beste Medizin“, sondern hat sogar präventive Funktionen.

Dieses Thema wird zur Pressekonferenz des DGSM-Aktionstages Erholsamer Schlaf gemeinsam mit weiteren spannenden Aspekten unter dem Motto „Schlaf in Zeiten von Covid-19“ am 18. Juni 2021 von schlafmedizinischen Experten weiter erläutert. Die Pressekonferenz findet online in der Zeit von 10.00-11.00 Uhr statt. Dazu möchten wir interessierte Medienvertreter recht herzlich einladen! Bitte melden Sie sich beim Pressekontakt an und Sie erhalten die Zugangsdaten zur Pressekonferenz zugesandt.

Pressekontakt:
Conventus Congressmanagement & Marketing GmbH
Romy Held
Mobil: 0173/5733326
E-Mail: romy.held@conventus.de

Weitere Informationen:
http://www.dgsm.de
http://www.dgsm.de/gesellschaft/aktionstag/aktionstag-2021

(nach oben)


Positionspapier: Herausforderungen einer nationalen Wasserstrategie in Forschung und Umsetzung

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Wassersicherheit für Mensch und Natur ist ein Grundpfeiler nachhaltiger Politik. Die Water Science Alliance, in der sich die deutsche Wasserforschung disziplinenübergreifend zusammengeschlossen hat, begrüßt deshalb die jüngst vorgestellte Nationale Wasserstrategie des Bundesumweltministeriums, insbesondere ihre Prinzipien der Inte- gration, Vorsorge und Orientierung am natürlichen Wasserhaushalt. Die Umsetzung der Strategie erfordert innovative Konzepte basierend auf wissenschaftlichen Erkenntnissen. Schlüssel zum Erfolg ist dabei ein offener, systematischer Dialog unter Beteiligung aller relevanten Nutzergruppen, der öffentlichen Verwaltung, der Politik und der Wissenschaft.

Der Druck auf Wasserressourcen und Gewässer steigt kontinuierlich – in Deutschland ebenso wie weltweit. Wasser wird für Menschen und Ökosysteme knapp und gerät bei hohen Niederschlägen außer Kontrolle. Belastungen von Grund- und Oberflächenwasser durch Schad- und Fremdstoffe werden zunehmend komplex. Die Folgen sind eine immer aufwendiger werdende Wasseraufbereitung und -versorgung, vermehrte Schäden an lnfrastrukturen und degradierte Gewässer mit eingeschränkter ökologischer Funktionalität.

Die in einem langen Prozess mit Bürger- und Expertenbeteiligung erarbeitete und am 8. Juni 2021 vorgestellte Nationale Wasserstrategie greift diese Herausforderungen auf. Sie spiegelt die nicht nur in der Bundespolitik gereifte Erkenntnis, dass neben einer klugen Klima- und Biodiversitätspolitik eine gesamtheitliche Wasserstrategie als tragende Säule der nachhal- tigen Entwicklung im 21. Jahrhundert unverzichtbar ist.

Die Deutsche Wasserforschungsallianz (WSA) begrüßt die Eckpunkte der Nationalen Was- serstrategie und die damit verbundene Initiative der Bundespolitik, das Wasser- und Gewäs- sermanagement strategisch anzugehen. Die Empfehlung der WSA für Politik und Verwaltung lautet deshalb, die Nationale Wasserstrategie in der kommenden Legislaturperiode mit Mut und Weitsicht auszugestalten und umzusetzen. Integration, Orientierung am natürlichen Wasserhaushalt und Vorsorge als Kernpunkte der Strategie sind elementar für eine erfolg- reiche Wasserpolitik der Zukunft. Das Management von Wasserressourcen und Gewässern muss deshalb als Querschnittsaufgabe organisiert und dabei eine konsequent integrative Perspektive eingenommen werden. Dies erfordert neue konzeptionelle Ansätze und Koope- rationen – eingebettet in eine solide Wissens- und Datenbasis über natürliche und techni- sche Wassersysteme und deren Interdependenzen.

Die von der Politik formulierten Ziele sind in ihrer Gesamtheit begrüßenswert ambitioniert. Übergeordnetes Ziel ist, Wassersicherheit gleichermaßen für die menschliche Nutzung und die Gewässerökosysteme zu gewährleisten. Die Vision muss dabei ein Null-Defizit-Ziel sein:
D.h. Eingriffe in Wassersysteme sind nur dann vertretbar, wenn Ökosystemfunktionen erhal- ten oder verbessert werden. Dieses Prinzip macht radikal neue Ansätze und Prioritäten für das Wasser- und Gewässermanagement erforderlich, nicht nur aus technischer Sicht, son- dern auch um Zielkonflikte zu minimieren und zu lösen. Politik und öffentliche Verwaltung müssen sich auf diese Herausforderungen einstellen.

Leitidee ist eine Systemperspektive, die der multisektoriellen Funktion von Wasser gerecht wird:
• Das Management von Wasserressourcen und Gewässern muss Kriterien folgen, die sich gleichzeitig am Wohl des Menschen, am Erhalt der Biodiversität und an der Gewährleistung funktionierender Ökosysteme orientieren.
• Wassermengenwirtschaft, Wasser- und Gewässerqualität bedürfen einer konsequent integrativen Betrachtung.
• Werkzeuge für die Wasserplanung bedürfen einer kohärenten und integrativen Sicht auf Wassersysteme jenseits der heutigen Betrachtung einzelner Teile des Wasserkreislaufs, Infrastrukturen und Gewässer.
• Kurz- und langfristige Prognosen müssen angesichts des rasch fortschreitenden Klimawandels deutlich verbessert werden bei gleichzeitig hoher regionaler und jahreszeitlicher Differenzierung.

Aus diesen Anforderungen leitet sich die Notwendigkeit ab, neue Konzepte und quantitative Werkzeuge des Wassermanagements zu entwickeln. Sie sind verbunden mit hohen Ansprü- chen an die Qualität und Quantität der zu erhebenden Daten sowie an die verwendeten Modelle und ihre konzeptionelle und datentechnische Kompatibilität. Dabei müssen sowohl moderne Methoden der Datenwissenschaften als auch – wie in der Klimaforschung – leis- tungsfähige Modell-Ensembles für die Entwicklung von Vorhersagen und Szenarien mit quantitativen Angaben zur Modellunsicherheit entwickelt werden. Die Einsetzbarkeit dieser Werkzeuge muss ferner über weite Bereiche der räumlichen und zeitlichen Skalen gewähr- leistet sein.

Als ein zentrales Instrumentarium für die Erarbeitung unmittelbar praxistauglichen Wissens sieht die WSA darüber hinaus die Einrichtung von Reallaboren. Sie erlauben es, die Gesamt- heit der Einflussfaktoren und Wechselwirkungen in Gewässern und ihren Einzugsgebieten zu beurteilen. Das schließt menschliche Aktivitäten ein. Reallabore verknüpfen darüber hinaus Wissen über Wassersysteme aus allen relevanten Bereichen mit konkreten Planungsansät- zen. Reallabore sind datengestützt und lassen sich als ‚Digitale Zwillinge‘ realer Einzugsgebie- te mit allen wichtigen Teilkomponenten virtuell in Modellsystemen abbilden. Darauf aufbau- end können komplexe Szenarien, Entscheidungsräume und Dialogprozesse entwickelt und dargestellt werden.

Trotz großer Fortschritte weist modernes integriertes Wassermanagement noch viele kon- zeptionelle Wissens- und Datenlücken auf, die die erfolgreiche Umsetzung der Nationalen Wasserstrategie behindern. Diese Lücken können durch ein langfristig angelegtes Wasserfor- schungs- und Entwicklungsprogramm geschlossen werden, das die schrittweise Umsetzung der Strategie unterstützt. Ein solches Aktionsprogramm müsste aus der Systemperspektive heraus formuliert, disziplinenübergreifend organisiert und zwischen der durch die wissen- schaftlichen Fachverbände vertretenen Wasserforschungsgemeinschaft, der öffentlichen Verwaltung und der Politik abgestimmt sein.

Für dringend erforderlich erachtet die Deutsche Wasserforschungsallianz aus diesem Grund ein ‚Forschungsbegleitprogramm Nationale Wasserstrategie‘. Aktuelle nationale und regio- nale Forschungsprogramme liefern dazu wichtige Elemente. Sie greifen aber allein zu kurz. Grund ist, dass sie die in der Nationalen Wasserstrategie erkannte Bedeutung der quanti- tativen Abbildung der zentralen Prozesse aus einer Gesamtsystemperspektive heraus nicht angemessen widerspiegeln. Erfolgversprechende Ansätze ähnlich ambitionierter nationaler Initiativen zur Stärkung der Forschung jenseits von Fachgrenzen, Ressortzuständigkeiten und Bund-Ländergrenzen existieren bereits in anderen Bereichen hoher Dringlichkeit.

Die Wasserforschung in Deutschland ist mit ihrem Innovationspotenzial und gebündelten Wissen bestens gerüstet, Partner in Behörden und Politik zu unterstützen, um den großen Herausforderungen im Wassermanagement zu begegnen. Dies gilt für die universitäre, die außeruniversitäre und die Ressortforschung gleichermaßen. Gemeinsam müssen sie die bes- ten Köpfe mobilisieren, um den aktuellen Wissensstand und neueste konzeptionelle und methodische Entwicklungen in ein gesamtheitliches Systemverständnis einzubringen. Dafür stehen in Deutschland profunde Prozesskenntnisse und ein umfangreiches Methoden- spektrum zur Verfügung, das von der molekularen Analytik der Wasserinhaltsstoffe bis zur Echtzeitüberwachung hydrologischer, chemischer und ökologischer Systemgrößen im Ein- zugsgebietsmaßstab reicht.

Die Water Science Alliance (WSA) – die Deutsche Wasserforschungsallianz – wurde 2013 als gemeinnütziger Verein gegründet. Sie hat sich zum Ziel gesetzt, die in mehr als zehn Fachdisziplinen agierende und kleinteilig strukturierte Wasserforschung Deutschlands zu- sammenzuführen, disziplinenübergreifende Forschungsthemen zu identifizieren und zu fördern, sowie Potenziale der Integration zu erschließen. Anlässlich der diesjährigen Konfe- renz der Wasserforschungsallianz am 15. und 16. Juni 2021 wurden das Strategierahmen- papier der WSA ‚Wassersysteme im Wandel – Herausforderungen und Forschungsbedarfe für die Deutsche Wasserforschung‘ vorgestellt und verabschiedet.

Diese Pressemitteilung wird vom UFZ stellvertretend für alle anderen beteiligten Institutionen verschickt.

Wissenschaftliche Ansprechpartner:
Prof. Mark Gessner
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
gessner@igb-berlin.de

Prof. Peter Krebs
Technische Universität Dresden
peter.krebs@tu-dresden.de

Prof. Florian Leese
Universität Duisburg-Essen
florian.leese@uni-due.de

Prof. Stefan Peiffer
Universität Bayreuth
s.peiffer@uni-bayreuth.de

Prof. Georg Teutsch
Helmholtz-Zentrum für Umweltforschung (UFZ)
gf@ufz.de

Originalpublikation:
Strategie-Rahmenpapier der Water Science Alliance, veröffentlicht am 14. Juni 2021: https://zenodo.org/record/4923068

Weitere Informationen:
https://www.watersciencealliance.org/

(nach oben)


Weniger sozialer Zeitdruck fördert den Schlaf und das Wohlbefinden

Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)
Die pandemiebedingten sozialen Einschränkungen, die wir in den letzten 14 Monaten erleben mussten, sind ein weltweites soziales „Experiment“. Wie sich die Zeit des Lockdowns insbesondere auf den Schlaf und die damit verbundenen täglichen Abläufe auswirkte, untersuchte eine Arbeitsgruppe der LMU München. Es konnte festgestellt werden, dass die sozialen Einschränkungen tiefgreifende Auswirkungen auf das zirkadiane Timing und den Schlaf hatten.

Die Arbeitsgruppe um Prof. Dr. Till Roenneberg vom Institut für Medizinische Psychologie führte zwischen dem 4. April und dem 6. Mai 2020 eine globale Chrono-Corona-Umfrage durch, bei der 11.431 Erwachsene aus 40 Ländern nach ihrem Schlaf-Wach-Verhalten und verschiedenen Aspekten des Wohlbefindens befragt wurden. Alle Fragen wurden vor und während des Lockdown separat gestellt. Die endgültige Stichprobe bestand aus 7.517 Befragten (68,2% Frauen), die im Durchschnitt knapp 33 Tage im Lockdown waren. „Die Schlafmitte an Arbeitstagen verzögerte sich durchschnittlich um 50 Minuten und an freien Tagen um 22 Minuten. Die Schlafdauer am Arbeitstag wurde um 26 Minuten erhöht und an freien Tagen um 9 Minuten verkürzt“, berichtet Till Roenneberg.

Die Regulierung des menschlichen Schlafes ist mit drei Uhren verbunden, der zirkadianen Uhr, der Sonnenuhr und der sozialen Uhr (Schule/Arbeit und Mahlzeiten). Zirkadiane Uhren werden überwiegend von der Sonnenuhr gesteuert und die Diskrepanz zwischen der zirkadianen und der sozialen Uhr wird als sozialer Jetlag bezeichnet. Dieser nahm laut der Studie während des Lockdown um rund 30 min ab. Bei den meisten Menschen näherten sich die Schlaf-Wach-Zeiten während der sozialen Einschränkungen denen vorm Lockdown an. Änderungen der Schlafdauer und des sozialen Jetlags wurden beeinflusst von der Verwendung von Weckern im Lockdown und waren bei jungen Erwachsenen größer. Der Aufenthalt im Freien und die damit verbundene Lichtexposition reduzierte sich infolge der sozialen Einschränkungen bei den Studienteilnehmern um 50% (2,35 h auf 1,13 h), was sich auf das Schlaf-Wach-Verhalten und verschiedene Aspekte des Wohlbefindens auswirkte. „Das schließt selbstbewertete Schlafqualität, Lebensqualität, körperliche Aktivität, Produktivität und Bildschirmzeit ein, wobei längere Bildschirmzeit eindeutig als schlechter angesehen wurde“, erklärt Roenneberg. Obwohl sich all diese Aspekte im Durchschnitt verschlechterten, berichteten viele Teilnehmer über keine Änderungen oder sogar Verbesserungen. Waren die Befragten weniger im Freien, wurde das mit negativerem Wohlbefinden (mit Ausnahme der Produktivität) verbunden und beeinflusste auch Verzögerungen der Schlafmitte, jedoch nicht der Schlafdauer.

„Unsere Ergebnisse deuten auf ein massives Schlafdefizit unter sozialem Zeitdruck vor der Pandemie hin, geben Aufschluss über den tatsächlichen Schlafbedarf verschiedener Altersgruppen und legen nahe, dass ein sozialer Jetlag bis 20 min toleriert wird. Ein entspannterer sozialer Zeitdruck fördert somit mehr Schlaf, weniger sozialen Jetlag und eine geringere Nutzung des Weckers. Lockdown-bedingte Veränderungen des Wohlbefindens werden durch Sonnenlichtexposition im Freien beeinflusst, so dass mehr Zeit bei Tageslicht zu einer höheren psychischen (z. B. subjektiven Lebensqualität) und körperlichen (z. B. körperliche Aktivität und Schlafqualität) Belastbarkeit beitragen kann“, fasst Prof. Roenneberg zusammen.

Dieses Thema wird zur Pressekonferenz anlässlich des DGSM-Aktionstages Erholsamer Schlaf gemeinsam mit weiteren spannenden Aspekten unter dem Motto „Schlaf in Zeiten von Covid-19“ am 18. Juni 2021 von schlafmedizinischen Experten weiter erläutert. Die Pressekonferenz findet online in der Zeit von 10.00-11.00 Uhr statt. Dazu möchten wir interessierte Medienvertreter recht herzlich einladen! Bitte melden Sie sich beim Pressekontakt an und Sie erhalten die Zugangsdaten zur Pressekonferenz zugesandt.

Wünschen Sie weitere Informationen zum DGSM-Aktionstag Erholsamer Schlaf am 21. Juni oder allgemein zum Thema Schlaf, so wenden Sie sich sehr gern ebenfalls an den Pressekontakt. Selbstverständlich unterstützen wir Sie auch bei Ihrer Berichterstattung und Experten der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin stehen Ihnen als Gesprächspartner für Interviews zur Verfügung!

Pressekontakt:
Conventus Congressmanagement & Marketing GmbH
Romy Held
Mobil: 0173/5733326
E-Mail: romy.held@conventus.de

Originalpublikation:
„Lock the Clock: The Effects of Social Restrictions on Daily Timing, Sleep and Wellbeing“
Maria Korman1 and Till Roenneberg2-4
1Dept. of Occupational Therapy, Faculty of Health Sciences, Ariel University, Ariel, Israel
2Institute and Polyclinic for Occupational-, Social- and Environmental Medicine, LMU Munich, Munich, Germany; 3Institute for Medical Psychology, LMU Munich, 4Chronsulting UG, Germany

Weitere Informationen:
https://www.dgsm.de/gesellschaft/aktionstag/aktionstag-2021

(nach oben)


Einkommen, Vermögen, Aufstiegschancen: Wie die Deutschen Ungleichheit (miss-)verstehen

Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
Konstanzer Forschende zeigen mit dem ‚Ungleichheitsbarometer‘: Die deutsche Bevölkerung schätzt das Ausmaß von Ungleichheit oftmals falsch ein und unterschätzt insbesondere Vermögensungleichheit. Das hat auch politische Konsequenzen.

„Die Mitte“ ist in Deutschland in den letzten Jahrzehnten zum Ideal der politischen und sozialen Geometrie geworden. Ein Großteil der Bevölkerung ordnet sich selbst der Mittelschicht zu, obwohl das Ausmaß von ökonomischer Ungleichheit in Deutschland weiterhin beträchtlich ist und tendenziell zunimmt – dies zeigen neue Befragungsdaten des Konstanzer ‚Ungleichheitsbarometers‘. Die individuellen Wahrnehmungen der Verteilung von Einkommen und Vermögen, aber auch der eigenen Aufstiegschancen, weichen erheblich von der Realität ab – mit deutlichen Auswirkungen auf politische Prozesse.

Der Exzellenzcluster „The Politics of Inequality“ finanziert mit dem „Ungleichheitsbarometer“ ein Projekt, in dem die Wahrnehmungen von Ungleichheit und damit zusammenhängende politische Einstellungen in regelmäßigen Abständen erhoben und untersucht werden. In Zusammenarbeit mit dem Berliner Think Tank “Das Progressive Zentrum” werden nun erste Ergebnisse der ersten Befragungswelle veröffentlicht.

Prof. Dr. Marius R. Busemeyer, Sprecher des Exzellenzclusters und einer der Autoren der Studie, fasst zusammen: „Ungleichheit bleibt eine der zentralen Herausforderungen unserer Zeit. Das ‚Ungleichheitsbarometer‘ zeigt, wie die deutsche Bevölkerung dieses Problem wahrnimmt und welche Lösungen sie sich von der Politik erhofft.“ Die Wahrnehmung (und Fehlwahrnehmung) von Ungleichheit hat unmittelbar politische Konsequenzen: Das Ausmaß, in dem Menschen Ungleichheit als Problem wahrnehmen, beeinflusst ihre politischen Präferenzen und damit letztlich auch politisches Handeln.

Prof. Dr. Wolfgang Schroeder, Vorsitzender des wissenschaftlichen Beirats des Progressiven Zentrums, betont die Wichtigkeit dieser Forschung für die öffentliche Debatte: „Damit wir auch in Zukunft gemeinsam gut in Deutschland leben können, brauchen wir eine intensivere öffentliche Debatte über soziale Ungleichheit und wir müssen evidenzbasierte Lösungswege entwickeln. Daher freuen wir uns, dass durch dieses Forschungsprojekt eine wissenschaftliche Grundlage dafür geschaffen wird.“
Das Policy Paper mit ersten Ergebnissen ist auf der Webseite des Progressiven Zentrums verfügbar https://www.progressives-zentrum.org/wenn-alle-denken-sie-seien-teil-der-mittels…
Die wichtigsten Ergebnisse aus dem Policy Paper im Überblick:

Mehrheit wünscht eine gleichere Gesellschaft
Die Bevölkerung nimmt insgesamt eine hohe Ungleichheit im Land wahr, sowohl bei Einkommen und Vermögen als auch auf anderen Gebieten. Diese Wahrnehmungen sind jedoch häufig verzerrt. So ordnet sich ein Großteil der Bevölkerung der Mittelschicht zu, das heißt, Reiche unterschätzen ihre relative Einkommensposition und Arme überschätzen sie. Dadurch wird das Gesamtausmaß von Einkommensungleichheit unterschätzt. Gleichzeitig sehen die Befragten die Gesamtverteilung von Ressourcen wie Einkommen und Vermögen als sehr ungleich an; rund 77 Prozent wünschen sich eine egalitärere Gesellschaft.

Vermögensungleichheit wird unterschätzt
72 Prozent der Befragten halten den Einkommensunterschied zwischen den zehn Prozent Deutschen mit dem höchsten und zehn Prozent mit dem niedrigsten Einkommen für „sehr groß“. die Vermögensunterschiede in den gleichen Segmenten hält mit 65 Prozent der Befragten ein geringerer Anteil für „sehr groß“. Aber: Die Ungleichheit bei den Vermögen ist fast dreimal größer als die bei den Einkommen. Dennoch werden die Unterschiede bei den Einkommen deutlich schärfer wahrgenommen.

Aufstiegschancen werden pessimistisch gesehen
Rund die Hälfte der Befragten glauben nicht an Aufstiegsversprechen. Ein Drittel der Befragten hat, im Vergleich zu den Eltern, bereits konkrete Abstiegserfahrungen erlebt. Rund 20 Prozent bewegen sich nach ihrer Einschätzung in etwa auf dem Einkommens- und Vermögensniveau der Eltern im gleichen Alter. Insgesamt werden die Chancen für einen sozialen Aufstieg für Angehörige der unteren Einkommensklassen eher pessimistisch beurteilt: Fast 38 Prozent der Befragten gehen davon aus, dass Kinder aus der niedrigsten Einkommensgruppe auch in dieser Gruppe verbleiben werden.

Politische Implikationen
Die verzerrten Wahrnehmungen von Ungleichheit haben konkrete politische Implikationen. Die Tatsache, dass das Ausmaß von Ungleichheit tendenziell unterschätzt wird, mindert die Unterstützung für Umverteilungspolitik, wie z.B. Vermögens- oder Erbschaftssteuern, aber auch höhere Einkommenssteuern. Die pessimistische Einschätzung von Aufstiegschancen könnte Politikverdrossenheit und die Unterstützung für rechtspopulistische Parteien befördern. Die Forschenden machen in ihrem Policy Paper mehrere Vorschläge, wie die Politik auf ihre Befunde reagieren könnte. Sie regen insbesondere besser informierte öffentliche Debatten an, um das öffentliche Bewusstsein für das reale Ausmaß von Ungleichheit in verschiedenen Dimensionen zu schärfen. Die Menschen müssten in die Lage versetzt werden, abstrakte Vorstellungen von Ungleichheit besser auf ihre konkrete Lebenssituation zu beziehen. Dazu bedürfe es auch mehr öffentlicher Räume, in denen Menschen mit unterschiedlichem Hintergrund in einen Austausch treten.

Faktenübersicht:
• Aktuelle Publikation: Luna Bellani, Nona Bledow, Marius R. Busemeyer, Guido Schwerdt: Wenn alle Teil der Mittelschicht sein wollen: (Fehl-)Wahrnehmungen von Ungleichheit und warum sie für Sozialpolitik wichtig sind. Policy Papers: COVID-19 und soziale Ungleichheit – Thesen und Befunde 06. 26. Mai 2021. Herausgeber: Exzellenzcluster „The Politics of Inequality“ der Universität Konstanz und Das Progressive Zentrum, Berlin.
Download: https://www.progressives-zentrum.org/wenn-alle-denken-sie-seien-teil-der-mittels…
• Exzellenzcluster „The Politics of Inequality“: https://www.ungleichheit.uni.kn/; Projektwebseite: https://www.ungleichheit.uni.kn/forschung/projekte/inequality-barometer/
• „Das Progressive Zentrum“ ist ein unabhängiger und gemeinnütziger Think-Tank mit dem Ziel, die Vernetzung progressiver Akteurinnen und Akteure zu fördern und Politik für ökonomischen und gesellschaftlichen Fortschritt mehrheitsfähig zu machen. Sitz in Berlin, Aktivitäten in vielen Ländern Europas (u. a. Frankreich, Polen, Großbritannien) sowie in den USA.
• Dr. Luna Bellani ist Mikroökonomin und Principal Investigator am Exzellenzcluster „The Politics of Inequality”, wo sie eine Arbeitsgruppe leitet. Ihre Forschungsinteressen umfassen Inter-Generationen-Mobilität in Bezug auf Einkommen und Bildung, politische Umverteilungsökonomie sowie Haushalts- und Gender-Ökonomie.
• Nona Bledow ist Politikwissenschaftlerin und forscht am Exzellenzcluster „The Politics of Inequality” an der Universität Konstanz. Ihre Forschungsinteressen gelten der politischen Ökonomie und dem Wohlfahrtsstaat, Gewerkschaften und Arbeitsmarktpolitik, politischer Entwicklungsökonomie und politischer Theorie und Philosophie.
• Marius R. Busemeyer ist Professor für Politikwissenschaft mit dem Schwerpunkt Vergleichende Politische Ökonomie an der Universität Konstanz und Sprecher des Exzellenzclusters „The Politics of Inequality“. Seine Forschungsschwerpunkte liegen im Bereich der Wohlfahrtsstaatenforschung, Bildungs- und Sozialpolitik, Theorien des institutionellen Wandels sowie der Digitalisierung.
• Guido Schwerdt ist Professor für Public Economics sowie Principal Investigator und Mitglied des Erweiterten Vorstands am Exzellenzcluster „The Politics of Inequality“ an der Universität Konstanz. In seine Forschung konzentriert er sich auf Politikevaluierung, Bildungs- und Arbeitsmarktökonomie sowie Public Economics.

Wissenschaftliche Ansprechpartner:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

(nach oben)


Geplante Maßnahmen des Nationalen Hochwasserschutzprogramms sind wirksam

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Simulationen zeigen: Große Hochwasser an Donau, Elbe und Rhein könnten zukünftig im Ernstfall beträchtlich gesenkt werden. BfG und UBA veröffentlichen Ergebnisse des gemeinsamen Forschungsprojekts.

Ein besserer überregionaler Hochwasserschutz ist möglich. Das zeigen die Ergebnisse eines fünfjährigen Forschungsvorhabens der Bundesanstalt für Gewässerkunde (BfG) im Auftrag des Umweltbundesamts (UBA), in dem die Wirksamkeit der geplanten Maßnahmen im Nationalen Hochwasserschutzprogramm (NHWSP) an Donau, Elbe und Rhein überprüft wurden. Demnach könnten durch die Maßnahmen die Pegelstände zukünftiger großer Hochwasser über weite Streckenabschnitte zwischen 10 und 50 cm reduziert werden – unter bestimmten Umständen sogar deutlich mehr. Insgesamt zeigen die NHWSP-Maßnahmen in allen drei Flussgebieten eine deutliche überregionale Wirksamkeit. Zu den knapp 70 untersuchten Maßnahmen zählen Deichrückverlegungen, Hochwasserrückhaltebecken und Flutpolder, die den Flüssen Ausbreitungsraum geben können und teilweise beträchtliche Volumina der Hochwasserwelle aufnehmen sowie zurückhalten können.

Die verheerenden Hochwasser im Sommer 2013 an Donau und Elbe sind vielen Menschen im Gedächtnis geblieben. Mit dem Nationalen Hochwasserschutzprogramm von Bund und Ländern sollen Flussanlieger künftig besser vor solchen Ereignissen geschützt und mögliche Schäden zukünftiger Hochwasser verringert werden. Ziel des Programms ist es, die Umsetzung großräumiger, überregional wirksamer Hochwasserschutzmaßnahmen der Länder zu beschleunigen. So stellt der Bund derzeit für die Raum gebenden Maßnahmen des NHWSP jährlich bis zu 100 Millionen Euro finanzielle Mittel zur Verfügung und beteiligt sich an den Kosten der gemeldeten Hochwasserschutzmaßnahmen der Länder.

In ihrer Untersuchung analysierten die Forscherinnen und Forscher die Maßnahmen mithilfe großräumiger mathematischer Modelle. In enger Zusammenarbeit und Abstimmung mit den Ländern wurden dabei gemeinsame Modellsysteme für die Flussgebiete aufgebaut, ein bundesweit einheitlicher Untersuchungsansatz entwickelt und vergleichbare Wirkungsanalysen parallel in den drei größten deutschen Flussgebieten durchgeführt.

Die Ergebnisse der fünfjährigen Forschungs- und Entwicklungsarbeit sind in drei Flussgebietsberichten sowie einem übergeordneten Synthesebericht zusammengefasst.

Wissenschaftliche Ansprechpartner:
Carina Schuh, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5090, E-Mail: schuh@bafg.de

Originalpublikation:
– Flussgebietsbericht Donau | BfG-Bericht 2049: http://doi.bafg.de/BfG/2021/BfG-2049.pdf
– Flussgebietsbericht Elbe | BfG-Bericht 2048: http://doi.bafg.de/BfG/2021/BfG-2048.pdf
– Flussgebietsbericht Rhein | BfG-Bericht 2047: http://doi.bafg.de/BfG/2021/BfG-2047.pdf
– Synthesebericht | UBA-TEXTE 70/2021: https://www.umweltbundesamt.de/publikationen/untersuchungen-zur-ermittlung-der-w…
– Synthesebericht | UBA-TEXTE 70/2021: https://www.umweltbundesamt.de/node/87251/

(nach oben)


Studie: Besonders deutliche Immunantwort bei der Impfstoffkombination von Astrazeneca und Biontech

Friederike Meyer zu Tittingdorf Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Wenn der Impfstoff des Herstellers Astrazeneca bei der Zweitimpfung mit dem Biontech-Wirkstoff kombiniert wird, zeigen die Geimpften eine deutlich stärkere Immunantwort als bei einer doppelten Astrazeneca-Impfung. Diese Abwehrreaktion des Körpers ist sogar auch geringfügig höher als bei einer zweifachen Biontech-Impfung. Zu diesem Ergebnis kommt ein Forscherteam unter Leitung von Immunologie-Professorin Martina Sester an der Universität des Saarlandes. Das Team hat in den vergangenen Wochen die Immunreaktion von 250 Personen im Detail untersucht. Die erst vorläufigen, aber schon vielversprechenden Ergebnisse sind noch nicht wissenschaftlich publiziert.

An der Studie, bei der die Stärke der Immunantwort zwei Wochen nach Abschluss einer vollständigen Impfung bestimmt wurde, haben sich 250 Personen beteiligt. Diese wurden vom Betriebsarzt am Universitätsklinikum des Saarlandes in Homburg in den vergangenen Monaten geimpft. Ein Teil von ihnen hatte eine zweifache Astrazeneca-Impfung oder eine zweifache Impfung der Hersteller Biontech und Pfizer erhalten, den weiteren Probanden wurde mit einem Abstand von neun bis zwölf Wochen eine Kombination aus beiden Impfstoffen – eine sogenannte heterologe Impfung – verabreicht. Einige wenige Personen wurden zudem mit dem Moderna-Impfstoff oder einer Kombination aus Astrazeneca und Moderna geimpft.

„Vor dem Hintergrund, dass die Ständige Impfkommission die heterologe Impfung im März ohne eigentliche Zulassungsstudien empfehlen musste, werden Analysen wie unsere aus dem Labor für Transplantations- und Infektionsimmunologie dringend benötigt. Wir haben bei den geimpften Personen nicht nur untersucht, wie viele Antikörper sie gegen das Coronavirus gebildet haben, sondern wir haben auch die Wirkstärke der sogenannten neutralisierenden Antikörper bestimmt. Diese gibt uns Auskunft darüber, wie gut die Antikörper das Virus davon abhalten, in die Zellen einzudringen“, erläutert Martina Sester, Professorin für Transplantations- und Infektionsimmunologie der Universität des Saarlandes.

Die Analyse der Antikörper-Bildung ergab, dass eine kombinierte Astra-Biontech-Impfung ebenso wie eine zweifache Biontech-Impfung eine wesentlich höhere Wirksamkeit zeigte als eine zweifache Astrazeneca-Impfung. So konnten bei den beiden erstgenannten Varianten etwa zehnmal mehr Antikörper im Blut nachgewiesen werden. „Bei den neutralisierenden Antikörpern zeigte die kombinierte Impfstrategie sogar noch leicht bessere Ergebnisse als eine zweifache Biontech-Impfung“, fasst Martina Sester zusammen.

Darüber hinaus hat das Forscherteam zwei Typen von so genannten T-Zellen unter die Lupe genommen. Die T-Helferzellen unterstützen den menschlichen Körper unter anderem dabei, dass Antikörper gebildet werden. Bei der Vernichtung der infizierten Zellen kommen zudem die T-Killerzellen ins Spiel. Diese sind besonders wichtig, um schwerwiegende Verläufe einer Covid19-Erkrankung zu verhindern.

Bei der Bildung beider Zellarten hatten die Impfstoff-Kombination von Astrazeneca und Biontech sowie die zweifache Biontech-Impfung eindeutig die Nase vorn. Die heterologe Impfung führte bei der Bildung der Killerzellen ähnlich wie bei den neutralisierenden Antikörpern sogar zur stärksten Reaktion. „Hier zeigt sich recht markant, dass die zweifache Astrazeneca-Impfung die Immunabwehr weniger mobilisieren kann als die beiden anderen Varianten. Das bedeutet nicht, dass viele der so geimpften Personen keinen ausreichenden Impfschutz aufweisen, denn die Zulassungsstudie und der Erfolg der Impfkampagnen in vielen Ländern zeigen eine hohe Effektivität der Astrazeneca-Vakzine. Mit einer zweiten Dosis kann jedoch nicht mehr das volle Potential ausgeschöpft werden, das eigentlich in diesem Impfstoff liegt“, erklärt die Immunologin.

Auch wenn die Forscherinnen und Forscher noch nicht alle Daten zur Zellbildung vollständig auswerten konnten, waren sie überrascht von der Eindeutigkeit der Ergebnisse. „Dies ist auch der Grund, warum wir diese jetzt schon mit der Öffentlichkeit teilen wollen und nicht erst das wissenschaftliche Begutachtungsverfahren abgewartet haben“, erläutert Martina Sester. Für die wissenschaftliche Publikation der Studie werden die Forscher ihre Daten noch unter verschiedenen Aspekten auswerten, etwa dem Geschlecht und Alter und der Frage, bei welcher Impfstoff-Kombination die meisten Nebenwirkungen auftraten. „Wir sind der Meinung, dass wenn noch weitere Forscherteams zu ähnlichen Ergebnissen kommen, man intensiv über eine Kombination von Vektor- und mRNA-Impfstoffen nachdenken sollte. Zudem wäre es wichtig für Menschen mit Vorerkrankungen, deren Immunabwehr zum Beispiel durch Medikamente geschwächt ist, zu überprüfen, ob diese nicht spätestens als dritte Impfung eine kombinierte Version bekommen sollten, um ein möglichste breite Immunreaktion des Körpers zu erzeugen“, sagt Immunologie-Professorin Martina Sester.

Die Forschungsarbeit wurde von der saarländischen Landesregierung unterstützt. Ministerpräsident und Wissenschaftsminister Tobias Hans: „Von Beginn der Pandemie an haben wir im Bereich der Forschungsförderung den Schwerpunkt unserer Unterstützungen auf die Erforschung und Bekämpfung des Coronavirus gelegt. Es freut mich besonders, dass das Vorhaben von Professorin Martina Sester nun einen wertvollen Beitrag dazu leistet, die Immunität nach heterologer Impfung zu charakterisieren und vulnerable Gruppen zukünftig noch besser schützen zu können. Dieses Ergebnis zeigt erneut die hohe wissenschaftliche Exzellenz an den Hochschulen unseres Landes.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martina Sester
Transplantations- und Infektionsimmunologie
Universität des Saarlandes/ Universitätsklinikum des Saarlandes
Tel.: 06841 162-3557
E-Mail: martina.sester@uks.eu

Weitere Informationen:
http://www.uniklinikum-saarland.de/de/einrichtungen/kliniken_institute/infektion…

Ergänzung vom 16.06.2021
Der Preprint-Artikel zur Studie wurde jetzt veröffentlicht.
„Immunogenicity and reactogenicity of a heterologous COVID-19 prime-boost vaccination compared with homologous vaccine regimens“:
https://www.medrxiv.org/content/10.1101/2021.06.13.21258859v1

(nach oben)


Schaufenster Bioökonomie: Dünger aus Bioabfällen und häuslichen Abwässern

Florian Klebs Hochschulkommunikation
Universität Hohenheim
Projekt mit Beteiligung der Uni Hohenheim will Nährstoffpartnerschaften zwischen Stadt und Land etablieren und Stoff-Kreisläufe durch moderne Verwertungsverfahren schließen.

Immer knapper werdende Rohstoffe, die Herausforderungen des Klimawandels und eine ständig wachsende Weltbevölkerung: Langfristig führt kein Weg daran vorbei, die vorhandenen Ressourcen nachhaltiger und effizienter zu nutzen. Gelingen kann dies unter anderem, wenn Nähr- und Wertstoff-Kreisläufe in der landwirtschaftlichen Produktion wieder geschlossen werden und alle Rohstoffe und Produkte möglichst lange im Einsatz bleiben. Dazu gehört es auch Reststoffe als wertvolle Rohstoffquelle zu sehen. Mit der Aufgabe, innovative Verwertungsverfahren für Bioabfälle und häusliche Abwässer zu entwickeln und so die Stoff-Kreisläufe zwischen Stadt und Land wieder zu schließen, beschäftigt sich das Kooperationsprojekt RUN. Im Rahmen des BMBF-Programms „Agrarsysteme der Zukunft“ erhalten die Forschungsteams der Universität Hohenheim in Stuttgart rund 680.000 Euro an Fördermitteln. Das macht RUN zu einem Schwergewicht der Forschung.

Rund dreiviertel der Deutschen leben in Städten und verbrauchen dort Lebensmittel, die auf dem Land erzeugt wurden. Auf diese Weise sind Produktionsketten entstanden, bei denen Nähr- und Wertstoffe von einem Ort zum anderen transportiert werden und schließlich zum größten Teil mit Abfällen und Abwasser verloren gehen.

Hier setzt das Kooperationsprojekt RUN an. RUN steht für Rural Urban Nutrient Partnership, also Nährstoffgemeinschaften zwischen Stadt und Land. In diesem interdisziplinären Forschungsprojekt verfolgen Partner aus Wissenschaft und Praxis das langfristige Ziel, Agrarsysteme nachhaltiger und klimafreundlicher zu gestalten und Ressourcen sowie Energie einzusparen.

Das braucht neue technische, städtebauliche und logistische Strukturen, bei denen die Trennung, Aufbereitung, Umwandlung sowie die Rückführung der Nährstoffe in den Kreislauf auf verschiedenen Ebenen Hand in Hand gehen. Aber auch ein verändertes Konsumverhalten der Gesellschaft ist dafür notwendig.

Kreisläufe schließen, Ressourcen schonen, Stadt und Land miteinander verbinden
Kernidee von RUN ist es, aus Bioabfällen und häuslichem Abwasser die darin enthaltenen Nährstoffe zu gewinnen, um aus ihnen Düngemittel oder auch recycelbare Bioplastikfolie und Pflanzenkohle herzustellen. Also Produkte, die in der Landwirtschaft eingesetzt werden können, um zum Beispiel Obst und Gemüse anzubauen.

Dieses wird auf dem Wochenmarkt in der Stadt verkauft, von den Bewohnern verarbeitet und gegessen. Dabei fallen wieder nutzbarer Abfall und Abwasser an. Auf diese Weise entsteht zwischen Landwirten und Stadtbewohnern ein Kreislaufsystem, bei dem wertvolle Nähr- und Wertstoffe mehrfach genutzt werden.

Design-Dünger und Pflanzenkohle im Test
Bevor es jedoch soweit ist, müssen zunächst einmal die notwendigen Techniken entwickelt werden. Dazu testen Forschende von der Universität Stuttgart zunächst in Laborversuchen verschiedene Methoden der Rückgewinnung und Aufbereitung von Bio-Abfällen und häuslichem Abwasser.

Heraus kommen so genannte Design-Dünger und Pflanzenkohle, die anschließend von Dr. Sabine Zikeli vom Zentrum Ökologischer Landbau Universität Hohenheim (ZÖLUH) und ihrem Team untersucht werden: „Als Dünger entstehen vor allem Struvite, die in erster Linie Phosphat, Magnesium und Ammonium enthalten, die dem Klärschlamm entzogen wurden.“

„Die Reste des Klärschlamms werden durch Verkohlung zu Pflanzenkohle. Diese ist sehr porös und kann in ihren Hohlräumen Wasser und Nährstoffe speichern, die sie dann bei Bedarf an die Pflanzen abgibt“, erklärt Dr. Zikeli weiter.

Design-Dünger müssen effizient und sicher sein
Um immer gleichbleibende und kontrollierte Bedingungen zu haben, arbeitet sie im Gewächshaus mit Pflanzen in Töpfen: „Wir nutzen Weidelgras für unsere Versuche. Das hat zum Beispiel gegenüber Salat den Vorteil, dass wir es mehrfach ernten können, denn manche Düngemittel lösen sich im Boden nur langsam auf und geben ihre Nährstoffe erst nach und nach frei.“

Dazu schneiden die Forschenden einfach die Blätter der Pflanzen ab. Das Gras wächst dann einfach nach. So können sie zu verschiedenen Erntezeitpunkten erfassen, wie viel Nährstoffe die Pflanzen aufgenommen haben und wie sich ihre Biomasse verändert hat. Daraus lässt sich die Verfügbarkeit der Nährstoffe berechnen und die Effizienz der Design-Dünger bestimmen. Das Team ermittelt dabei auch, ob eventuell auch unerwünschte Substanzen, wie Schadstoffe, von den Pflanzen aufgenommen werden.

Denn die Design-Dünger müssen natürlich in der Landwirtschaft bedenkenlos eingesetzt werden können. „Struvite haben den Vorteil, dass sie sehr sauber sind und so gut wie keine Verunreinigungen beispielsweise mit Schwermetallen enthalten“, weiß Dr. Zikeli. „Und natürlich unterliegen auch diese Dünger der geltenden Düngemittel-Verordnung.“

Mehrheit der Landwirte sieht Kreislaufidee positiv
Dass das Thema Sicherheit auch eine große Rolle bei den Landwirten spielt, kann auch apl. Prof. Dr. Christian Lippert vom Institut für Landwirtschaftliche Betriebslehre der Universität Hohenheim bestätigen: „Für die Landwirte ist es wichtig, dass der Dünger frei von Schadstoffen, Schwermetallen und bakteriellen Verunreinigungen ist – und natürlich seine Aufgabe erfüllt, Pflanzen mit den notwendigen Nährstoffen zu versorgen.“

„Grundsätzlich steht die Mehrheit der befragten Landwirte der Idee, Nährstoffe aus häuslichem Abwasser und Küchenabfällen zu gewinnen, positiv gegenüber“, so das Resümee eines Workshops zu Projektbeginn. Allerdings blieben auch noch eine Reihe von Fragen zu klären, angefangen bei der Qualität über den Preis bis hin zur gesellschaftlichen Akzeptanz der Dünger. Denn ohne die ließe sich das produzierte Obst und Gemüse nicht verkaufen.

Im Reallabor den Dialog zwischen allen Beteiligten fördern
Aus diesem Grund soll bei RUN nicht ausschließlich in Forschungslaboren geforscht werden, sondern das Projekt soll als Reallabor umgesetzt werden: „Geplant ist eine Recyclinganlage als Pilotanlage und Demonstrator in einem echten Stadtquartier auszuprobieren“, erklärt Carolin Callenius vom Forschungszentrum für Globale Ernährungssicherung und Ökosysteme der Universität Hohenheim. „Damit lassen sich die Laborversuche einerseits in einem größeren Maßstab auf der Ebene eines Stadtquartiers testen und andererseits kann man die Kreislaufidee so unter Echtzeitbedingungen auf deren Praxistauglichkeit hin untersuchen.“

Ausgangspunkt sind die „Grundmaterialien“ häuslicher Bioabfall und häusliche Abwässer. An der Frage nach geeigneten innovativen Logistiksystemen zum Transport der Stoffströme wird noch geforscht. Aussichtsreich scheint aktuell aber, einen Zerkleinerungsapparat für Küchenabfälle direkt in den Haushalten zu installieren und den Abtransport der Abfälle mit Unterdruckleitungen zu lösen. Diese würden dann auch das Abwasser abführen. Für den Stoffstrom von Grünabfällen, die ebenfalls gesammelt und aufbereitet werden sollen, gibt es eine andere Idee: Ein On-Demand Service durch lokale Paketlieferdienste ist dafür angedacht.

Ein zusätzlich eingerichteter Informations- und Erfahrungsraum soll die Forschung von RUN für Bürgerinnen und Bürger erlebbar und begreifbar machen. Hier werden von der Nährstofferzeugung in den Haushalten bis zur Wiederverwendung in der Landwirtschaft alle Aspekte des Nährstoffrecyclings dargestellt und vermittelt. In Dialogveranstaltungen sollen Fragen, Anliegen und Bedürfnisse der Bevölkerung beantwortet werden und in die Projektplanung einfließen.

Eine Pilotanlage mit ergänzendem Erfahrungsraum ist sehr wichtig für den Erfolg des Projekts: Die Kooperationspartner können im stetigen Austausch mit allen Beteiligten, wie Landwirten, Ingenieuren, Stadtplanern, Verwaltungen, Entscheidungsträgern in Ministerien und Bürgern mögliche Bedürfnisse, Anforderungen oder Hemmnisse erkennen, die gegenüber Produkten aus recycelten Abfällen und Abwasser bestehen könnten.

Diese werden dann frühzeitig in die Forschung einbezogen, so dass gesellschaftlich tragfähige Lösungen erarbeitet werden können. Denn am Ende sollen alle einen Nutzen aus dem Kreislauf ziehen und ihn langfristig mittragen.

HINTERGRUND: Rural Urban Nutrient Partnership (RUN) ‒ Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft
RUN ist eines von acht Projekten des Forschungsvorhabens „Agrarsysteme der Zukunft“ im Rahmen der „Nationalen Forschungsstrategie BioÖkonomie 2030“. Es wird vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt 4,2 Mio. Euro gefördert, davon über 680.000 Euro für die Universität Hohenheim. Projektstart war der 1. April 2019. Das Projekt ist zunächst auf drei Jahre angelegt.

Die Koordination des Projekts liegt in der Hand von Prof. Dr.-Ing. Martin Kranert vom Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft der Universität Stuttgart (ISWA). Weitere Projektpartner sind die TU Kaiserlautern, die Universität Heidelberg, das Karlsruher Institut für Technologie (KIT), das Thünen-Institut in Braunschweig sowie zwei beratende Ingenieurbüros als Praxispartner und zwei assoziierte Partner.

HINTERGRUND: Forschungszentrum für Globale Ernährungssicherung und Ökosysteme
Das Zentrum verfolgt das Ziel, einen Beitrag zur Verbesserung der globalen Ernährungssicherung zu leisten. Es unterstützt Wissenschaftlerinnen und Wissenschaftler bei der Entwicklung und Umsetzung von innovativen und effektiven Forschungsinitiativen zur Ernährungssicherung und Hungerbekämpfung mit einem besonderen Fokus auf entwicklungsorientierter Forschung.

HINTERGRUND: Schwergewichte der Forschung
33,8 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2020 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 350.000 Euro für apparative Forschung bzw. 150.000 Euro für nicht-apparative Forschung.

HINTERGRUND: Wissenschaftsjahr 2020|21 – Bioökonomie
In den Jahren 2020 und 2021 steht das Wissenschaftsjahr im Zeichen der Bioökonomie – und damit einer nachhaltigen, biobasierten Wirtschaftsweise. Es geht darum, natürliche Stoffe und Ressourcen nachhaltig und innovativ zu produzieren und zu nutzen und so fossile und mineralische Rohstoffe zu ersetzen, Produkte umweltverträglicher herzustellen und biologische Ressourcen zu schonen. Das ist in Zeiten des Klimawandels, einer wachsenden Weltbevölkerung und eines drastischen Artenrückgangs mehr denn je notwendig. Das vom Bundesministerium für Bildung und Forschung (BMBF) ausgerichtete Wissenschaftsjahr Bioökonomie rückt das Thema ins Rampenlicht.

Die Bioökonomie ist das Leitthema der Universität Hohenheim in Forschung und Lehre. Sie verbindet die agrarwissenschaftliche, die naturwissenschaftliche sowie die wirtschafts- und sozialwissenschaftliche Fakultät. Im Wissenschaftsjahr Bioökonomie informiert die Universität Hohenheim in zahlreichen Veranstaltungen Fachwelt und Öffentlichkeit zum Thema.

Wissenschaftsjahr 2020|21 BMBF: https://www.wissenschaftsjahr.de/2020-21
#Wissenschaftsjahr #DasistBioökonomie

Wissenschaftsjahr 2020|21 Hohenheim: https://www.uni-hohenheim.de/wissenschaftsjahr-2020-2021-biooekonomie

Bioökonomie an der Universität Hohenheim: https://biooekonomie.uni-hohenheim.de

Wissenschaftliche Ansprechpartner:
Dr. Sabine Zikeli, Universität Hohenheim, Zentrum Ökologischer Landbau Universität Hohenheim (ZÖLUH), T +49 (0)711 459-23248, E sabine.zikeli@uni-hohenheim.de

apl. Prof. Dr. Christian Lippert, Universität Hohenheim, Fachgebiet Produktionstheorie und Ressourcenökonomik im Agrarbereich
T +49 (0)711 459-22560, E christian.Lippert@uni-hohenheim.de

Carolin Callenius, Universität Hohenheim, Forschungszentrum für Globale Ernährungssicherung und Ökosysteme
T +49 (0)711 459-23472, E carolin.callenius@uni-hohenheim.de

Yvonne Zahumensky, Universität Hohenheim, Forschungszentrum für Globale Ernährungssicherung und Ökosysteme
T +49 (0)711 459-22632, E yvonne.zahumensky@uni-hohenheim.de

Weitere Informationen:
„Erklärvideo“
http://www.run-projekt.de „Website des Projektes“

(nach oben)


Innerer Kompressionsstrumpf wirkt gegen Krampfadern

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Erweiterte Venen werden bei ausgeprägtem Krampfaderleiden üblicherweise entfernt oder zerstört. Wenn Betroffene später wegen Durchblutungsstörungen einen Bypass benötigen, fehlen die großen Blutgefäße dann aber als Ersatz. In einer Multicenterstudie unter Leitung von Dr. Dominic Mühlberger aus der Gefäßchirurgie der Ruhr-Universität Bochum am St. Josef Hospital prüften Forschende eine dort entwickelte gefäßerhaltende Therapie: Das Anlegen einer dünnen Ummantelung um die defekte Vene behob das Krampfaderproblem in über 95 Prozent der Fälle. Das Forschungsteam berichtet in der Zeitschrift „Journal of International Medical Research“ vom 6. April 2021.

Wenn das Blut im Bein versackt
Krampfadern sind mehr als nur ein kosmetisches Problem: Infolge der unansehnlichen Aussackungen können sich schwere Gesundheitsschäden wie Beingeschwüre, Thrombosen oder sogar Lungenembolien entwickeln. Die Ursache für eine Krampfadernerkrankung liegt meistens in einer Bindegewebsschwäche, die dazu führt, dass die Venenwand nachgibt und damit der Venendurchmesser wächst. Schwangerschaften oder häufiges Stehen und Sitzen begünstigen diesen Prozess.

Die Zunahme des Venendurchmessers beeinträchtigt die Funktion der Venenklappen. Die Klappensegel werden auseinandergezogen, und es entsteht ein Leck, das als Klappeninsuffizienz bezeichnet wird. Das Blut versackt im Bein und führt dort zu einem Anstieg des venösen Blutdruckes. Von dieser Klappeninsuffizienz ist am häufigsten die in der Leiste einmündende Stammvene, auch Vena saphena magna oder große Rosenader genannt, betroffen.

Wie eine zweite Haut
Die bisherigen Therapiekonzepte basieren auf einem radikalen Vorgehen: der Zerstörung durch Laser- oder Radiowellentherapie oder der Entfernung insuffizienter Stammvenen durch eine Stripping-Operation. „Am Klinikum der RUB haben wir mit dem Verfahren der extraluminalen Valvuloplastie eine Alternative zu den radikalen Methoden entwickelt, die einen organerhaltenden Ansatz verfolgt“, erklärt Prof. Dr. Achim Mumme, Direktor der Gefäßchirurgie. Die Reparatur der Venenklappen erfolgt über einen kleinen Schnitt in der Leiste. Wie eine zweite Haut wird ein Mantel aus hauchdünnem Polyurethan um die erweiterte Vene gelegt. Die Ummantelung wirkt als eine Art innerer Kompressionsstrumpf, der die bindegewebsschwache Vene wieder auf ihren Normaldurchmesser zurückbringt.

Einsatz vor allem bei Risikofaktoren für Durchblutungsstörungen
In einer Multicenterstudie überprüfte das Team die Wirksamkeit der organerhaltenden Behandlungsmethode. „Mit einer Erfolgsrate von 95,24 Prozent stellte sich die Venenreparatur mit dem neuartigen Polyurethan-Mantel als effektive Behandlungsalternative zu den radikalen Behandlungsmethoden dar“, fasst Studienleiter Dominic Mühlberger zusammen. „Ihr großer Vorteil ist, dass im Gegensatz zu den radikalen Therapieverfahren die Stammvene bei der extraluminalen Valvuloplastie erhalten bleibt.“

Das ist vor allem dann wichtig, wenn in einem späteren Lebensabschnitt Durchblutungsstörungen auftreten. In diesem Falle kann das Vorhandensein von geeignetem Bypassmaterial entscheidend sein für die Behandlungsmöglichkeiten. Die Stammvenen werden als Gefäßersatzmaterial in der Herz- und Gefäßchirurgie benötigt. Das Fehlen von geeignetem Ersatzmaterial verschlechtert die Prognose.

„Die venenerhaltende Therapie der Krampfadern sollte vor allem dann zum Einsatz kommen, wenn Risikofaktoren für die Entwicklung von Durchblutungsstörungen vorliegen, etwa Rauchen, Bluthochdruck, Zuckerkrankheit oder Fettstoffwechselstörungen“, so Mühlberger.

Wissenschaftliche Ansprechpartner:
Dr. Dominic Mühlberger
Gefäßchirurgie
St. Josef Hospital
Klinikum der Ruhr-Universität Bochum
Tel.: +49 234 509 0
E-Mail: dominic.muehlberger@klinikum-bochum.de

Originalpublikation:
Dominic Mühlberger, Erich Brenner, Norbert Frings, Bruno Geier, Achim Mumme, Stefanie Reich-Schupke, Horst-Peter Steffen, Dietmar Stenger, Markus Stücker, Thomas Hummel: Functional repair of the great saphenous vein by external valvuloplasty reduces the vein’s diameter: 6-month results of a multicentre study, in: Journal of International Medical Research, 2021, DOI: 10.1177/03000605211014364, https://journals.sagepub.com/doi/10.1177/03000605211014364

(nach oben)


Woche der Umwelt: BAM präsentiert innovatives Messverfahren für Mikroplastik

Oliver Perzborn Unternehmenskommunikation
Bundesanstalt für Materialforschung und -prüfung (BAM)
Die Bundesanstalt für Materialforschung und -prüfung (BAM) ist mit einem neuartigen Messverfahren für Mikroplastik auf der „Woche der Umwelt“ des Bundespräsidenten und der Deutschen Bundesstiftung Umwelt vertreten. Das Verfahren erlaubt es, schneller als bisher genaue Daten zu den Eintragspfaden von Mikro- und Nanoplastik in die Umwelt zu erheben. Damit schafft es die empirische Voraussetzung für wirksame Vermeidungsstrategien.

Unter dem Motto „So geht Zukunft!“ laden Bundespräsident Frank-Walter Steinmeier und die Deutsche Bundesstiftung Umwelt am 10. und 11. Juni 2021 zur sechsten „Woche der Umwelt“ ein. Die Veranstaltung würdigt traditionell innovative Umweltschutzthemen und -projekte. Aufgrund der Corona-Pandemie muss sie als hybrides Format im Park von Schloss Bellevue sowie mit digitalen Fachforen stattfinden.

Zu den 150 Ausstellenden, die eine Fachjury ausgewählt hat, zählt auch die Bundesanstalt für Materialforschung und -prüfung (BAM). Die BAM stellt auf der Woche der Umwelt ein innovatives Messverfahren für Mikroplastik vor.

Die winzigen Partikel lassen sich heute in allen Weltmeeren, in Seen, Flüssen, Böden, in Organismen und sogar in der Luft nachweisen. Weltweit gelangen jedes Jahr viele Millionen Tonnen von Mikroplastik – und des viel kleineren Nanoplastik – in die Umwelt. Aus welchen Quellen genau die meisten Einträge stammen, das ist allerdings noch unbekannt. Denn: Die Zahlen dazu beruhen auf Schätzungen oder Hochrechnungen, die sich wiederum nur auf wenige konkrete Messungen stützen.

Der Grund dafür ist so einfach wie folgenreich: Mikro- und Nanoplastik sind sehr schwer aufzuspüren und exakt zu quantifizieren. Die Partikel messen oft nur einige Tausendstel oder sogar nur Millionstel Millimeter.

Bisherige Verfahren, die vor allem auf der Mikrospektroskopie beruhen, sind zeitaufwendig und sie erfassen besonders kleine Partikel nicht – die aber stehen im Verdacht, eine schädliche Wirkung auf Organismen zu entfalten.

Wissenschaftler*innen der BAM haben daher ein neuartiges Messverfahren entwickelt, das nicht mehr auf der Spektroskopie beruht. Stattdessen werden Proben werden erhitzt und die entstehenden Gase anschließend in einem Gaschromatographen, der an ein Massenspektrometer gekoppelt ist, analysiert. Gewissermaßen „riecht“ das Analysegerät die winzigen Partikel, statt sie optisch zu identifizieren. Der Vorteil: Das Verfahren ist etwa zehn Mal schneller, es erfasst auch besonders kleine Partikel sowie erstmals auch den Abrieb von Autoreifen – vermutlich eine der größten Quellen von Mikroplastik.

Zusammen mit der Firma Gerstel GmbH hat das Team der BAM aus dem patentierten Verfahren ein Analysegerät entwickelt, das bereits international in vielen Laboren im Einsatz ist.

Als Ergänzung bietet die BAM auch die weltweit ersten Referenzmaterialien für Mikroplastik an. Die Substanzen sind wichtig, um verschiedene Messmethoden und -werte miteinander vergleichen zu können.

„Mit dem Analysegerät und unseren Referenzmaterialien für Mikro- und Nanoplastik schaffen wir als Wissenschaftler*innen die empirische Grundlage, um über Vermeidungsstrategien diskutieren zu können und am Ende als Gesellschaft wirksame Maßnahmen festlegen zu können“, so Korinna Altmann von der BAM.

„Umwelt – das ist eines der fünf großen Themenfelder, zu denen wir an der BAM täglich forschen, prüfen und beraten“, so BAM-Präsident Prof. Dr. Ulrich Panne. „Als Wissenschaftler*innen müssen wir über die Grenzen unserer Labore hinausdenken. Wir tragen die Verantwortung dafür, die Lebensgrundlagen auf unserem Planeten zu schützen. Unsere Forschung zu Mikroplastik ist ein wichtiger Beitrag dazu.“

Kontakt:
Referat Kommunikation, Marketing
Bundesanstalt für Materialforschung und -prüfung (BAM)
T: + 49 30 8104-1013
presse@bam.de
http://www.bam.de

150 Jahre BAM – Wissenschaft mit Wirkung. Feiern Sie mit uns: http://www.150.bam.de
Unser Auftrag: Sicherheit in Technik und Chemie. Weitere Informationen unter http://www.bam.de
Abonnieren Sie unseren Newsletter: http://www.150.bam.de/newsletter
Folgen Sie uns auf Twitter: twitter.com/BAMResearch

Über die BAM
Die BAM gewährleistet Sicherheit in Technik und Chemie.
Die Bundesanstalt für Materialforschung und -prüfung (BAM) ist eine Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Wirtschaft und Energie.

Die BAM forscht, prüft und berät zum Schutz von Mensch, Umwelt und Sachgütern. Im Fokus aller Tätigkeiten in der Materialwissenschaft, der Werkstofftechnik und der Chemie steht dabei die technische Sicherheit von Produkten und Prozessen. Dazu werden Substanzen, Werkstoffe, Bauteile, Komponenten und Anlagen sowie natürliche und technische Systeme von volkswirtschaftlicher Dimension und gesellschaftlicher Relevanz erforscht und auf sicheren Umgang oder Betrieb geprüft und bewertet. Die BAM entwickelt und validiert Analyseverfahren und Bewertungsmethoden, Modelle und erforderliche Standards und erbringt wissenschaftsbasierte Dienstleistungen für die deutsche Wirtschaft im europäischen und internationalen Rahmen.

Sicherheit macht Märkte.
Die BAM setzt und vertritt für Deutschland und seine globalen Märkte hohe Standards für Sicherheit in Technik und Chemie zur Weiterentwicklung der erfolgreichen deutschen Qualitätskultur „Made in Germany“.

Weitere Informationen:
https://www.woche-der-umwelt.de/ausstellerKonkret/1733

(nach oben)


Zurück zur Natur? Wie die Renaturierung von Gewässern sozial-ökologisch gestaltet werden kann

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Europaweit sind Gewässer in keinem guten ökologischen Zustand. Die Vorgaben der Wasserrahmenrichtlinie der EU werden auch in Deutschland nicht erreicht. Das gilt auch für einige der Fließgewässer in Südhessen, wie etwa die Weschnitz oder die Modau. Der Handlungsdruck ist groß. Wie eine erfolgreiche Renaturierung aussehen könnte, darüber diskutieren Bürger*innen, Expert*innen und Wissenschaftler*innen bei der öffentlichen Abschlussveranstaltung des Forschungsprojekts Weschnitz Dialog am 15. Juni 2021. Das ISOE – Institut für sozial-ökologische Forschung, der Geo-Naturpark Bergstraße-Odenwald sowie der Gewässerverband Bergstraße laden herzlich zu dieser digitalen Veranstaltung ein.

Rund 90 Prozent der deutschen Oberflächengewässer verfehlen die Vorgaben der EU-Wasserrahmenrichtlinie eines „guten ökologischen Zustandes“ – so auch die Weschnitz. Das soll sich mit der Renaturierung des Flusses und der Deichsanierung zwischen Biblis und Einhausen ändern. Damit dies gelingt, wurden im von der Deutschen Bundesstiftung Umwelt geförderten Forschungsprojekt Weschnitz Dialog Kommunikations- und Beteiligungsformate zur Konfliktvermeidung begleitet. So konnten gemeinsam mit allen Akteuren wirksame Lösungen zum Gewässer- und Hochwasserschutz geplant werden. 

Zum Abschluss des Projekts laden die Forschungspartner ISOE, der Geo-Naturpark Bergstraße-Odenwald sowie der Gewässerverband Bergstraße zu einer Online-Diskussion ein, bei der es nicht nur um verständliche Wissenschaft, Bildung für eine nachhaltige Entwicklung und pragmatische Lösungen geht, sondern auch um literarische Entdeckungen. Zur Einstimmung in die Veranstaltung, die pandemiebedingt digital stattfinden muss, nimmt Torsten Schäfer die Teilnehmenden mit auf eine Fluss-Entdeckungsreise in Südhessen: Der Professor für Journalismus an der Hochschule Darmstadt liest aus seinem aktuellen Buch „Wasserpfade“. 

Konflikte um Renaturierungsmaßnahmen frühzeitig berücksichtigen
Bei dem anschließenden Fachgespräch geht es um wichtige Fragen und Erfahrungen im Zusammenhang mit Renaturierungsmaßnahmen: Welche Potenziale bietet die Renaturierung auf dem Weg „Zurück zur Natur“ und wie sieht der Prozess konkret aus? Welche Rahmenbedingungen sind für die Renaturierung wichtig und welche Konflikte können sich durch unterschiedliche Interessen seitens Landwirtschaft, Stadtplanung und Naturschutzes ergeben? 

Im Zuge der Veranstaltung werden die Projektbeteiligten am Beispiel des Forschungsprojekts Weschnitz Dialog zeigen, wie eine sozial-ökologische Gestaltung der Renaturierung aussehen kann und wie Nutzungskonflikte entlang eines Gewässers frühzeitig berücksichtigt werden können. Zudem wird diskutiert, wie das Thema Gewässerschutz anschaulich für eine Bildung für nachhaltige Entwicklung genutzt werden kann. 

Für eine Teilnahme ist keine Anmeldung erforderlich. Der Zugangslink zur Veranstaltung wird ab dem 14. Juni 2021 unter http://www.weschnitz-dialog.de veröffentlicht.

Zurück zur Natur? Wie die Renaturierung unserer Gewässer sozial-ökologisch gestaltet werden kann

Diskussionsabend
Dienstag, 15. Juni 2021 – 18 Uhr
Online-Veranstaltung

Ablauf: 
Lesung Prof. Dr. Torsten Schäfer, Hochschule Darmstadt

Anschließend Fachgespräch mit: Ulrich Androsch (Gewässerverband Bergstraße, Lorsch), Dr. Jutta Weber (Geo-Naturpark Bergstraße Odenwald, Lorsch), Dr. Stefan Liehr (ISOE – Institut für sozial-ökologische Forschung, Frankfurt am Main), Prof. Dr. Jörg Ohlmann (Goethe Universität Frankfurt am Main), Matthias Beuth (Martin-Luther-Schule, Rimbach)

Moderation: Carla Schönfelder, Team Ewen, Darmstadt

Veranstalter: ISOE – Institut für sozial-ökologische Forschung in Zusammenarbeit mit dem Geo-Naturpark Bergstraße-Odenwald und dem Gewässerverband Bergstraße

Wissenschaftliche Ansprechpartner:
Dr. Katja Brinkmann
Tel. +49 69 707 6919-42
brinkmann@isoe.de

Weitere Informationen:
http://www.weschnitz-dialog.de

(nach oben)


Einladung zum IST-Webinar: „Power für den Tag – wie Sie Ihre Schlafprobleme lösen“

Alexandra Naumann Pressestelle
IST-Hochschule für Management
In den letzten Jahren sind Ein- und Durchschlafprobleme in den Fokus der öffentlichen Diskussion gerückt, denn immer mehr Menschen in Deutschland schlafen schlecht. Doch wie kann ein gesunder und entspannter Schlaf gefördert werden? Antworten gibt der renommierte Schlafmediziner Dr. Alfred Wiater einem kostenfreien Online-Fachvortrag des IST-Studieninstituts am 24. Juni 2021, um 18 Uhr.

Die meisten Menschen wissen, oft schon aus eigener Erfahrung, wie wichtig erholsamer Schlaf für die Gesundheit und für die Alltagsbewältigung ist. Nachts kommen sowohl Körper als auch Geist zur Ruhe. Die Folge: Der Mensch schöpft neue Energie für den Tag.

Hier setzt das IST-Webinar „Power für den Tag – wie Sie Ihre Schlafprobleme lösen“ am 24. Juni, um 18 Uhr, an. Denn sind die einzelnen Schlafphasen dauerhaft gestört, kann dies gesundheitliche Folgen haben.

Wie kann ein gesunder und entspannter Schlaf gefördert werden?
Dr. Alfred Wiater gibt erste hilfreiche Tipps, die man für einen gesunden Schlaf in der Alltagsroutine berücksichtigen sollte. Wiater war Chefarzt einer Kölner Klinik mit schlafmedizinischem Zentrum und Vorsitzender der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM). Derzeit berät er den DGSM-Vorstand als Vorstandsreferent, ist wissenschaftlich und als Dozent und Buchautor tätig.

Wer sich tiefergehend mit dem Thema „Schlaf“ auseinandersetzen möchte, kann das in der im Juli startenden, neuen Weiterbildung zum Schlafcoach, in der Dr. Wiater als Dozent tätig ist. Hier erarbeiten sich die Teilnehmer auf der Grundlage fundierter schlafmedizinischer Expertise in kompakten zwei Monaten umfassendes Wissen zur Prävention von Schlafstörungen und zum Umgang mit Schlafproblemen.

Weitere Informationen:
https://www.ist.de/aktion/1293 Hier geht es zur unverbindlichen Anmeldung.
https://www.ist.de/schlafcoach Hier gibt es alle Informationen zur Weiterbildung „Schlafcoach“.

(nach oben)


Steinmeier: Wir befinden uns mitten im Umbruch ins postfossile Zeitalter

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Bundespräsident und DBU eröffnen „Woche der Umwelt“

Osnabrück/Berlin. Bundespräsident Frank-Walter Steinmeier bereitet die Menschen in Deutschland wegen der Klimakrise auf eine „Transformation der Gesellschaft in einer gewaltigen Dimension“ vor. Der ressourcenschonende Umgang mit der Erde sei zugleich „nur durch eine globale Anstrengung zu bewältigen“, sagte er in einer wegweisenden Klimarede auf der „Woche der Umwelt“ im Park seines Amtssitzes Schloss Bellevue. „Wir befinden uns mitten im Umbruch ins postfossile Zeitalter“, so das Staatsoberhaupt.

Die mittlerweile sechste Auflage der Woche der Umwelt (WdU) unter dem Motto „So geht Zukunft!“ findet heute (Donnerstag) und morgen in bewährter Partnerschaft von Bundespräsident und der Deutschen Bundesstiftung Umwelt (DBU) statt, dieses Mal wegen der Corona-Pandemie aber im hybriden Format – teils in Präsenz im Park von Schloss Bellevue, teils in digitalen Fachforen. Per Livestream ist alles hautnah zu verfolgen; alle Infos finden sich hier: https://www.woche-der-umwelt.de/. DBU-Generalsekretär Alexander Bonde sagte, die Woche der Umwelt solle „ein großer Ansporn sein, sich für den Erhalt unseres Planeten zu engagieren“. Und sie fordere mit ihrem Versprechen „So geht Zukunft!“ trotz einer der größten globalen Krisen der Menschheit dazu auf, „mit Mut, Ideen und Innovationen Lösungen für mehr Klima-, Umwelt-, Ressourcen- und Artenschutz zu finden“. Ein Schlüssel sei die Circular Economy, eine umfassende Kreislaufwirtschaft. Bonde: „Wir müssen lernen, in Kreisläufen zu leben, denken und zu handeln. Der Raubbau an Rohstoffen muss enden.“

EU-Kommissionspräsidentin Ursula von der Leyen und US-Klimabeauftragter John Kerry nehmen teil
Dass Klima- und Umweltschutz nicht nur in Deutschland, sondern europa- und weltweit ganz oben auf der politischen Agenda stehen, zeigt die Teilnahme zweier Persönlichkeiten bei der WdU: EU-Kommissionspräsidentin Ursula von der Leyen und US-Klimaschutzbeauftragter John Kerry. Er skizzierte per Videobotschaft Zukunftsstrategien seines Landes unter dem neuen US-Präsidenten Joe Biden. Dieser hatte den Austritt seines Vorgängers Donald Trump aus dem Pariser Klimaschutzabkommen von 2015 rückgängig gemacht. Während von der Leyen keinen Zweifel daran ließ, dass die Europäische Union alles daran setzen werde, den europäischen Grünen Deal umzusetzen und ein klimaneutrales Wirtschaften in der EU bis 2050 zu erreichen, mahnte Kerry „weltweite Anstrengungen“ an, um katastrophale Folgen der Klimakrise zu verhindern. Die USA seien dazu bereit. Bis 2030 wolle sein Land den Ausstoß an Treibhausgasen im Vergleich zu 2005 halbieren. US-Präsident Biden wolle in allen Wirtschaftssektoren eine Abkehr von Kohlenstoff. Kerry: „Diese Dekade ist entscheidend im Kampf gegen die Klimakrise, vor uns liegt enorm viel Arbeit. Aber darin steckt ein riesiges Wirtschaftspotenzial.“ Es entstehe „ein Billionen-Markt“ mit gutbezahlten Jobs „auf beiden Seiten des Atlantiks“ und mit neuen Technologien für saubere Energien.

„Veränderungen in allen Bereichen des Alltags“
Bundespräsident Steinmeier sagte in seiner Rede, es freue ihn „sehr, dass sich die Vereinigten Staaten dazu entschieden haben, dem Pariser Klimaabkommen wieder beizutreten“. Die Weltklimakonferenz hatte seinerzeit unter anderem beschlossen, die Weltwirtschaft auf klimafreundliche Weise zu verändern und die menschengemachte Erderwärmung bis zum Jahr 2100 auf unter zwei Grad Celsius und sogar möglichst unter 1,5 Grad Celsius im Vergleich zum vorindustriellen Zeitalter zu begrenzen. Die Klima-Ziele seien keineswegs abstrakt und fern, so Steinmeier. „Setzen wir sie um, so werden wir Veränderungen in allen Bereichen des Alltags spüren – in der Landwirtschaft, in der Energieversorgung, vor allem im Wohnungsbau und im Verkehr.“ Aufbruchserwartung und Umbruchsangst würden miteinander ringen, so der Bundespräsident weiter. Was zu hoffen und was zu fürchten sei, „sind Fragen einer Gesellschaft, die im Übergang ist, in einer großen Transformation, die viele zu Recht mit der industriellen Revolution des 19. Jahrhunderts vergleichen“. Anders als damals gehe es heute jedoch nicht mehr um den „Aufstieg der fossilen Industrialisierung“. Steinmeier: „Wir befinden uns mitten im Ausstieg daraus.“

Winter ohne Schneemänner
Es sei klar, dass der Planet „durch den übermäßigen Verbrauch von Ressourcen in Gefahr ist“ – doch der Weg aus diesem Risiko „noch lange nicht“. Der Bundespräsident brachte für den Weg in eine klimaneutrale Zukunft gewissermaßen einen neuen Generationenvertrag für Klimaschutz ins Gespräch: So wie die jungen Menschen in der Corona-Pandemie zurückgesteckt hätten, um Ältere und Gefährdete zu schützen, „so müssen wir uns jetzt anstrengen, um ihre Zukunft und die Zukunft künftiger Generationen zu schützen.“ Denn Klimawandel sei schon jetzt sicht- und spürbar und verändere bereits „unser Leben: Er zeigt sich in den Gezeiten, die sich verschieben, in den Wintern ohne Schneemänner“ und auch „in gefährlich trockenen Böden und Wäldern“.

Weitere Informationen:
https://www.dbu.de/123artikel39036_2442.html Online-Pressemitteilung

(nach oben)


Kniearthrose: Wann kommt ein Gelenkersatz infrage? Gibt es Alternativen? IQWiG legt Entscheidungshilfe vor

Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
Kniearthrose: Wann kommt ein Gelenkersatz infrage? Gibt es Alternativen? IQWiG legt Entscheidungshilfe vor
Unterstützung für Betroffene bei der Entscheidung für oder gegen eine Gelenkersatzoperation.

Das IQWiG hat im Auftrag des Gemeinsamen Bundesausschusses (G-BA) eine Entscheidungshilfe zu Gelenkersatzoperationen bei Kniegelenkarthrose erstellt. Diese soll Betroffene dabei unterstützen, sich gemeinsam mit ihrer Ärztin bzw. ihrem Arzt für oder gegen bestimmte Behandlungsoptionen bei Kniegelenkarthrose zu entscheiden.
Die Entscheidungshilfe ist Teil des gesetzlich festgelegten Zweitmeinungsverfahrens: Bei vielen Krankheiten gibt es mehr als eine Behandlungsmöglichkeit. Oft ist aber keine der Alternativen ideal, jede hat ihre Vor- und Nachteile. Dann hängt es stark von der persönlichen Situation und den eigenen Wünschen ab, was die beste Wahl ist. Einen zweiten Arzt zu befragen, kann bei der Entscheidung helfen. Seit 2015 haben gesetzlich Krankenversicherte Anspruch auf das Einholen einer ärztlichen Zweitmeinung bei festgelegten planbaren Operationen.

2019: 194.000 Kniegelenkersatz-Operationen
Es ist nicht genau bekannt, wie viele Menschen eine Kniearthrose haben. In Deutschland geben etwa vier Prozent aller Erwachsenen an, von einer ärztlich behandelten Kniearthrose betroffen zu sein. Die Häufigkeit nimmt mit dem Alter zu und steigt etwa ab dem 40. Lebensjahr stetig an.
Die Zahl der Kniegelenkersatz-Operationen steigt in Deutschland seit 2013 kontinuierlich an, im Jahr 2019 wurden bundesweit knapp 194.000 Implantationen durchgeführt. Dabei werden die Operierten immer jünger. Auffallend ist auch, dass die Operationshäufigkeiten je nach Wohnort sehr unterschiedlich sind.
Kniearthrose kann unterschiedlich verlaufen, wobei die Beschwerden meist über viele Jahre eher langsam zunehmen oder sogar stabil bleiben. Kniearthrose kann aber auch in Schüben auftreten – dann wechseln sich Phasen stärkerer Beschwerden mit beschwerdefreien oder beschwerdearmen Phasen ab. Nur bei einem kleinen Teil der Menschen mit Kniearthrose sind die Beschwerden irgendwann so stark, dass sie sich für einen Eingriff entscheiden.
Heilen lässt sich Arthrose nicht. Es gibt aber verschiedene Möglichkeiten, die Beschwerden zu lindern. Ein wichtiger Baustein der konservativen (= nicht operativen) Therapie ist die Bewegungstherapie, weil gut ausgebildete Muskeln das Kniegelenk stabilisieren und schützen. Zudem erreichen die Nährstoffe aus der Gelenkflüssigkeit den Knorpel nur durch Druck – etwa beim Gehen oder gezielten Training.
Die Bewegungstherapie kann je nach Bedarf durch weitere Behandlungsoptionen wie u. a. Schmerztherapie, Gewichtsreduktion oder Hilfsmittel (Schuheinlagen, Kniebandagen oder -schienen) ergänzt werden.
Ein Gelenkersatz kommt infrage, wenn über mehrere Monate starken Schmerzen bestehen, die die Lebensqualität beeinträchtigen – und wenn eine konservative Therapie die Beschwerden nicht ausreichend lindern kann. Bei dieser Operation wird das natürliche Kniegelenk ganz oder teilweise durch eine Prothese aus Metall und Kunststoff ersetzt.

Entscheidungshilfe des IQWiG
Die jetzt vorgelegte Entscheidungshilfe des IQWiG beschreibt die verschiedenen Behandlungsmöglichkeiten bei Kniearthrose. Sie unterstützt Patientinnen und Patienten bei der Entscheidung zwischen Kniegelenkersatzoperation und konservativen Therapien.
„Ein Gelenkersatz kann fortgeschrittene Kniearthrose bei den meisten Betroffenen sehr wirksam lindern – aber natürlich hat so ein großer Eingriff auch Risiken. Zudem wissen wir aus Studien, dass eine gute konservative Behandlung helfen kann, eine Operation mehrere Jahre hinauszuzögern oder sogar ganz zu vermeiden. Unsere Entscheidungshilfe soll die wichtigsten Alternativen aufzeigen und das ausführliche Gespräch mit der behandelnden Ärztin bzw. dem behandelnden Arzt unterstützen“, betont Roland Büchter aus dem IQWiG-Ressort Gesundheitsinformation.

Ergänzende Informationen zu Nachoperationen
Etwa fünf bis zehn Prozent der eingesetzten künstlichen Kniegelenke werden innerhalb von zehn Jahren nachoperiert. Dabei lässt sich auch die Frage, ob bei Problemen mit der Prothese wirklich ein zweiter Eingriff nötig ist, nicht immer leicht beantworten. Daher gibt es für die Nachoperation ebenfalls das Recht auf eine zweite Meinung.
Für diese Situation hat das IQWiG in der Rubrik „Mehr Wissen“ auf gesundheitsinformation.de einen eigenen Text mit dem Titel „Probleme mit der Knieprothese: Wann ist eine Nachoperation nötig?“ erstellt, das ausführlich beschreibt, wann eine Nachoperation tatsächlich notwendig ist oder doch vermieden werden könnte.

Wie läuft das Zweitmeinungsverfahren ab?
Die Entscheidungshilfe ist ein Baustein des seit 2015 gesetzlich festgelegten Zweitmeinungsverfahrens. Das bedeutet: Eine Ärztin oder ein Arzt, die/der einen planbaren Eingriff empfiehlt, muss die Betroffenen auf ihr Recht hinweisen, diese Behandlungsentscheidung noch einmal kostenfrei mit Spezialisten einer anderen Praxis oder Klinik besprechen zu können.
Für welche planbaren Eingriffe das Zweitmeinungsverfahren gilt, entscheidet der G-BA. Bislang besteht ein vom G-BA geregelter Zweitmeinungsanspruch bei Operationen an den Gaumen- und/oder Rachenmandeln (Tonsillektomien, Tonsillotomien), bei Gebärmutterentfernungen (Hysterektomien), arthroskopischen Eingriffen am Schultergelenk und bei Amputationen beim Diabetischen Fußsyndrom.

Zum Projektverlauf
Der G-BA hatte das Institut am 15. Oktober 2020 mit der Erstellung der Entscheidungshilfe zu Gelenkersatzoperationen bei Kniearthrose beauftragt.
Die Entscheidungshilfe wurde nach den Allgemeinen Methoden des IQWiG erstellt und hat eine Nutzertestung und Stellungnahme durchlaufen. Sie wird auf der IQWiG-Website gesundheitsinformation.de veröffentlicht und im Rahmen der üblichen Aktualisierung spätestens nach drei Jahren auf Aktualität überprüft und bei Bedarf angepasst.

Weitere Informationen
Das IQWiG hat in früheren Aufträgen bereits Entscheidungshilfen zu Gebärmutterentfernung, Mandeloperation, Schultereingriffen und zu Amputationen beim diabetischen Fußsyndrom erstellt.
Diese Entscheidungshilfen sind auf der Website gesundheitsinformation.de in umfassende Themenpakete zu den jeweiligen Erkrankungen eingebunden. Die Entscheidungshilfen lassen sich dort als PDF herunterladen und kostenfrei in beliebiger Menge ausdrucken.

Originalpublikation:
https://www.iqwig.de/projekte/p20-03.html

Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_39…

(nach oben)


KIT: Zuckerhirse: Süßes Versprechen für die Umwelt

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Zuckerhirse lässt sich zur Herstellung von Biogas, Biokraftstoffen und neuen Polymeren nutzen. Zudem kann sie dazu beitragen, Phosphatdünger zu ersetzen. Eine am Karlsruher Institut für Technologie (KIT) entwickelte neue Zuckerhirsesorte akkumuliert besonders viel Zucker und gedeiht unter heimischen Bedingungen. Wie die Forschenden in der Zeitschrift Industrial Crops & Products berichten, hängen der Zuckertransport und die Zuckerakkumulation mit dem Bau der Leitungsbahnen der Pflanzen zusammen. Dies ergab ein Vergleich zwischen Zucker- und Körnerhirse. (DOI: 10.1016/j.indcrop.2021.113550).

Zuckerhirse lässt sich zur Herstellung von Biogas, Biokraftstoffen und neuen Polymeren nutzen. Zudem kann sie dazu beitragen, Phosphatdünger zu ersetzen. Eine am Karlsruher Institut für Technologie (KIT) entwickelte neue Zuckerhirsesorte akkumuliert besonders viel Zucker und gedeiht unter heimischen Bedingungen. Wie die Forschenden in der Zeitschrift Industrial Crops & Products berichten, hängen der Zuckertransport und die Zuckerakkumulation mit dem Bau der Leitungsbahnen der Pflanzen zusammen. Dies ergab ein Vergleich zwischen Zucker- und Körnerhirse. (DOI: 10.1016/j.indcrop.2021.113550).

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2021_054_zuckerhirse-susses-versprechen-fur-die-umwel…

Mit der Weltbevölkerung wächst der Bedarf an Nahrungsmitteln, Rohstoffen und Energie. Dadurch nehmen die Belastungen für die Umwelt und das Klima zu. Eine Strategie, den Treibhausgasausstoß zu verringern, besteht darin, sogenannte C4-Pflanzen anzubauen. Diese betreiben besonders effizient Photosynthese, binden daher Kohlendioxid (CO2) besser und bauen mehr Biomasse auf als andere Pflanzen. Gewöhnlich sind sie an sonnige und warme Standorte gebunden. Zu den C4-Pflanzen gehört die Sorghumhirse, auch Mohrenhirse genannt, eine Hirseart aus der Gattung Sorghum in der Familie der Süßgräser. Die besonders zuckerhaltigen Sorten heißen Zuckerhirse. Zu den weiteren Sorten gehört die als Futtermittel eingesetzte Körnerhirse. Sorghumhirse lässt sich auf schwer zu bewirtschaftenden sogenannten Grenzertragsflächen anbauen, sodass sie nicht mit sonstigen Nahrungs- oder Futterpflanzen in Konkurrenz tritt.

Eine neue Zuckerhirsesorte namens KIT1 hat Dr. Adnan Kanbar in der Arbeitsgruppe Molekulare Zellbiologie unter Leitung von Professor Peter Nick am Botanischen Institut des KIT entwickelt. KIT1 akkumuliert besonders viel Zucker und gedeiht besonders gut unter gemäßigten Klimabedingungen. Sie lässt sich sowohl energetisch zur Herstellung von Biogas und Biokraftstoffen als auch stofflich zur Produktion neuer Polymere nutzen. Der geschätzte Zuckerertrag je Hektar liegt bei über 4,4 Tonnen, was knapp 3 000 Litern Bioethanol entspräche. Darüber hinaus lassen sich die bei der Biogasherstellung anfallenden Gärreste als Dünger nutzen, der den knapp werdenden Phosphatdünger ersetzen kann.

Auf die Anatomie des Pflanzenstängels kommt es an
Forschende im Nick-Labor am Institut für Angewandte Biowissenschaften und am Institut für Technische Chemie des KIT sowie bei der ARCUS Greencycling Technology in Ludwigsburg haben nun die Zuckerhirsesorte KIT1 und die Körnerhirsesorte Razinieh miteinander verglichen, um die unterschiedliche Zuckerakkumulation im Pflanzenstängel zu untersuchen. Für die in der Zeitschrift Industrial Crops & Products publizierte Studie betrachtete das Team die Stängelanatomie. Dazu zählen die verdickten Bereiche oder Knoten (Nodien) und die schmalen Bereiche oder Abstände zwischen den Knoten (Internodien), aber auch Transkripte wichtiger Saccharose-Transporter-Gene sowie Stressreaktionen der Pflanzen bei hoher Salzkonzentration im Boden. Sowohl bei KIT1 als auch bei Razinieh war die Zuckerakkumulation in den mittleren Internodien am höchsten. Allerdings zeigte sich ein Zusammenhang zwischen der Zuckerakkumulation und dem Bau der Leitungsbahnen, die dem Transport von Wasser, gelösten Stoffen und organischen Substanzen dienen. Die Leitungsbahnen sind zu Leitbündeln gruppiert. Diese bestehen aus dem Phloem (Bastteil) und dem Xylem (Holzteil). Im Phloem werden vor allem Zucker und Aminosäuren, im Xylem vor allem Wasser und anorganische Salze transportiert; zudem übernimmt das Xylem eine stützende Funktion. Die Untersuchung ergab, dass bei KIT1 und fünf weiteren Zuckerhirsesorten im Stängel die Phloem-Querschnittsfläche wesentlich größer als die Xylem-Querschnittsfläche ist – der Unterschied ist viel ausgeprägter als bei der Körnerhirsesorte Razinieh. „Untere Studie ist die erste, die sich mit dem Zusammenhang zwischen dem Bau der Leitbündel und der Zuckerakkumulation im Stängel befasst“, sagt Nick.

Zuckerhirse wird mit Salzstress besser fertig
Wie die Studie weiter ergab, führte Salzstress zu höherer Zuckerakkumulation in KIT1 als in Razinieh. Die Expression von Saccharose-Transporter-Genen ist in den Blättern von KIT1 unter normalen Bedingungen höher und steigt unter Salzstress deutlich an. „Neben den anatomischen Faktoren könnten auch molekulare Faktoren die Zuckerakkumulation im Stängel regulieren“, erläutert Kanbar. „Auf jeden Fall kommt KIT1 mit Salzstress besser zurecht.“ (or)

Originalpublikation
Adnan Kanbar, Ehsan Shakeri, Dema Alhajturki, Michael Riemann, Mirko Bunzel, Marco Tomasi Morgano, Dieter Stapf, Peter Nick: Sweet versus grain sorghum: Differential sugar transport and accumulation are linked with vascular bundle architecture. Industrial Crops & Products, 2021. DOI: 10.1016/j.indcrop.2021.113550

Abstract unter https://doi.org/10.1016/j.indcrop.2021.113550

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Originalpublikation:
Abstract unter https://doi.org/10.1016/j.indcrop.2021.113550

Weitere Informationen:
https://www.kit.edu/kit/pi_2021_054_zuckerhirse-susses-versprechen-fur-die-umwel…

(nach oben)


Gewässerschutz: Deutsche haben ökologische Grundwerte, aber wenig Bezug zu Fischen

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
In einer Längsschnittstudie mit jeweils 1.000 Befragten in Frankreich, Deutschland, Norwegen und Schweden untersuchten Wissenschaftler*innen unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB), welche Werte, Überzeugungen und Normen naturschutzorientiertes Verhalten gegenüber heimischen Flussfischen fördern. Die Studie zeigt: Die Deutschen haben wenig Bezug zu Fischen. Der Schutz von Fischen wird hierzulande eher durch allgemeine pro-ökologische Werthaltungen und Normen gestützt. In Frankreich, Schweden und Norwegen haben heimischen Fischarten hingegen großes Gewicht für das individuelle naturschutzorientierte Verhalten.

Süßwasserökosysteme beherbergen weltweit etwa ein Drittel aller Wirbeltierarten und 43 Prozent aller Fischarten. In Europa sind mehr als 40 Prozent der heimischen Süßwasserfische bedroht oder bereits ausgestorben: Gewässerverbau, Wasserkraft und Aufstau, Verschmutzung, Klimawandel, invasive Arten und zum Teil auch die Überfischung sind die Hauptursachen dafür. Es hängt also von unserem Handeln ab, wie sich Gewässer und Fischarten entwickeln. Um Flüsse und Fischbestände besser zu schützen, muss man Menschen überzeugen – doch nicht jedes Argument zieht: Wie eine aktuelle Studie zeigt, muss man den kulturellen Kontext beachten, in dem die Öffentlichkeit die Bedrohung der Artenvielfalt wahrnimmt und darauf reagiert.

Die Forschenden des IGB, der Humboldt-Universität zu Berlin und internationale Kooperationspartner*innen nutzten die umweltpsychologische Werte-Überzeugungen-Normen Theorie, um zu untersuchen, wovon umweltfreundliches Verhalten am Beispiel des Fischartenschutzes abhängt. Dr. Carsten Riepe, Erstautor der Veröffentlichung im Fachjournal Society and Natural Resources, betont: „Das Besondere unserer Studie liegt darin, dass wir nicht nur Verhaltensabsichten betrachtet haben, sondern auch das tatsächlich gezeigte Verhalten im Alltag der Menschen erhoben haben – beispielsweise die Spendenbereitschaft von Menschen für Maßnahmen, die dem Fischartenschutz in Flüssen zugutekommen. Das erhöht die Aussagekraft unserer Umfrage enorm.“

Gleiche ökologische Grundwerte, unterschiedliche Verbundenheit mit Fischen:
Die Befragten in den vier Ländern zeigten ähnliche umweltbezogene Überzeugungen, Einstellungen und Normen. Beispielsweise waren ökologische Grundwerte und der Erhalt der biologischen Vielfalt in und an Flüssen allen Befragten mehrheitlich wichtig. Der überwiegende Teil fühlte sich sogar tendenziell moralisch verpflichtet, Bedrohungen für den Rückgang der Fischartenvielfalt in Flüssen abzumildern.
In den vier Ländern gab es aber auch einige relevante Unterschiede: So deuten die Umfrageergebnisse aus Norwegen – aber auch aus Schweden und Frankreich – auf eine höhere Verbundenheit mit Fischen und der aquatischen Umwelt hin. In diesen drei Ländern war der Schutz heimischer Fischarten ein besonders wichtiger Anreiz für naturschutzorientiertes Verhalten; in Deutschland hingegen hatte der ökologische Gesamtkontext mehr Gewicht. Deutsche zeigten im Vergleich zu den anderen drei Ländern insgesamt wenig Bezug zu Fischen und der aquatischen Umwelt.

Ökologische und gesellschaftliche Länderunterschiede wirken sich auf die gesellschaftliche und politische Wahrnehmung von Fischen und Flüssen aus:
„Die vier untersuchten Länder unterscheiden sich in ihren Fischgemeinschaften und dem Zustand ihrer Süßgewässer. Außerdem gibt es kulturelle, freizeitbezogene und sozio-ökonomische Unterschiede. Diese Faktoren beeinflussen auch das naturschutzorientierte Denken und Verhalten in Bezug auf den Fischartenschutz. Die Ergebnisse erklären, warum bestimmte Länder höhere Investitionen in den Fischschutz tätigen, warum fischbezogene Themen unterschiedlich im politischen Diskurs auftreten und warum es zwischen den europäischen Ländern Unterschiede in der gesellschaftlichen Bedeutung und in der Wahrnehmung von Fischen und der Fischerei gibt“, erläutert der Projektleiter Professor Dr. Robert Arlinghaus vom IGB.

Wichtige Erkenntnisse für die Umweltbildung:
Aus den Ergebnissen leiteten die Forschenden Erkenntnisse für effektive Umweltbildungs- und Interventionskampagnen ab. Diese Maßnahmen – beispielsweise initiiert von Ministerien oder von umweltbezogenen Nichtregierungsorganisationen – brauchen einen argumentativen Rahmen, der den Nerv der Adressaten trifft: „Ein vielversprechender Weg besteht darin, die Kernbotschaft einer Informationskampagne in ein Narrativ einzubetten, das länderspezifische Bezüge zur Art und Weise der Umweltwahrnehmung herstellt. Während Themen und Fakten rund um den Wildlachs oder die Bachforelle Menschen in Norwegen und Schweden begeistern, erreicht man die Deutschen eher mit allgemeinen Themen wie der Wasserqualität oder der Gefährdung der Biodiversität als Ganzes“, fasst Carsten Riepe die praktischen Schlussfolgerungen der Studie für die Umweltbildung und -kommunikation zusammen.

Wissenschaftliche Ansprechpartner:
Dr. Carsten Riepe
Email: riepe@igb-berlin.de

Prof. Dr. Robert Arlinghaus
Forschungsgruppenleiter am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) und
Professor für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin
E-Mail: arlinghaus@igb-berlin.de
Tel.: +49 30 64181-653
http://www.ifishman.de

Originalpublikation:
Carsten Riepe, Ulf Liebe, Marie Fujitani, Sophia Kochalski, Øystein Aas & Robert Arlinghaus (2021): Values, Beliefs, Norms, and Conservation-Oriented Behaviors toward Native Fish Biodiversity in Rivers: Evidence from Four European Countries, Society & Natural Resources, 34:6, 701-722, DOI: 10.1080/08941920.2021.1890865

Weitere Informationen:
https://www.igb-berlin.de/news/gewaesserschutz-deutsche-haben-oekologische-grund…

(nach oben)


Roboterhunde auf der Baustelle

Franziska Trede Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Der digitale Wandel ist überall zu finden. Das beschränkt sich nicht nur auf sprachgesteuerte Fernseher oder selbstfahrende Autos. Auch der Bau von Hochhäusern kann durch die Digitalisierung optimiert werden. „Noch vor einigen Jahren hätte man es für unmöglich gehalten, Beton zu drucken. Jetzt können wir sogar ganze Häuser mithilfe von 3D-Druck errichten“, sagt Kay Smarsly. Seit dem 1. März 2021 ist er Professor und Leiter des neuen Instituts für Digitales und Autonomes Bauen (IDAC) an der Technischen Universität Hamburg und arbeitet an den Gebäuden der Zukunft. „Alle meine Forschungsideen sind dadurch motiviert, Mensch und Natur zu schützen und das Leben angenehmer zu machen.“

Beton-Kontrolle durch Laufroboter
So beschäftigt sich Smarsly in seiner Forschung unter anderem mit Beton-Druck, Künstlicher Intelligenz (KI) sowie intelligenten Sensoren, die für die Überwachung von Brücken, Talsperren oder Hochhäusern eingesetzt werden. Aktuell arbeiten er und sein Team an intelligenten Laufrobotern, die Bauwerke überwachen und miteinander kommunizieren können. Mithilfe von Laserscannern und weiteren Sensoren erfassen sie Messdaten von Gebäuden, die sie dann durch KI selbstständig analysieren und an die angeschlossenen Computersysteme weiterleiten. „Die Roboter können sich eigenständig in den Bauwerken zurechtfinden und erinnern dabei ein wenig an herumstreunende Hunde“, erklärt der TU-Professor. Sobald sie bei ihren Kontrollgängen Auffälligkeiten im Beton messen, zum Beispiel Risse, werden die verantwortlichen Mitarbeiterinnen und Mitarbeiter auf der Baustelle sofort digital benachrichtigt. Das erleichtert nicht nur die Bauarbeiten, sondern macht auch die Gebäude sicherer.

Umweltschutz durch Sensoren
Auch Themen wie Umwelt gehören zum Forschungsprofil von Kay Smarsly. Die von ihm entwickelten intelligenten Sensoren, können nicht nur Schäden an Bauwerken, sondern auch Schadstoffe im Boden messen. Dadurch kann unter anderem die Trinkwasserqualität jederzeit und an jedem Ort kostengünstig und leicht bedienbar geprüft werden. „Diese Technologie möchten wir langfristig auch in Entwicklungsländern einsetzen“, so Smarsly.

Die Vielseitigkeit, die sein Forschungsbereich mit sich bringt, fasziniert den TU-Forscher: „Der digitale Wandel ermöglicht es mir, visionäre Ideen umzusetzen und interdisziplinär zu arbeiten.“ Eine wissenschaftliche Karriere hatte er während seines Bauingenieur-Studiums aber eigentlich nie im Sinn. Er habe es einfach auf sich zukommen lassen: „’Ett kütt wie et kütt’ – wie man in meiner Heimat, dem Rheinland, so schön sagt.“ Vor seiner Tätigkeit an der TU Hamburg war Smarsly Professor und Lehrstuhlinhaber an der Bauhaus-Universität Weimar.

Weitere Informationen auf der Homepage des Instituts für Digitales und Autonomes Bauen: http://www.tuhh.de/alt/idac.

Das Institut für Digitales und Autonomes Bauen ist in den sozialen Medien auf Instagram und Twitter vertreten:
https://www.instagram.com/idac_tuhh/
https://twitter.com/IDAC_TUHH

Wissenschaftliche Ansprechpartner:
Professor Smarsly: kay.smarsly@tuhh.de

(nach oben)


Dem Meeresmüll trotzen

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Meeresmüll ist eines der drängendsten weltweiten Verschmutzungsprobleme. Nikoleta Bellou, Forscherin am Helmholtz-Zentrum Hereon, hat mit ihrem Team im renommierten Fachmagazin Nature Sustainability eine Überblicksstudie über die Lösungen zur Vermeidung, zum Monitoring und zur Reinigung veröffentlicht. Die Erkenntnis: Es braucht mehr Förderung, mehr Vernetzung der Akteure und mehr politischen Gestaltungswillen, sollen die Meere sauberer und nachhaltiger genutzt werden.

Plastikflaschen, die im Meer treiben. Tüten in den Mägen von Schildkröten. Corona-Masken, die auf Schaumkronen tanzen. Wenige Bilder sind so hässlich anzuschauen wie die Verschmutzung unserer Weltmeere. Und kaum ein Umweltproblem ist so drängend und gleichzeitig im öffentlichen Bewusstsein. „Die meisten Menschen haben eine Beziehung zum Meer. Sie erleben die Verschmutzung als Angriff auf ihren Sehnsuchtsort. Deshalb passt unsere Studie zur Nachhaltigkeit in die Zeit, auch vor dem Hintergrund der angebrochenen UN-Dekade der Meeresforschung“, sagt die Küstenforscherin Nikoleta Bellou vom Institut für Küstensysteme – Analyse und Modellierung des Helmholtz-Zentrums Hereon. Allein zwischen 1990 und 2015 sollen bis zu 100 Millionen Tonnen Müll in die Ozeane gelangt sein, vor allem Kunststoffe.

Die neue Überblicksstudie erfasst erstmals das Gros der Lösungen – Technologien und Methoden – zu Prävention, Monitoring und Säuberung mit innovativem Charakter. Mit Blick auf die Zukunft hat Nikoleta Bellou mit einem internationalen Team Lösungen aus aller Welt eingeordnet und analysiert. Beteiligt waren unter Führung des Helmholtz-Zentrums Hereon noch der National Research Council of Italy, das Marine Enviromental Sciences Centre, die National Technical University of Athens, die Smithsonian Institution und Maritme Robotics.

In jede Schublade schauen
Das Team hat jede Schublade einmal geöffnet und hineingeschaut. Dabei wurde alles unter die Lupe genommen – von Crowdfunding-Projekten bis hin zu Forschungsdatenbanken. Die Forschenden haben fast 200 geplante oder bereits umgesetzte Lösungen betrachtet, bei denen etwa Drohnen, Roboter, Förderbänder, Netze, Pumpen oder Filter zum Einsatz kommen sollen – je nachdem, ob sie an der Küste, auf hoher See oder am Meeresgrund säubern.

Während bis heute viele Entwickler ähnliche technologische Ansätze verwenden, gibt es Hinweise, dass die nächste Generation zunehmend auf unterschiedlichste Lösungen setzt. Bei diesen integrieren sie immer öfter maschinelles Lernen, Robotik, Automatisierungen, Big-Data-Analysen und Modellierungen. Während die wissenschaftliche Gemeinschaft laut dieser Studie ihr hauptsächliches Augenmerk auf das Monitoring zu legen scheint und NGOs meist auf die Prävention schauen, entstanden die meisten Reinigungslösungen durch Kooperationen verschiedener Akteure.

Selten umgesetzt
Trotz aller guten Vorsätze: Die meisten Projekte kommen nicht über eine Entwicklungsphase hinaus. Fast keine der Lösungen ist technisch Realität geworden oder gar auf dem Markt. Der Planstatus müsse überwunden und vieles fertiggedacht werden, so die Autoren. „Die Eingliederung von Lösungen in Richtlinien muss politisch gepusht werden, um so eine Branche der Zukunft zu etablieren“, sagt Bellou. Basierend auf Recherchen und Datenerhebungen zeigt die Analyse, wie weit die Informationen verstreut und zudem oft schwer zugänglich sind. Die meisten Lösungen, rund 60 Prozent, hatten primär das Monitoring zum Ziel und wurden in den letzten drei Jahren entwickelt.

Empfehlungen an die Politik
Die Studie geht auf die Grenzen bestehender und die Herausforderungen bei der Entwicklung neuer Lösungen ein. Zusätzlich gibt sie Handlungsempfehlungen für die Politik ab. Neben internationaler Kooperation von Forschenden und nationaler Umweltministerien und behörden, empfehlen die Wissenschaftlerinnen und Wissenschaftler eine Definition von Standards für jede Lösung, etwa die Bewertung nach jeweiliger Größe, Effizienz und umweltverträglichem Fußabdruck. Dann kann das Auflegen neuer Förderprogramme zur Weiterentwicklung bekannter und neuer Lösungen folgen, flankiert durch eine globale Datenbank. „Auf die Weise bestärken wir Forschende aber auch politische Entscheider und Entscheiderinnen, einen nachhaltigen Ansatz zu entwickeln für die Eindämmung des Meeresmülls. Damit wir künftigen Generationen einen sauberen Ozean hinterlassen“, sagt Nikoleta Bellou.

Wissenschaftliche Ansprechpartner:
Dr. Nikoleta Bellou I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I nikoleta.bellou@hereon.de

Christoph Wöhrle I Helmholtz-Zentrum Hereon I Kommunikation und Medien
T: +49 (0) 4152 87-1648 I presse@hereon.de I http://www.hereon.de

Originalpublikation:
https://www.nature.com/articles/s41893-021-00726-2

Weitere Informationen:
https://www.hereon.de/institutes/coastal_systems_analysis_modeling/index.php.de

(nach oben)


Wie Katalysatoren altern

Dr. Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
PSI-Forschende haben eine neues Tomografie-Verfahren entwickelt, mit dem sie chemische Eigenschaften im Inneren von Katalysator-Materialien in 3-D extrem genau und schneller als bislang messen können. Die Anwendung ist gleichermassen für Forschung und Industrie wichtig. Ihre Ergebnisse veröffentlichten die Forschenden heute in der Fachzeitschrift Science Advances.

Die Materialgruppe der Vanadium-Phosphor-Oxide (VPO) ist in der chemischen Industrie weit verbreitet als Katalysator. Bereits seit den 1970er-Jahren werden VPO bei der Herstellung von Maleinsäure-Anhydrid eingesetzt; dies wiederum ist Ausgangsmaterial zur Herstellung bestimmter Arten von Plastik, darunter zunehmend biologisch abbaubarer Kunststoffe. In der Industrie werden die Katalyse-Materialien über mehrere Jahre genutzt, denn sie spielen zwar für den Ablauf der chemischen Reaktionen eine wichtige Rolle, werden dabei selbst aber nicht verbraucht. Dennoch verändert sich der VPO-Katalysator durch diesen Einsatz mit der Zeit.

Forschende aus zwei Einheiten des Paul Scherrer Instituts PSI – dem Forschungsbereich für Photonenforschung sowie dem Bereich Energie und Umwelt – haben nun in Zusammenarbeit mit der ETH Zürich und der Schweizer Firma Clariant AG den Alterungsprozess von VPO genau untersucht – und in diesem Zuge auch ein neues experimentelles Verfahren entwickelt.

Zwei Methoden…
Die Clariant AG ist ein weltweit führendes Unternehmen für Spezialchemie. Clariant stellte dem PSI zwei Proben zur Verfügung: Erstens eine Probe aus bislang ungenutztem VPO und zweitens VPO, das vier Jahre lang als Katalysator im industriellen Betrieb eingesetzt worden war. Dass sich das VPO mit den Einsatzjahren verändert und seine gewünschten Eigenschaften leicht einbüsst, war schon lange bekannt. Nicht restlos geklärt war jedoch bisher, welche Prozesse in der Nano-Struktur und auf der Ebene der Atome hierfür verantwortlich sind.

Dieser Frage gingen die PSI-Forschenden mittels hochmoderner Methoden der Materialcharakterisierung nach. Um den chemischen Aufbau der Proben auf der Nano-Skala sichtbar zu machen, kombinierten sie zwei Verfahren: Erstens eine bestimmte, zuvor am PSI entwickelte Tomografie-Methode namens ptychografische Röntgen-Computertomografie, die die Röntgenstrahlung der Synchrotron Lichtquelle Schweiz SLS nutzt und zerstörungsfrei das Innere der Probe in 3-D und mit Nano-Auflösung abbilden kann. Zweitens nahmen die Forschenden eine lokale Transmissionsspektroskopie-Methode hinzu, die zusätzlich in jedem Volumenelement der Tomogramme die chemischen Eigenschaften des Materials aufzeigte.

«Im Grunde haben wir 4-dimensionale Daten erhoben», erklärt Johannes Ihli, Forscher am PSI und einer der Studien-Autoren: «Wir haben eine hochaufgelöste 3-D-Darstellung unserer Probe rekonstruiert, bei der die einzelnen Volumenelemente – genannt Voxel – eine Kantenlänge von nur 26 Nanometern haben. Zusätzlich haben wir zu jedem dieser Voxel ein quantitatives Röntgen-Transmissionsspektrum, dessen Analyse uns die Chemie genau dort verrät.»

Anhand dieser Spektren ermittelten die Forschenden für jedes Voxel einige der grundlegendsten chemischen Grössen: Die Elektronendichte, die Vanadiumkonzentration und der Oxidationsgrad des Vanadiums. Da es sich bei den untersuchten VPO-Katalysatoren um ein sogenanntes heterogenes Material handelt, ändern sich diese Grössen in verschiedenen Massstäben über das gesamte Probenvolumen. Dies wiederum bestimmt oder begrenzt die Leistungsfähigkeit des Katalysatormaterials.

… und ein neuer Algorithmus
Das schrittweise Vorgehen, um diese Daten zu erhalten, bestand darin, die Probe zunächst für ein 2-D-Projektionsbild zu vermessen, sie dann ein winziges Stück zu drehen, wiederum zu vermessen und so weiter. Dieser Prozess wurde dann bei verschiedenen Energien wiederholt. Nach dem bisherigen Verfahren wären dabei rund fünfzigtausend einzelne 2-D-Aufnahmen nötig gewesen, die zu etwa hundert Tomogrammen zusammengesetzt worden wären. Für jede der beiden Proben hätte dies etwa eine Woche reine Messzeit bedeutet.

«Die Experimentierplätze an der SLS sind sehr begehrt und rund ums Jahr ausgebucht», erklärt Manuel Guizar-Sicairos, ebenfalls PSI-Forscher und Leiter dieser Studie. «Wir können es uns daher nicht erlauben, Messungen durchzuführen, die so lange dauern.» Die Datenerhebung musste effizienter werden.

Dies gelang Zirui Gao, Erstautor der Studie, in Form eines neuen Prinzips der Datenaufnahme und einem zugehörigen Rekonstruktions-Algorithmus. «Für die 3-D-Rekonstruktion von Tomogrammen braucht man Aufnahmen aus vielen Winkeln», erklärt Gao. «Unser neuer Algorithmus aber schafft es, die benötigte Menge an Information auch dann zu gewinnen, wenn man den Abstand zwischen den Winkeln ungefähr verzehnfacht – also nur rund ein Zehntel der 2-D-Bilder aufnimmt.» So gelang es den Forschenden, die benötigten Daten in nur rund zwei Tagen Messzeit zu gewinnen und folglich viel Zeit und damit auch Kosten zu sparen.

Grössere Poren und fehlende Atome
Die Messungen der beiden Proben zeigten: Das frische VPO hatte wie erwartet viele kleine Poren, die gleichmässig im Material verteilt waren. Diese Poren sind wichtig, denn sie stellen die Oberfläche bereit, an der die Katalyse ablaufen kann. In der VPO-Probe dagegen, die vier Jahre lang in Gebrauch gewesen war, hatte sich die Struktur auf der Nano-Skala umgebaut: Es gab grössere und dafür weniger Hohlräume. Das Material dazwischen zeigte grössere, länglich-kristalline Formen.

Auch auf molekularer Ebene zeigten sich Veränderungen: Mit der Zeit waren im Atom-Gitter Fehlstellen, auch genannt Löcher, entstanden. Deren Existenz war bisher nur vermutet worden. Mit ihrem neu erhaltenen Wissen über die Probenchemie auf der Nanoskala konnten die Forschenden nun diese Löcher bestätigen und ihre genaue Lage bestimmen: an der Stelle bestimmter, nunmehr fehlender Vanadium-Atome. «Dass der relative Gehalt an Vanadium mit der Zeit abnimmt, war schon vorher bekannt», so Gao. «Aber wir konnten jetzt erstmals zeigen, an welcher Stelle im Kristallgitter diese Atome fehlen. Zusammen mit unseren anderen Ergebnissen bestätigt dies eine bisherige Vermutung: dass nämlich diese Fehlstellen im Atomgitter als zusätzliche aktive Stellen für den Prozess der Katalyse dienen können.»

Dies bedeutet, dass diese zunehmenden Fehlstellen ein willkommener Effekt sind: Sie erhöhen die katalytische Aktivität und wirken so zumindest teilweise dem Aktivitätsverlust entgegen, der entsteht, wenn die Zahl der Poren abnimmt. «Unsere neuen, detaillierten Ergebnisse könnten Industrie-Unternehmen helfen, ihre Katalysatoren zu optimieren und langlebiger zu machen», so Gao.

Text: Paul Scherrer Institut/Laura Hennemann

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 400 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.

Wissenschaftliche Ansprechpartner:
Zirui Gao
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 29 10, E-Mail: zirui.gao@psi.ch [Englisch, Chinesisch]

Dr. Manuel Guizar-Sicairos
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 34 09, E-Mail: manuel.guizar-sicairos@psi.ch [Englisch, Spanisch]

Dr. Johannes Ihli
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 40 50, E-Mail: johannes.ihli@psi.ch [Deutsch, Englisch]

Dr. Mirko Holler
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 36 13, E-Mail: mirko.holler@psi.ch [Deutsch, Englisch]

Originalpublikation:
Sparse ab initio X-ray transmission spectro-tomography for nanoscopic compositional analysis of functional materials
Z. Gao, M. Odstrcil, S. Böcklein, D. Palagin, M. Holler, D. Ferreira Sanchez, F. Krumeich, A. Menzel, M. Stampanoni, G. Mestl, J.A. van Bokhoven, M. Guizar-Sicairos, J. Ihli
Science Advances 9. Juni 2021 (online)
DOI: https://dx.doi.org/10.1126/sciadv.abf6971

Weitere Informationen:
http://psi.ch/de/node/45305 – Darstellung der Mitteilung auf der Webseite des PSI und Bildmaterial
http://psi.ch/de/node/33008 – Nanowelten in 3-D (Ein Text vom 11. März 2020)

(nach oben)


«Wir sollten den Einfluss von Reisen nicht unterschätzen»

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Emma Hodcroft vom Institut für Sozial- und Präventivmedizin hat mit Hilfe der von ihr mitentwickelten Sequenzierplattform Nextstrain eine neue Coronavirus-Variante (EU1) identifiziert, die sich vergangenen Sommer in Europa rasant ausgebreitet hat. Dabei spielten Ferienreisen eine wichtige Rolle. Bald sind Sommerferien: Wie können wir reisen ohne zu hohes Risiko?

Sie haben gezeigt, wie schnell eine Virus-Variante dominant werden kann, ohne besonders ansteckend zu sein. Wie erklären Sie sich die starke Ausbreitung von EU1, das letzten Sommer in Spanien aufgetaucht ist?

Das wirklich Interessante an EU1 ist, dass wir zuerst dachten, es könnte ansteckender sein, weil wir sahen, wie seine Häufigkeit in ganz Europa anstieg. Aber je mehr wir uns damit beschäftigten, stellten wir fest, dass es einen Zusammenhang mit Reisen gab. Wir glauben, dass der eigentliche «Erfolg» von EU1 darin bestand, dass es die Ferienreisen im letzten Sommer nutzen konnte, um sich zumindest für ein paar Monate unkontrolliert in ganz Europa auszubreiten. EU1 hat also gezeigt, dass eine Variante sich rasch ausbreiten kann, ohne ansteckender sein zu müssen. Selbst jetzt, wo wir Varianten haben, die ansteckender zu sein scheinen, werden wir daran erinnert, dass wir den Einfluss von Reisen nicht unterschätzen sollten. Das sollten wir im Hinterkopf behalten bei der Entdeckung neuer Varianten.

Wie genau hat sich EU1 so schnell verbreitet, auch in der Schweiz?

In der Schweiz erreichte es seinen Höhepunkt mit einem Anteil von etwa 30 Prozent unserer Sequenzen. In der Schweiz hatten wir also eher einen Mix von Varianten. Wir gehen davon aus, dass EU1 in den meisten Ländern Europas mehrfach aus Spanien eingeschleppt wurde – so kamen wahrscheinlich viele Ferienreisende aus Spanien damit zurück. Aber dann breitete sich EU1 mit der Zeit auch in anderen Ländern Europas aus. Das heisst: selbst als Länder empfahlen, nicht mehr nach Spanien zu reisen, war EU1 zu diesem Zeitpunkt leider schon ausserhalb Spaniens. Es reiste also auch zwischen anderen europäischen Ländern hin und her.

Welche Eindämmungsstrategien sind in Bezug auf Reisen am wirksamsten?

Das ist nicht einfach, aber Tests sind ein guter Weg, um zu erkennen, ob jemand mit dem Virus zurückkommt. Am wichtigsten ist, dass es die Betroffenen selbst mitbekommen. Eine Quarantäne, die auf Vertrauen basiert, ist schwierig, wenn sich Reisende gut fühlen und denken: «Ich werde mich nicht angesteckt haben, es ist OK, wenn ich rausgehe.» Wenn aber Personen wissen, dass sie infiziert sind, ist es für sie viel einfacher zu erkennen: «Ich muss wirklich zu Hause bleiben, weil ich jemanden anstecken könnte.»

Sie waren Teil des internationalen Expertinnen- und Expertengremiums, das die aktuellen «besorgniserregenden Varianten» nach griechischen Buchstaben umbenannt hat, wie etwa «Delta» für die sogenannte «indische Variante». Warum?

Wir wollten etwas, das leicht auszusprechen ist, das man sich leicht merken kann, etwas, das den Leuten schon ein bisschen vertraut ist, das aber nicht mit einem Land assoziiert ist. Das war etwas, das wir zu vermeiden suchten: dass weiterhin von der «indischen Variante» oder der «südafrikanischen Variante» die Rede ist. Ich finde, griechische Buchstaben erfüllen viele dieser Kriterien: Sie sind einfach auszusprechen, werden weltweit in Mathematik, Physik und der Wissenschaft allgemein verwendet und lassen uns nicht denken, dass die Variante von diesem einen Ort stammt und dieser Ort schlecht ist. Wir haben andere Optionen ausprobiert, wie zum Beispiel nur Zahlen zu verwenden: Variante 1, Variante 2, … oder die Varianten so wie Stürme zu benennen, ihnen also Personennamen zu geben. Aber jeder dieser Ansätze hatte Nachteile, so dass wir uns für das griechische Alphabet entschieden.

Glauben Sie, dass die Delta-Variante auch die dominante Variante in Europa werden könnte?

Ich denke, es ist noch ein bisschen zu früh, um dazu etwas zu sagen. Was mit der Delta-Variante passiert, zeigt, was wir von EU1 gelernt haben: Im Moment sehen wir die Delta-Variante nicht oft in Kontinentaleuropa, sondern vor allem in Grossbritannien. Was dort wirklich anders ist, sind die zahlreichen starken Verbindungen zu Indien, und viele Menschen reisten von Indien nach Grossbritannien ein, bevor das Reiseverbot in Kraft trat. Genau wie bei EU1 machen Einreisen einen Unterschied. Das heisst jetzt nicht, dass die Variante nicht ansteckender ist, aber es macht es ein bisschen schwieriger vorherzusagen, ob das bei uns ähnlich sein wird oder ob wir es vielleicht – weil wir weniger Einschleppungen hatten – besser eindämmen können. Dazu brauchen wir aktuell mehr Daten.

Wir sind hier in einer komfortablen Position, aber was passiert, wenn die Delta-Variante Länder ohne Impfstoffe oder mit schlechter Infrastruktur trifft, wie Nepal oder Länder in Afrika?

Dies sollte uns wirklich beunruhigen, und wir könnten hier mehr Unterstützung leisten. Vor allem in den USA und in weiten Teilen Europas sind nun die Impfungen gut angelaufen, und es wird in den nächsten ein, zwei Monaten eine grosse Anzahl geimpfter Personen geben. Das ist fantastisch, aber so viele Länder auf der Welt sind noch weit entfernt davon und noch immer gefährdet. Ich würde gerne sehen und hören, wie mehr Regierungen anfangen, ihre Aufmerksamkeit darauf zu richten: «Okay, in unserem Land läuft es ganz gut, wie können wir jetzt andere Länder unterstützen? Wie können wir die Verfügbarkeit von Impfungen ausweiten, wie können wir Sauerstofftanks in Ländern mit Ausbrüchen zur Verfügung stellen oder Geld für Gesundheitsdienste?»

Denn die Sache ist die: Dies ist eine globale Pandemie, und wir haben gesehen, was passiert, wenn Varianten in anderen Ländern auftreten: Sie können in unser Land kommen. Unsere Schutzmassnahmen sind nicht perfekt. Und was wir definitiv nicht wollen, ist, dass eine Variante entsteht, die sich im Hintergrund durchsetzen kann. Die beste Strategie ist also, alle Länder darin zu unterstützen, ihre Fallzahlen zu kontrollieren. Denn wir werden erst dann wirklich sicher vor Sars-CoV-2 sein, wenn alle Länder in der Lage sind, ihre Fallzahlen niedrig zu halten.

Wie können Sie mit genomischer Überwachung eine Pandemie bekämpfen, wenn Sie kein globales Bild von Ausbrüchen oder neuen Varianten haben, vor allem, wenn nur sehr wenige Daten aus afrikanischen Ländern verfügbar sind?

Gute Frage – das ist ein Problem. Bei Reisebeschränkungen ist es zum Beispiel so: Wenn wir keine Sequenzen aus einem bestimmten Land haben, hat es natürlich auch keine Varianten, und die Reisefreiheit wird nicht eingeschränkt. Ich sage jetzt nicht, dass wir diese einschränken sollten, aber es zeigt, dass keine Daten zu haben nicht notwendigerweise bedeutet, dass es kein Problem gibt. Es bedeutet nur, dass wir es nicht wissen.

Was würden Sie empfehlen, wenn ich mit meiner Familie im Sommer nach Spanien oder in ein anderes Land reisen wollte, das nicht auf der Risikoliste steht?

Ich würde auf jeden Fall empfehlen, sich impfen zu lassen, und wenn es möglich ist, bis zwei Wochen nach der zweiten Dosis zu warten. Dann sollte man eine wirklich wirksame Immunität gegen Sars-CoV-2 haben. Das heisst natürlich nicht, dass Sie herumlaufen und jeden küssen sollten, den Sie treffen, aber es senkt wirklich das Risiko, sich anzustecken oder etwas einzuschleppen.

Und: Reisen Sie bewusst. Überlegen Sie sich: was möchten Sie wirklich tun, und worauf können Sie vielleicht in diesem Jahr verzichten? Vielleicht verbringen Sie mehr Zeit am Strand und weniger Zeit in einem Club. Oder Sie versuchen, in Restaurants draussen zu sitzen. Und wenn Sie irgendwo hingehen, wo es voll zu sein scheint – vielleicht sind in anderen Ländern mehr Leute in einem Raum erlaubt als in der Schweiz – können Sie immer sagen: «Das ist nichts für mich.» Es ist okay, seine Meinung zu ändern und zu sagen: «Lass uns versuchen, morgen früher zu kommen, dann ist weniger los.» Diesen Sommer ist Flexibilität etwas, das wir alle nutzen können. Wir sollten darüber nachdenken, wie wir mehr Zeit draussen verbringen können, und nicht etwas tun, nur weil wir gesagt haben, dass wir es tun, sondern weil wir das Gefühl haben, dass es sicher ist und wir uns dabei wohlfühlen.

Wie sieht es mit Ihren Plänen für den Sommer aus? Werden Sie Ihre Familie in Grossbritannien oder den USA besuchen?

Ich mache im Moment keine konkreten Pläne, bin aber hoffnungsvoll, vor allem, weil dort, wo meine Familie in Grossbritannien und den USA wohnt, die Impfung wirklich gut läuft und die Fälle im Allgemeinen eingedämmt wurden. Aber ich möchte sichergehen, dass es sicher und ratsam ist, bevor ich mich zu sehr freue. Wenn sich herausstellt, dass Abwarten das Beste ist, würde ich lieber meinen Teil zur Sicherheit beitragen, als jemanden zu gefährden. Aber ich drücke mir die Daumen!

Über Emma Hodcroft
Seit 2020 arbeitet die Bioinformatikerin Emma Hodcroft im Rahmen eines Postdoc am Institut für Sozial- und Präventivmedizin (ISPM) der Universität Bern. Die 34-Jährige studierte Biologie an der Texas Christian University, wechselte für den Master an die University of Edinburgh und absolvierte dort anschliessend ein Doktorat und ein Postdoc zur genetischen Entwicklung von HIV. Hunderte von Zeitungen weltweit berichteten über ihre Arbeit auf Nextstrain, eine Open-Source-Plattform, auf der die Entwicklung von Mutationen des Sars-CoV-2 verfolgt wird. Mit über 64’000 Followern (Stand Anfang Juni) gehört sie zu den meistbeachteten Forschenden der Schweiz auf Twitter.

Zur Autorin
Nathalie Matter arbeitet als Redaktorin bei Media Relations und ist Themenverantwortliche «Gesundheit und Medizin» in der Abteilung Kommunikation & Marketing an der Universität Bern.

(nach oben)


Studie: Mit KI Ressourcen im Betrieb wirksam einsetzen

Jörg Walz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Die vom Bundesumweltministerium (BMU) beauftragte Studie »Potenziale der schwachen Künstlichen Intelligenz für die betriebliche Ressourceneffizienz« untersucht konkrete Einsatzmöglichkeiten von KI, um die Ressourceneffizienz vor allem in kleinen und mittleren Unternehmen (KMU) zu steigern.

Am 5. Mai war es wieder so weit: Erdüberlastungstag in Deutschland. Seit einem Monat leben wir wieder auf Kosten der Umwelt und zukünftiger Generationen. Wir agieren außerhalb der planetaren Grenzen und verbrauchen mehr Ressourcen als unsere Erde regenerieren kann. Das war die schlechte Nachricht.

Und jetzt die gute: Nachhaltiges Wirtschaften wird immer mehr als eine Notwendigkeit anerkannt – auch um die Zukunftsfähigkeit des Mittelstands zu sichern. Dabei sind die treibenden Kräfte u.a. die Forderungen von Kunden, Investoren und der Gesellschaft sowie sich verschärfende Vorgaben und Regularien seitens des Gesetzgebers. Dies lässt mehr und mehr Unternehmen tätig werden.

Unterstützung bei der Umsetzung im Betrieb
Es ist also höchste Zeit, unsere Produktions- und Lebensweise nachhaltig zu gestalten. Dazu gehört, dass die Ressourceneffizienz deutlich erhöht wird. Inwieweit Methoden der Künstlichen Intelligenz sich eignen, die natürlichen Ressourcen Wasser, Energie, Material im verarbeitenden Gewerbe effizient einzusetzen und damit Treibhausgase zu vermeiden, untersucht die jetzt erschienene Studie vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA und der Unternehmensberatung Deloitte Artificial Intelligence & Data. Ihr Fokus liegt dabei auf KMU. Denn insbesondere für KMU ist es schwierig, die richtigen Ansatzpunkte für den Einsatz vo n KI zu identifizieren. Häufig fehlen Zeit und Personal, um sich einen Überblick über die Möglichkeiten von KI und den damit verbundenen Methoden und Technologien zu verschaffen. Auch das nötige Fachwissen zur Auswahl und Umsetzung von KI-Projekten im eigenen Betrieb ist häufig nicht vorhanden. So stellt die Implementierung und Umsetzung von KI oftmals eine große Herausforderung dar. Die Studie zeigt deshalb nicht nur KI-Beispiele für die betriebliche Ressourceneffizienz auf, sondern bietet auch praktische Hilfestellungen bei der Umsetzung im eigenen Betrieb.

Forschungsfragen
Die Studie orientiert sich entsprechend an folgenden Fragestellungen:
• Welche Technologien und Methoden der schwachen KI können KMU des verarbeitenden Gewerbes verwenden, um ihre betriebliche Ressourceneffizienz zu steigern?
• Welche Potenziale hinsichtlich betrieblicher Ressourceneffizienz ermöglicht schwache KI bei KMU des verarbeitenden Gewerbes?
• Welche Anwendungsszenarien von schwacher KI sind am vielversprechendsten, um die betriebliche Ressourceneffizienz in KMU zu steigern?
• Welche Erfolgsfaktoren und Hemmnisse existieren für die systematische Anwendung von schwacher KI zur Steigerung der betrieblichen Ressourceneffizienz in KMU?
• Welche Umsetzungsbeispiele existieren für eine erfolgreiche Steigerung der betrieblichen Ressourceneffizienz in KMU durch den Einsatz schwacher KI?

Wettbewerbsvorteile und Alleinstellungsmerkmale für KMU
Da die Analyse großer Datenmengen sowie die einhergehende Ableitung möglicher Optimierungsmaßnahmen oft nur mit der Etablierung von Digitalisierungslösungen möglich ist, gilt die Digitalisierung bereits seit einiger Zeit als zentrales Instrument zur Verbesserung der Nachhaltigkeit von produzierenden Unternehmen. »Die Einbindung von Methoden der KI ist der konsequente nächste Schritt auf dem Weg zur Ausschöpfung von Ressourceneffizienzpotenzialen in Produktionsumgebungen«, sagt Professor Alexander Sauer, Leiter des Fraunhofer IPA und des Instituts für Energieeffiziente Produktion (EEP) der Universität Stuttgart. »Gerade auch für KMU bieten sich Chancen durch zielgerichtete Einbindung von KI, Wettbewerbsvorteile zu erzielen und Alleinstellungsmerkmale zu stärken oder zu etablieren.«

Die im Auftrag des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit (BMU) erstellte Studie wurde durch das VDI Zentrum Ressourceneffizienz (VDI ZRE) koordiniert und vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA gemeinsam mit Deloitte Artificial Intelligence & Data durchgeführt. Die Studie ist am 7. Juni 2021 erschienen und im Rahmen der 25. Netzwerkkonferenz »Künstliche Intelligenz – Chancen und Herausforderungen für Ressourceneffizienz« erstmals öffentlich vorgestellt worden.

Anhang
Im Allgemeinen wird zwischen »schwacher« und »starker« KI (engl.: artificial narrow intelligence vs. artificial general intelligence) unterschieden. Dabei soll sich starke KI vor allem dadurch auszeichnen, dass sie kognitive Fähigkeiten besitzt, die dem Menschen in nahezu allen Aspekten überlegen oder mit ihm gleichauf sein werden. Im Gegensatz dazu kann schwache KI zwar dem Menschen überlegen sein, ist dies jedoch meist nur in den Bereichen, für die sie explizit programmiert und trainiert wurde. Die schwache KI fokussiert auf die Lösung konkreter Anwendungsprobleme auf Basis bekannter Methoden aus der Mathematik und Informatik. Die entwickelten Systeme sind dabei zur Selbstoptimierung fähig.

Pressekommunikation: Jörg-Dieter Walz | Telefon +49 711 970-1667 | joerg-dieter.walz@ipa.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Lara Waltersmann | Telefon +49 711 970-1756 | lara.waltersmann@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | http://www.ipa.fraunhofer.de

Steffen Kiemel | Telefon +49 711 970-1436 | steffen.kiemel@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | http://www.ipa.fraunhofer.de

Weitere Informationen:
https://www.ipa.fraunhofer.de/de/presse/presseinformationen/mit-ki-ressourcen-im…
https://www.ressource-deutschland.de/fileadmin/user_upload/downloads/studien/VDI…

Anhang
Studie: Mit KI Ressourcen im Betrieb wirksam einsetzen

(nach oben)


Pflanzenkonkurrenz im Klimawandel

Rimma Gerenstein Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Wie Pflanzen mit Stressfaktoren umgehen, ist bereits breit erforscht. Was aber geschieht, wenn eine Pflanze mit zwei zeitgleich auftretenden Faktoren konfrontiert wird? Das hat ein Forschungsteam um Simon Haberstroh und Prof. Dr. Christiane Werner von der Professur für Ökosystemphysiologie der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg untersucht. Mit Kolleginnen und Kollegen des Forest Research Centre der School of Agriculture der Universität Lissabon/Portugal und dem Institut für Meteorologie und Klimaforschung des Karlsruher Institut für Technologie haben sie ihre Ergebnisse nun im Fachjournal „New Phytologist“ veröffentlicht.

Im Park Tapada Real in der portugiesischen Kleinstadt Vila Viçosa kreierten die Forscherinnen und Forscher eine Feldstudie. Im Mittelpunkt stand der Umgang des Ökosystems Korkeiche (Quercus suber) mit zwei Stressfaktoren: zum einen mit extremer Dürre, zum anderen mit der invasiven Pflanzenart Lack-Zistrose (Cistus ladanifer). Die Studie hat eine große Relevanz, da beide Stressfaktoren aktuell deutlich zunehmen. Gleichwohl stellte das Thema in der Wissenschaft bisher eine Forschungslücke dar, Forschende haben bisher selten thematisiert, wie verschiedene, miteinander interagierende Stressfaktoren Ökosysteme beeinflussen.

Die Ergebnisse ihrer Studie waren für die Wissenschaftlerinnen und Wissenschaftler zum Teil überraschend. „Die Faktoren agierten dynamischer als wir das erwartet hätten“, sagt Haberstroh, der die Untersuchungen für seine Doktorarbeit geleistet hat. In einem feuchten Jahr ergab die Doppelbelastung für die Korkeiche keine signifikanten Änderungen, unter Trockenheit stärkten oder schwächten sich die Faktoren jedoch gegenseitig. Ein überraschendes Ergebnis ist auch, dass die Korkeiche sich trotz doppelter Belastung nach einer extremen Dürrephase besser regenerieren kann als erwartet. Das geschieht vor allem, wenn die invasiven Büsche der Lack-Zistrose selbst stark unter der extremen Trockenheit leiden. Um weitere Daten zu sammeln und längerfristige Trends zu diagnostizieren, wollen die Forschenden das Projekt in Portugal fortführen.

„Diese neuen Ergebnisse der Forschung tragen dazu bei, Ökosysteme besser und zielführender verstehen und pflegen zu können“, erklärt Haberstroh. „Dadurch können beispielsweise Regeln für besonders trockene Jahre konzipiert werden, was gerade in Zeiten des Klimawandels zentral ist.“

Wissenschaftliche Ansprechpartner:
Simon Haberstroh
Professur für Ökosystemphysiologie
Fakultät für Umwelt und natürliche Ressourcen
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-54076
E-Mail: simon.haberstroh@cep.uni-freiburg.de

Originalpublikation:
Haberstroh, S., Caldeira, M. C., Lobo-do-Vale, R., Martins, Joana I., Moemken, J., Pinto, J. G., Werner, C. (2021): Non-linear plant-plant interactions modulate impact of extreme drought and recovery on a Mediterranean ecosystem. In: New Phytologist. DOI: 10.1111/nph.17522

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/pflanzenkonkurrenz-im-klimawandel

(nach oben)


HSD-Forschungsschwerpunkt „Umweltmesstechnik in der Luftreinhaltung“ zum aktuellen EuGH-Urteil

Simone Fischer Informations- und Pressestelle
Hochschule Düsseldorf
Der Forschungsschwerpunkt Umweltmesstechnik in der Luftreinhaltung (UMT) der Hochschule Düsseldorf unter der Leitung von Prof. Dr. Konradin Weber führt schon seit einiger Zeit systematische Untersuchungen zur Luftqualität an der verkehrsreichen Münsterstraße im Norden von Düsseldorf durch.

Diese Untersuchungen sind gerade vor dem jüngsten EuGH-Urteil interessant, bei dem Deutschland wegen hoher Stickoxid-Werte in den Jahren 2010 bis 2016 verurteilt wurde.

Der Messwagen des Forschungsschwerpunktes UMT mit seinem umfangreichen Instrumentarium zur Messung der Luftqualität ist schon seit Ende 2020 an der Münsterstraße für kontinuierliche Untersuchungen stationiert. Die Münsterstraße ist durch einen signifikanten Innerortsverkehr gekennzeichnet. Die Untersuchungen haben gezeigt, dass für diesen Verkehrsstandort der Einstundengrenzwert für NO2 in diesem Jahr kein Mal überschritten wurde. Zusätzlich zu NO2 werden mit dem Messwagen Luftschadstoffe wie Feinstaub, Ultrafeinstaub, Dieselruß, Ozon, SO2 sowie meteorologische Parameter untersucht. Dabei werden neben den Standardmessverfahren auch besonders innovative spektroskopische Messverfahren sowie Low-Cost-Sensoren eingesetzt, die in verschiedenen Forschungsprojekten weiterentwickelt werden.

Der gleichzeitige Einsatz so vieler verschiedener Messverfahren an einem Mess-Standort ermöglicht neue lufthygienische Erkenntnisse.

Weitere Informationen:
http://www.hs-duesseldorf.de

(nach oben)


Wie man Elfmeter besser halten kann

Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
FORSCHUNG AKTUELL heißt der Forschungsnewsletter, den die Deutsche Sporthochschule Köln Medienvertreter*innen regelmäßig anbietet, um ausgewählte spannende Forschungsaktivitäten an Deutschlands einziger Sportuniversität vorzustellen. Anlässlich der Fußball-Europameisterschaft dreht sich in der neuen Ausgabe alles um Fußball.

Die Themen in der aktuellen Ausgabe:

PAPER
Wissenschaftler*innen haben die Elfmeterschießen aller Welt- und Europameisterschaften zwischen 1984 und 2016 analysiert. Die insgesamt 395 ausgewerteten Schüsse zeigen: Ob der Ball ins Tor geht oder nicht, hängt von dem Zusammenspiel der Strategien von Schütze und Torwart ab. Das Fazit: Um beim Elfmeterschießen erfolgreich zu sein, ist es wichtig, die eigene Strategie immer mal wieder zu ändern oder die des Gegners genau zu kennen.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/paper/

PROJEKT
Verletzungen gehören zum Fußball wie der Ball und das Tor. Rund 83 Prozent aller Spieler verletzen sich im Saisonverlauf mindestens ein Mal. Die zweithäufigste Muskelverletzung im Fußball sind Adduktorenverletzungen. Expert*innen gehen davon aus, dass schnelle Richtungswechsel und Schussbewegungen mit der Innenseite des Fußes das Risiko von Leistenverletzungen erhöhen. Ob das stimmt, hat Thomas Dupré untersucht.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/projekt/

PERSON
Seit frühester Jugend ist Jürgen Mittag (51) fasziniert von politischen Prozessen, wie diese funktionieren oder auch nicht funktionieren. Eines seiner liebsten Untersuchungsobjekte ist dabei die Europäische Union. Seit zehn Jahren besetzt er an der Deutschen Sporthochschule Köln die damals erste originär sportpolitikbezogene Professur in Deutschland und leitet das Institut für Europäische Sportentwicklung und Freizeitforschung.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/person/

PODCAST
In den beiden neuen Folgen unseres Wissenschaftspodcasts „Eine Runde mit…“ lernen Sie wieder zwei unserer Wissenschaftler*innen kennen. Im persönlichen Gespräch geben die Psychologin Dr. Babett Lobinger und Univ.-Prof. Dr. Daniel Memmert, der im Bereich Spielanalyse forscht, spannende Einblicke in ihre Forschung sowie Impulse für aktuelle gesellschaftliche Diskussionen.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/podcast/

NEWS
+++ Veröffentlichung zur Bekämpfung der Spielwettbewerbsmanipulation +++ Stark gegen Kinderkrebs +++ Von der Forschung in die Ausbildung +++ Queere Belange im Sport +++ Brexit – Auswirkungen auf den Sport +++
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/news/

Originalpublikation:
http://www.dshs-koeln.de/forschungaktuell

Weitere Informationen:
http://www.dshs-koeln.de/forschungaktuell

(nach oben)


Meilenstein für nachhaltige Batterien – „grünere“ Kohlenstoffe

Dipl.-Geophys. Marie-Luise Righi PR und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC
Lithium-Ionen-Batterien benötigen eine Reihe von speziellen Funktionsmaterialien für ihre Leistungsfähigkeit. Einige davon klingen eher unspektakulär: leitfähige Additive. Tatsächlich sind leitfähige Zusätze wie Leitruß oder Kohlenstoff-Nanoröhren ein entscheidender Baustein für die Leistungsfähigkeit und Umweltverträglichkeit von Lithium-Ionen-Batterien. Das kürzlich gestartete Verbundprojekt HiQ-CARB zielt darauf ab, neue Kohlenstoffe mit einer überlegenen Leistung und einem geringen CO₂-Fußabdruck für zukünftige grüne Batterien in Europa bereitzustellen. HiQ-CARB erhält EU-Fördermittel von EIT RawMaterials, um dieses essentielle neue Batteriematerial zu skalieren und zu validieren.

Mittlerweile ist es hinlänglich bekannt: Li-Ionen-Batterien sind eine Schlüsseltechnologie für zukunftsweisende europäische Industrien wie Elektrofahrzeuge, tragbare elektronische Geräte oder eine Vielzahl anderer Anwendungen, bei denen Energie möglichst aus erneuerbaren Ressourcen gespeichert und bereitgestellt wird. Große Teile der europäischen Industrie, darunter auch die europäische Automobilindustrie, sind zunehmend auf importierte Lithium-Ionen-Zellen angewiesen. Der europäische Green Deal und verschiedene unterstützende Maßnahmen zielen darauf ab, das Beschäftigungs-, Wachstums- und Investitionspotenzial von Batterien zu nutzen. Es soll eine wettbewerbsfähige Wertschöpfungskette „Batterie“ in Europa geschaffen werden – nicht zuletzt, um Batterietechnologien umweltfreundlicher und „grüner“ zu machen.

Was hat Kohlenstoff mit Lithium-Ionen-Batterien zu tun?
Kohlenstoff spielt eine entscheidende Rolle bei der Verbesserung der elektronischen Leitfähigkeit von Batteriekathoden und ist daher für das Erreichen schneller Lade- und Entladeraten unerlässlich. Im wachsenden Batteriemarkt machen die Rohstoffe den größten Teil der Kosten in der Produktion aus. „Um die wachsende europäische Batterieindustrie nachhaltig mit hochwertigen Leitadditiven versorgen zu können, müssen CO₂- und ressourceneffiziente Kohlenstoffmaterialien geschaffen, validiert und in ausreichender Menge in Europa wirtschaftlich produziert werden“, erklärt Projektkoordinator Dr. Andreas Bittner vom Fraunhofer-Institut für Silicatforschung ISC. Das ist es, was HiQ-CARB erreichen will.

Intelligent kombinieren, verarbeiten und lernen
Das Projektteam von HiQ-CARB setzt zum einen auf sehr profilierte Unternehmen wie ARKEMA oder ORION für die Herstellung von fortschrittlichen Additiven und Customcells für die Batteriezellproduktion. Auf der anderen Seite sind namhafte FuE-Partner wie das Fraunhofer-Institut für Silicatforschung ISC, die Aalto-Universität und die Universität Bordeaux für den wissenschaftlichen Teil der Evaluierung und Erprobung der neuen Materialkombinationen selbst und der daraus hergestellten Batteriezellen beteiligt.

Der HiQ-CARB-Ansatz für fortschrittliche Kohlenstoff-Additive ist die Kombination von dünnen Kohlenstoff-Nanoröhrchen und Acetylen-Black Partikel (Acetylenruß), die mit hoher Leitfähigkeit und geringer CO₂-Emission bei der Herstellung punkten. In Kombination bilden sie ein nahezu ideal leitendes Netzwerk innerhalb der Batterieelektrode. Ziel des Projektes ist der Aufbau einer Produktion dieser Spezialmaterialien im Tonnen- und Megatonnenmaßstab sowie ein effizienter Prozess für die Kathodenherstellung im Pilotmaßstab. Für ein effektives Qualitätsmanagement während der Produktion müssen entsprechende Prüfvorschriften und Routinen für die Qualifizierung und Qualitätssicherung entwickelt und etabliert werden.

Darüber hinaus wird das HiQ-CARB-Team Wissens- und Lernmodule zur Verfügung stellen, um die Ausbildung zukünftiger Experten für die Lithiumbatterie-Wertschöpfungskette und Beteiligungsmöglichkeiten für Industrie und Forschung gemäß den Bildungsempfehlungen von EIT RawMaterials zu unterstützen.

Wie Kohlenstoffe „grüner“ werden
Carbon Black (Kohlenstoff, hier speziell Leitruß) wird in der Regel mit hohem Energie- und Prozessmaterialaufwand hergestellt. HiQ-CARB wird Standard-Leitruß durch neuen und viel grüneren hochwertigen Acetylenruß ersetzen. Dies trägt erheblich zur Verbesserung der Umweltbilanz bei, z. B. durch die Reduzierung des CO₂-Fußabdrucks der Materialherstellung. Darüber hinaus werden die bereits kommerzialisierten Standard-Kohlenstoff-Nanoröhren (carbon nanotubes – CNT) durch neue, noch viel dünnere CNT ersetzt. Dies führt zu einer geringeren Menge an Kohlenstoffmaterialien für die gleiche oder sogar bessere Batterieleistung und führt zu einer verbesserten Ressourceneffizienz. Darüber hinaus ist dies das einzige CNT Material weltweit, das aus einem erneuerbaren Bioethanol-Rohstoff hergestellt wird. Darüber hinaus wird im Rahmen des Projekts eine Lebenszyklusanalyse durchgeführt, um die Nachhaltigkeit des Produktionsprozesses zu bewerten.

Besuchen Sie unsere Internetseite: https://www.isc.fraunhofer.de/de/presse-und-medien/presseinformationen/HiQ-CARB-…

Projekt Information auf der EIT RawMaterials Internetseite
https://eitrawmaterials.eu/project/hiq-carb
HiQ-CARB. High-Quality Conductive Additives for Rechargeable Batteries
Projektlaufzeit: 1. Januar 2021 – 30. September 2024

Partner
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. / Fraunhofer-Institut für Silicatforschung ISC, Deutschland (Projektkoordinator)
Aalto University, Finnland
Arkema France, Frankreich
Custom Cells Itzehoe GmbH, Deutschland
Orion Engineered Carbons GmbH, Deutschland
Université de Bordeaux, Frankreich

Wissenschaftliche Ansprechpartner:
Dr. Andreas Bittner l andreas.bittner@isc.fraunhofer.de | Fraunhofer-Institut für Silicatforschung ISC l www.isc.fraunhofer.de

Anhang
Die Presseinformation als pdf

(nach oben)


Es gibt einen deutlichen Zusammenhang zwischen freiwilligem Engagement und positiven Einstellungen zu Demokratie

Stefanie Hartmann Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen
Freiwilliges Engagement dient nicht nur der sozialen Teilhabe der Menschen, sondern ist zugleich Ausdruck einer starken Zivilgesellschaft und einer stabilen Demokratie. Wie der Freiwilligensurvey 2019 zeigt, engagieren sich 28,8 Millionen Menschen ab 14 Jahren in Deutschland freiwillig, das sind 39,9 Prozent dieser Bevölkerungsgruppe. Freiwilliges Engagement ist dann eine Ressource für demokratische Prozesse, wenn sie auf demokratischen Prinzipien beruht und demokratische Ziele verfolgt.

Die Ergebnisse des Freiwilligensurveys 2019 zeigen: Die große Mehrheit der Bevölkerung in Deutschland steht der Demokratie als Regierungsform positiv gegenüber. Freiwillig engagierte Personen bewerten dabei mit 95,0 Prozent die Demokratie als gute Regierungsform zu höheren Anteilen als nicht freiwillig engagierte Personen mit 87,8 Prozent. Auch auf die Frage, wie zufrieden man mit dem Funktionieren der Demokratie in Deutschland ist, fällt die Bewertung engagierter Personen positiver aus als die der nicht engagierten Personen: Während 72,2 Prozent der engagierten Personen mit dem Funktionieren der Demokratie in Deutschland zufrieden sind, sind es bei nicht engagierten Personen 65,8 Prozent. Freiwillig engagierte Personen weisen darüber hinaus höheres Vertrauen in grundlegende gesellschaftliche und demokratische Institutionen auf (Polizei, Justiz, Bundestag, Bundesregierung, Europäisches Parlament, Parteien) als nicht engagierte Personen.

Diese Ergebnisse aus dem Hauptbericht des Deutschen Freiwilligensurveys 2019 weisen darauf hin, dass freiwilliges Engagement zu einer demokratischen und solidarischen Gesellschaft beitragen kann. Allerdings muss zur Kenntnis genommen werden, dass es auch im freiwilligen Engagement Menschen gibt, die wenig Vertrauen in demokratische Institutionen haben sowie der Demokratie – generell oder in Hinblick auf ihr Funktionieren in Deutschland – kritisch gegenüberstehen. Hierauf sollten politische und gesellschaftliche Akteure mit geeigneten Maßnahmen der Demokratieförderung reagieren.

Der Hauptbericht mit diesen und weiteren Befunden des Deutschen Freiwilligensurveys 2019 ist seit kurzem veröffentlicht. Zentrale Ergebnisse werden auf einer Tagung am 09.06.2021 vorgestellt und diskutiert. Informationen zu der Veranstaltung sowie der Bericht zum Download sind erhältlich unter www.freiwilligensurvey.de.

Die hier genannten Befunde zu Demokratieeinstellungen stammen aus dem Kapitel: Karnick, N., Simonson, J., Tesch-Römer, C. (2021). Einstellungen gegenüber gesellschaftlichen Institutionen und der Demokratie. In: J. Simonson, N. Kelle, C. Kausmann & C. Tesch-Römer (Hrsg.) Freiwilliges Engagement in Deutschland – Der Deutsche Freiwilligensurvey 2019 (S. 252–274). Berlin: Deutsches Zentrum für Altersfragen.

Der Deutsche Freiwilligensurvey (FWS) ist seit zwei Jahrzehnten die Basis für die Berichterstattung zum aktuellen Stand und zur Entwicklung des freiwilligen Engagements in Deutschland. Der Freiwilligensurvey wird gefördert vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ). Seit 1999 wird er alle fünf Jahre als telefonische, bevölkerungsrepräsentative Studie durchgeführt. Der Freiwilligensurvey 2019 wurde vom Deutschen Zentrum für Altersfragen (DZA) durchgeführt.

Originalpublikation:
Karnick, N., Simonson, J., Tesch-Römer, C. (2021). Einstellungen gegenüber gesellschaftlichen Institutionen und der Demokratie. In: J. Simonson, N. Kelle, C. Kausmann & C. Tesch-Römer (Hrsg.) Freiwilliges Engagement in Deutschland – Der Deutsche Freiwilligensurvey 2019 (S. 252–274). Berlin: Deutsches Zentrum für Altersfragen.

(nach oben)


Verklär²: Innovatives Verwertungskonzept für energieautarke und ressourcenschonende Kläranlagen

Sonja Wiesel M.A. Hochschulkommunikation und Öffentlichkeitsarbeit
Ostbayerische Technische Hochschule Amberg-Weiden
Pilotprojekt in Haßfurt: Autarke Kläranlage schützt das Klima und schont Ressourcen.

Herzstück des Projekts eine innovative Technologie zur Monoverbrennung, die erstmals die thermische Verwertung von Klärschlämmen in kleinskaligen Anlagen direkt am Ort der Entstehung ermöglicht – dezentral, emissionsarm und autark. Möglich macht dies der Einsatz der Wirbelfeuerungstechnik. Unterstützung für das Projekt erhält die Stadt von Experten aus Industrie und Forschung. In Kooperation mit der Spanner Re² GmbH, der Rheinisch-Westfälischen Technischen Hochschule Aachen (RWTH Aachen) und dem Institut für Energietechnik (IfE) an der Ostbayerischen Technischen Hochschule Amberg-Weiden entsteht am Standort Haßfurt eine Pilotanlage mit Wirbelfeuerung zur dezentralen Verbrennung und energetischen Nutzung von Klärschlamm.

Im Zuge von Klimaschutz und Ressourcenschonung ist Klärschlamm einer der relevantesten biogenen Abfallstoffe, dessen thermische Energie es effizient zu nutzen gilt.
Die in den kommenden Jahren in Kraft tretenden Verpflichtungen zur Phosphorrückgewinnung und Bestimmungen der Düngemittelverordnung schränken die bisher etablierten Entsorgungswege für kommunalen Klärschlamm erheblich ein. Die landwirtschaftliche Verwertung von Klärschlamm wird durch den steigenden öffentlichen Fokus auf Boden-, Pflanzen- und Umweltschutz kritisch bewertet und rechtlich eingeschränkt. Die Mitverbrennung des Klärschlamms, beispielsweise in Müllverbrennungsanlagen und Zementwerken, sieht hingegen die Rückgewinnung von Phosphor nicht vor. Außerdem fallen die Kapazitäten zur Mitverbrennung in Kohlekraftwerken durch den Kohleausstieg auf absehbare Zeit weg. Diese Auswirkungen erfordern in den nächsten Jahren einen massiven Ausbau von Monoverbrennungsanlagen zur Entsorgung von Klärschlamm. Bisher ist Klärschlamm-Monoverbrennung jedoch nur in großen Anlagen an zentralen Standorten technisch und wirtschaftlich machbar.

Das Konsortium im Forschungsprojekt „Verklär²“ hat es sich daher zum Ziel gesetzt, die dezentrale Monoverbrennung in kleinskaligen Anlagen zur Praxisreife zu bringen. Das Projekt wird im Rahmen des 7. Energieforschungsprogramm des Bundesministeriums für Wirtschaft und Energie gefördert. Das Projektvolumen beträgt knapp 1,1 Mio. €. Ziel ist die Erprobung und Demonstration der umweltgerechten energetischen Verwertung von Klärschlamm in einer Wirbelbefeuerung für kommunale Kläranlagen der Größenklasse IV a (10.000 – 50.000 Einwohner).

Die Kläranlage in Haßfurt wird im Rahmen des Projekts um eine Wirbelfeuerung erweitert. Die im Verbrennungsprozess gewonnene Wärme wird zur Wärmeversorgung der Kläranlage und des kommunalen Umfeldes verwendet. Einerseits wird die Wärme zur Trocknung des Klärschlamms genutzt, andererseits kann Überschusswärme aus der Wirbelfeuerung im Sinne der Sektorenkopplung in das lokale Wärmenetz eingespeist werden. Die Wirbelfeuerungsanlage substituiert in Haßfurt gleichzeitig ein bestehendes Blockheizkraftwerk (BHKW), welches mit Erdgas betrieben wird und die Klärschlammtrocknung mit Wärme versorgt. Damit wird künftig nicht nur auf Wärmebereitstellung aus dem fossilen Energieträger Erdgas verzichtet, sondern auch eine Autarkie der Kläranlage hinsichtlich Energieversorgung und Abfallentsorgung erreicht. Die intelligente und flexible Kombination der Klärschlammverbrennung mit der Klärgasverstromung führt zu einer Verbesserung der Energiebilanz der Kläranlage und zur Steigerung der Energieeffizienz. Zuversichtlich blickt Michael Kastner, Projektleiter vom Institut für Energietechnik, in die Zukunft: „Mit der dezentralen thermischen Verwertung des Klärschlamms kann ein wichtiger Meilenstein im künftigen Transformationsprozess vom Klärwerk zum Kraftwerk erreicht werden.“
Die RWTH Aachen übernimmt im Projekt die praktischen Untersuchungen zur Klärschlammverbrennung. Schrittweise erfolgt dies vom Technikumsmaßstab über den bestehenden Prototyp bis hin zur Inbetriebnahme der ersten dezentralen Verwertungsanlage mit Wirbelfeuerungstechnik in Haßfurt. Die Spanner Re2 GmbH verantwortet hingegen die konstruktive Anpassung für den Dauerbetrieb und fertigt die Pilotanlage. Unterstützung bei der Planung und Konzeption zur Integration der Feuerungstechnik in den bestehenden Kläranlagenbestand erhält die Stadt Haßfurt vom IfE. Dieses ist auch für die wissenschaftlich-messtechnische und ökologische Bewertung des Vorhabens zuständig.

Macht das Projekt Schule, leisten regionale Kläranlagen durch den Einsatz dezentraler Verbrennungstechnologien künftig einen entscheidenden ökologischen Beitrag – klimafreundlich und ressourcenschonend.

Institut für Energietechnik (IfE) GmbH an der Ostbayerischen Technischen Hochschule Amberg-Weiden:
Die Arbeitsschwerpunkte des IfE liegen bei der Beratung von Politik, Kommunen, Energieversorgungs- und Industrieunternehmen in den Bereichen Energieeffizienz, Erneuerbare Energien und Kraft-Wärme-Kopplung. Im Fokus steht dabei die Analyse von Energieverbrauchsstrukturen, die Herausarbeitung von Potenzialen zur Effizienzsteigerung und dezentralen Energieerzeugung und die Entwicklung effizienter Energieversorgungslösungen sowie deren technische, ökonomische und ökologische Bewertung.

Ergänzend zu den konzeptionellen Arbeiten forscht und entwickelt das IfE praxisorientiert auf dem Gebiet der Kraft-Wärme-Kopplung und Erneuerbaren Energien und setzt die gewonnenen Erkenntnisse im Rahmen von Modell- und Demonstrationsvorhaben mit wissenschaftlich-messtechnischer Begleitung in die Praxis um.

Wissenschaftliche Ansprechpartner:
Institut für Energietechnik IfE GmbH
Kaiser-Wilhelm-Ring 23a
92224 Amberg
Tel: 09621/482-3935
E-Mail: presse@ifeam.de

(nach oben)


Einjährige Corona-Studie ELISA zu Antikörpern zeigt: Dunkelziffer ist deutlich zurückgegangen

Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
Im März 2020 startete ein Forschungsteam die ELISA-Studie und untersuchte insgesamt mehr als 3000 Lübeckerinnen und Lübecker über ein Jahr lang auf das Auftreten von SARS-Co-V-2 Infektionen. Aufgrund der Ergebnisse hält die Forschungsgruppe Lockerungen bei niedrigen Fallzahlen für vertretbar, fordert aber schnelle und konsequente Maßnahmen bei einem Anstieg der Fallzahlen.
Ein Ausgangspunkt der ELISA-Studie (Lübecker Längsschnittuntersuchung zu Infektionen mit SARS-CoV-2) war die Frage nach der Dunkelziffer von SARS-CoV-2 Infektionen. Weiter wollten die Forscherinnen und Forscher untersuchen, wie sich das Virus in der Bevölkerung verbreitet, wann und wo Neuinfektionen auftreten.

Zur Beantwortung dieser und weiterer Fragen wurde in der ELISA-Studie eine feste Bevölkerungsgruppe (Kohorte) aus Lübeck und Umgebung über ein Jahr regelmäßig unter-sucht und befragt. Über 3000 Personen nahmen mittels einer mobilen Studien-App teil. Über ein Jahr wurden knapp 100.000 Fragebögen erhoben und fast 20.000 PCR- und Antikörpertests durchgeführt. Die Studienorganisation einschließlich der Terminvergabe und die personalisierte Rückmeldung von Befunden erfolgten rein elektronisch.
Beantworten wollten die Forschenden aus den Bereichen Epidemiologie, Infektiologie und Neurologie zudem