StartAblageTägliche Meldungen 2021

Tägliche Meldungen 2021

Dezember 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.12.2021 Roboter sammeln Unterwasser-Müll auf
26.12.2021 Mut zur Lücke – auch im Genom
25.12.2021 Klima und Boden entscheiden über die Ausprägung von Pflanzenmerkmalen
23.12.2021 Darum schwimmen Fische die La-Ola-Welle
21.10.2021 Innovative Düngeverfahren: Weniger Emissionen bei Gülle-Düngung wachsender Bestände
20.12.2021 Neue Studie aus Bayreuth: Vermeintlich gleichartige Mikroplastik-Partikel zeigen unterschiedlich hohe Toxizität
18.12.2021 Max-Planck-Institut Magdeburg begleitet die Verwirklichung eines realen Power-to-X Systems
16.12.2021 Klimapolitik: Wie man den Emissionshandel vor preisverzerrender Finanzspekulation schützen kann
13.12.2021 Urzelle LUCA entstand durch Wasserstoffenergie
11.12.2021 Technologieentwicklung für kohlenstoffreie Energiesysteme geht in die Umsetzung
09.12.2021 3 Fragen an 3 Forschende: Wie der Klimawandel unsere Gewässer verändert
07.12.2021 Corona-Drittimpfung unerlässlich bei fehlender Immunantwort
06.12.2021 Wie man im Grundwasser Nitratkonzentrationen senken kann
05.12.2021 Mikroplastikabrieb von Abwasserrohren aus Kunststoff
01.12.2021 Müllschlucker: Korallen filtern Mikroplastik aus Meerwasser
Gesundheit
22.12.2021 Fettgewebe wichtiger Replikationsort von SARS-CoV-2
19.12.2021 Damit Fondue-Fleisch nicht krank macht
15.12.2021 Aufbruchsstimmung im deutschen Gesundheitswesen
08.12.2021 Studie der Uni Bonn: Fleischarme Kost hat viele Vorteile
04.12.2021 Den Schweregrad von COVID-19 besser einschätzen
02.12.2021 Personalisierte Medizin – Funktionierende, künstliche Leberzellen aus Hautgewebe
Gesellschaft
31.12.2021 Rekonstruktion kosmischer Geschichte kann Eigenschaften von Merkur, Venus, Erde und Mars erklären
30.12.2021 IAB-Arbeitsmarktbarometer: Stärkster Rückgang seit April 2020
28.12.2021 Digitale Transformation im Hochschulbereich: Erster University Innovation Report präsentiert Innovationen und Konzep
27.12.2021 „In die Zukunft schauen, wenn man die Gegenwart nur schwer aushält“
24.12.2021 Jenseits von Afrika: Der Weg des Homo sapiens
17.12.2021 TU Berlin forscht an 6G-Mobilfunknetz
14.12.2021 Konstanzer Homeoffice-Studie: Mobiles Arbeiten besonders bei Jüngeren gefragt
10.12.2021 Wie Lieferketten widerstandsfähiger werden
03.12.2021 Arbeit und Wohlfahrt im Globalen Süden
November 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
26.11.2021 Neue Studie: Regenfälle verursachen Mikroplastik-Transport in die Atmosphäre
22.11.2021 Ungehobene Datenschätze: Eintauchen in das Geoportal der Bundesanstalt für Gewässerkunde
21.11.2021 Bewertung und Monitoring von Moorflächen – Forschung für den Klimaschutz
19.11.2021 Mikrolabor auf einem Chip: Wasser gerne, aber bitte sauber
17.11.2021 Kohlendioxidausstoß bei der Zementproduktion kann langfristig drastisch reduziert werden
16.11.2021 Es geht darum, Menschen mit Wasser zu versorgen – Ein Videoportrait über den Wasserbau-Experten Franz Nestmann
14.11.2021 Menschliche Einflüsse verändern ein ozeanweites Naturgesetz
12.11.2021 Studie: Zentrale Umwelt- und Wirtschaftsakteure fordern ambitioniertere Klimapolitik der nächsten Bundesregierung
08.11.2021 Mit duktilen Gussrohren und Steinwolle zu einem besseren Stadtklima
07.11.2021 EU fördert zwei Forschungsprojekte mit Freiburger Beteiligung zur Unterstützung des European Green Deal
05.11.2021 Intelligente Lösungen für das „Öko Smart Home“
04.11.2021 Ein natürlicher CO2-Speicher dank symbiotischer Bakterien
03.11.2021 MCC: Eine Tonne CO₂ aus der Luft filtern kostet tausend Kilowattstunden Energie
01.11.2021 Anpassung an den Klimawandel: Großtechnische Umsetzung von Gemüseproduktion mit Wasserwiederverwendung
Gesundheit
30.11.2021 Die Zukunft der Blutdruckmessung: Kontinuierlich. In Echtzeit. In-Ear.
29.11.2021 Vitamin D-angereicherte Lebensmittel könnten Krebssterblichkeit senken
28.11.2021 Booster-Impfung mit mRNA-Impfstoffen auch für Schwangere und Stillende geeignet?
27.11.2021 Internationaler Männertag: Mehrheit der Männer scheut Krebsfrüherkennung
25.11.2021 Studien weisen gute Wirkung von Boosterimpfung nach Johnson&Johnson-Impfung sowie Kreuzimpfungen nach
20.11.2021 Möglicher Zusammenhang mit COVID-19-Infektionen: Veränderungen im Darmmikrobiom nachgewiesen
10.11.2021 Orientierung im Gesundheitssystem ist für viele schwierig
02.11.2021 Post-COVID: Analysen zeigen mögliche gesundheitliche Auswirkungen von COVID-19 auch bei Kindern und Jugendlichen
Gesellschaft
24.11.2021 Altern im Wandel – zwischen gesellschaftlicher und persönlicher Wahrnehmung
18.11.2021 Corona und Gesellschaft: Nur rund zwölf Prozent haben Verständnis für Querdenker
15.11.2021 Nur jeder zweite Beschäftigte sieht das eigene Unternehmen für die neue Arbeitswelt gerüstet
13.11.2021 Vulkane sind mitschuldig am Zusammenbruch chinesischer Dynastien
11.11.2021 Wenn Algorithmen kreativ werden
09.11.2021 Altern im Wandel – zwischen gesellschaftlicher und persönlicher Wahrnehmung
06.11.2021 Forschende aus Paderborn und Hannover entwickeln vereinfachte Methode zum Erfassen von drei Dimensionen in Fotos
Oktober 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.10.2021 Es wird heiß: Forschen bei 2000°C
29.10.2021 Zäh und trotzdem abbaubar
28.10.2021 Mikroorganismen bilden elementaren Kohlenstoff
27.10.2021 Grüner Wasserstoff aus Neuseeland
26.10.2021 Ariadne-Projekt zeigt: Die nächsten 10 Jahre sind für eine klimafreundliche Industriewende entscheidend
24.10.2021 Zahl gebietsfremder Arten in Hamburg und Umgebung steigt – Portal für die Meldung von Funden erweitert
23.10.2021 Summ-summ, schwirr’n Pestizide herum?
19.10.2021 Flutgebiete fit machen für den Klimawandel
17.10.2021 Harald Kunstmann: Grundwasser – Feuchter Sommer bringt Entspannung, gleicht Defizit aber nicht aus
14.10.2021 Bürgermessstelle für Umweltradioaktivität in der Nähe der Schachtanlage Asse II nimmt Betrieb auf
11.10.2021 Steinmeier: Gemeinsam umsteuern für Klimaschutz und Artenvielfalt
09.10.2021 Programm der Fraunhofer-Gesellschaft fördert Innovationsfähigkeit von KMU im Bereich der effizienten Wasseraufbereitung
08.10.2021 Mit naturbasierten Lösungen zu mehr Hochwasserschutz
07.10.2021 Der Klimawandel im Grundwasser: Neues Forschungsprojekt der TU Freiberg untersucht Transport von Mikroorganismen
06.10.2021 Wenn KI hilft, die Landwirtschaft nachhaltiger zu gestalten
04.10.2021 Hitzewellen im Meer haben drastische Folgen für Fischerei
03.10.2021 Biologie: Entscheidender Schritt bei der Umwandlung von Biomasse in Methan identifiziert
01.10.2021 Die seismische Chronik einer Sturzflut
Gesundheit
31.10.2021 Wie aus chronischer Darmentzündung Krebs entstehen kann
25.10.2021 Raucherentwöhnung mittels transkranieller Magnetstimulation: Wirksamkeit erstmals in großer Studie belegt
22.10.2021 Long COVID: potentieller therapeutischer Angriffspunkt entdeckt
18.10.2021 Auch ohne Arztbesuch: Neues nicht-klinisches Modell sagt zuverlässig Risiko für Herz-Kreislauf-Erkrankungen vorher
16.10.2021 Delta und Delta Plus weichen der Antikörperantwort aus
13.10.2021 Bildgebungskonzept erkennt Gefahrenmuster für Herz-​Kreislauf-Erkrankungen
12.10.2021 Impfbereitschaft steigt mit umfassender Information
02.10.2021 Übergewicht − Sind Frauen dabei gesünder als Männer?
Gesellschaft
21.10.2021 Neue Studie: Chancengerechtigkeit in der Bildung hat sich verbessert
20.10.2021 Warum systemische Risiken häufig unterschätzt werden – und wie Wissenschaft helfen kann
10.10.2021 Arbeitswelten der Zukunft – Ergebnisse des Projekts „Future Works“
05.10.2021 Die Umgestaltung der betrieblichen Mobilität erfolgreich meistern
September 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.09.2021 Durch die intelligente Kopplung von Strom- und Wärmeproduktion sowohl Ressourcen als auch CO2 einsparen
28.09.2021 Wie Geologie die Artenvielfalt formt
25.09.2021 Entwicklung von Ammoniak-Technologien für den Transport von Grünem Wasserstoff – Start von TransHyDE
24.09.2021 Prognosen für die Abfluss- und Stauregelung am Neckar bei Starkregenereignissen
22.09.2021 Leistungsstarke Brennstoffzellen für die Elektromobilität in hoher Stückzahl
19.09.2021 Worauf die Wissenschaft nach der Hochwasserkatastrophe Antworten finden muss
18.09.2021 Kunststoffrecycling aus Altfahrzeugen neu denken
16.09.2021 Seegraswiesen als Vibrionen-Fänger – Kieler Forschende beweisen eine weitere Leistung des Ostsee-Ökosystems
15.09.2021 Kostengünstige und netzfreundliche Erzeugung von Wasserstoff aus regenerativen Energiequellen im H2Giga-Projekt HyLeiT
12.09.2021 Ökoeffizientes Düngen schont Natur, Gesundheit und Geldbeutel
09.09.2021 Neues Fact Sheet zu Erkenntnissen zum Klimawandel im Ostseeraum
07.09.2021 Ganz genau: Präzision für die Energiewende
05.09.2021 Länderübergreifender Raumordnungsplan für den Hochwasserschutz in Kraft getreten
04.09.2021 Totholz als Kohlenstoff-Speicher: Insekten beschleunigen den Abbau am Kilimanjaro
01.09.2021 TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss
Gesundheit
29.09.2021 Covid-19-Impfung: Sterblichkeit nach seltener Nebenwirkung sinkt
26.09.2021 An COVID-19 erkrankte Menschen haben ein fast dreifach erhöhtes Dialyse-Risiko
14.09.2021 Die Bekämpfung von Diabetes und Adipositas muss vorrangiges Politikziel werden
13.09.2021 Schönere Beine, längeres Leben?
07.09.2021 Kopfschmerztag 2021: Auswirkungen des Corona-Lockdowns auf Patientinnen und Patienten mit primären Kopfschmerzen
06.09.2021 Neue Studie zeigt: Auch ältere Menschen profitieren von einer strikteren Blutdrucksenkung
02.09.2021 Boomender Klettersport: Verletzungen und Überlastungen an der Hand
Gesellschaft
27.09.2021 Genetische Abstammung und Erbe der Etrusker entschlüsselt
23.09.2021 Frühe Homo sapiens-Gruppen in Europa waren subarktischem Klima ausgesetzt
21.09.2021 Vom Laien zum Experten
20.09.2021 Unternehmensgeschichte: Bevölkerung erwartet Selbstkritik bei Fehlern und Krisen
17.09.2021 RWI-Konjunkturprognose: Materialengpässe verzögern die wirtschaftliche Erholung
11.09.2021 Warum uns mit dem Alter Wörter schlechter einfallen
10.09.2021 BAuA stellt Daten zur mentalen Gesundheit bei der Arbeit bereit
03.09.2021 Woher kommt der Montagsblues? – Studie der Universität Leipzig zu gefühlt schwierigstem Arbeitstag der Woche
August 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.08.2021 Neues Beratungstool für die Überflutungsvorsorge in Kommunen
30.08.2021 Gewässermonitoring aus dem All
29.08.2021 Neue Studienerkenntnisse können helfen, Hochwasser-Prognosen zu verbessern
23.08.2021 Reduktion des Energieverbrauchs von Funknetzen: TUD mit zwei Clusterprojektanträgen erfolgreich
22.08.2021 H2Giga: Serienfertigung von Elektrolyseuren
20.08.2021 Der Untergang der Europäischen Flusskrebse: Wenn Wirtschaft über Naturschutz siegt
19.08.2021 TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss
18.08.2021 TU Berlin: Zukünftiger Schutz gegen Extremniederschläge: weitere Bebauungsverbote dürfen kein Tabu sein
17.08.2021 Hochwasserrisiken wurden deutlich unterschätzt
16.08.2021 Hochwasser: Gift aus dem Flussbett
12.08.2021 Eintrag von Mikroplastik in der Umwelt reduzieren. TH Köln hat Sickerwasser der Deponie Leppe untersucht
10.08.2021 Mit dem Wasser leben: HCU-Dissertation zur aktuellen Hochwasserdebatte
08.08.2021 Wissenschaftler sieht Wiederaufbau im Ahrtal vor Herausforderungen
07.08.2021 Abfall als erneuerbare Energiequelle nutzen. Internationales Verbundprojekt der TH Köln in Mali
03.08.2021 Tauender Permafrost lässt Methan aus der Tiefe entweichen
01.08.2021 Industrie kann Flexi-Joker in der Energiewende werden
Gesundheit
28.08.2021 Nickel- und Kobaltallergie im Friseurhandwerk – Neue Studie an der Universität Osnabrück
24.08.2021 Information und Wissen haben heilsame Wirkung
21.08.2021 Corona-Spürhunde: Diag’nose‘
16.08.2021 Hahn-Schickard und Endress+Hauser gründen das Joint Venture Endress+Hauser BioSense
05.08.2021 Abwasser-Monitoring als Pandemie-Frühwarnsystem für Metropolen
02.08.2021 CoVis: Eine neue App zur Corona-Risikobewertung
Gesellschaft
27.08.2021 Interdisziplinäres Forschungsteam untersucht Rolle der RNA bei der Entstehung des Lebens
26.08.2021 Mitteleuropas Vorgeschichte war sehr dynamisch
25.08.2021 Wie wir wohnen, leben, arbeiten werden
04.08.2021 Erholung von der Corona-Krise: Betriebe blicken optimistischer in die Zukunft
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.07.2021 TH Köln entwickelt neuartige Membrantechnologie zur Trennung von Gasen
27.07.2021 Förderaufruf: Klimaschonendes Stickstoffmanagement im Pflanzenbau
25.07.2021 Fließgewässermonitoring: BUND startet gemeinsam mit Wissenschaftler:innen von UFZ und iDiv ein Citizen Science-Projekt
24.07.2021 Neue Ergebnisse: Salzwassereinbrüche können den Überdüngungsgrad der Ostsee nur wenig und nur vorübergehend verbessern
23.07.2021 Vermehrte Regenfälle im Sommer verändern den Kohlenstoffkreislauf in der Arktis
22.07.2021 Gereinigtes und ungereinigtes Abwasser: In Modellregion (Mexiko) werden Risiken beim Einsatz auf Agrarflächen erforscht
21.07.2021 Gesundheits-Check für Flüsse
20.07.2021 Dicker Luft zu Leibe gerückt – Protein-Baustein hilft atmosphärisches CO2 zu binden: Verfahren aus dem Rostocker LIKAT
19.07.2021 Neue Web-Plattform zur Planung der Hochwasservorsorge in Städten
17.07.2021 Wissenschaftliche Politikberatung im Projekt MACSUR SciPol: Mit Wissenschaft gegen den Klimawandel
16.07.2021 Pärchenbeziehung ist meist von Vorteil für Bakterien: Ökologen der Uni Osnabrück untersuchen Teamwork in der Natur
15.07.2021 Gereinigtes und ungereinigtes Abwasser: In Modellregion (Mexiko) werden Risiken beim Einsatz auf Agrarflächen erforscht
14.07.2021 Ganz nach Plan
10.07.2021 Metallrückgewinnung aus Abwässern: Innovative biotechnologische Verfahren und ihr Impact
08.07.2021 Hy2Biomethane: Intelligente Kombination von Biogas und Wasserstoff
07.07.2021 Carbon Black aus Autoreifen recyceln
05.07.2021 Säure in der Nano-Pore: Wasser in Zeolithen hilft bei der Umwandlung von Biomasse in Biosprit
04.07.2021 Ist Carsharing gut für die Umwelt?
01.07.2021 Gemeinsam für Umwelt und Gesellschaft: Umfangreiche Analyse zum Klimawandel vorgestellt
Gesundheit
26.07.2021 Kinder entwickeln langfristige Immunität gegen COVID-19
12.07.2021 Bohnen nur gegart genießen
11.07.2021 Corona macht uns müde
09.07.2021 Neue Daten zur Langzeit-Immunität von COVID-19-Infizierten
06.07.2021 SARS-CoV-2: Schnelltests nur bedingt zuverlässig
03.07.2021 Kontaktlinse fürs Ohr
Gesellschaft
29.07.2021 Lernpausen sind gut fürs Gedächtnis
28.07.2021 Chinesischer Mais-Hunger wird bleiben
18.07.2021 Ein wissenschaftlicher Test enthüllt, wie anfällig ein Mensch für Corona-Mythen ist
13.07.2021 25.000 Jahre altes menschliches Umweltgenom wiederhergestellt
02.07.2021 19,6 Millionen Beschäftigte arbeiten in einer anderen Gemeinde
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.06.2021 Kleingewässer in Agrarlandschaften stark mit Pestiziden belastet
28.06.2021 60 Prozent der Flüsse weltweit fallen zeitweise trocken – Tendenz steigend
26.06.2021 Positionspapier: Herausforderungen einer nationalen Wasserstrategie in Forschung und Umsetzung
23.06.2021 Geplante Maßnahmen des Nationalen Hochwasserschutzprogramms sind wirksam
21.06.2021 Schaufenster Bioökonomie: Dünger aus Bioabfällen und häuslichen Abwässern
19.06.2021 Woche der Umwelt: BAM präsentiert innovatives Messverfahren für Mikroplastik
18.06.2021 Zurück zur Natur? Wie die Renaturierung von Gewässern sozial-ökologisch gestaltet werden kann
16.06.2021 Steinmeier: Wir befinden uns mitten im Umbruch ins postfossile Zeitalter
14.06.2021 KIT: Zuckerhirse: Süßes Versprechen für die Umwelt
13.06.2021 Gewässerschutz: Deutsche haben ökologische Grundwerte, aber wenig Bezug zu Fischen
11.06.2021 Dem Meeresmüll trotzen
10.06.2021 Wie Katalysatoren altern
07.06.2021 Pflanzenkonkurrenz im Klimawandel
06.06.2021 HSD-Forschungsschwerpunkt „Umweltmesstechnik in der Luftreinhaltung“ zum aktuellen EuGH-Urteil
04.06.2021 Meilenstein für nachhaltige Batterien – „grünere“ Kohlenstoffe
02.06.2021 Verklär²: Innovatives Verwertungskonzept für energieautarke und ressourcenschonende Kläranlagen
Gesundheit
29.06.2021 Fußball-Bundesliga: Stadionbesuche ohne konsequente Maskenpflicht führten zu mehr Infektionen
27.06.2021 Schlaf trägt möglicherweise zur besseren Wirksamkeit einer Impfung und zu einer verbesserten Immunabwehr bei
25.06.2021 Weniger sozialer Zeitdruck fördert den Schlaf und das Wohlbefinden
22.06.2021 Studie: Besonders deutliche Immunantwort bei der Impfstoffkombination von Astrazeneca und Biontech
20.06.2021 Innerer Kompressionsstrumpf wirkt gegen Krampfadern
17.06.2021 Einladung zum IST-Webinar: „Power für den Tag – wie Sie Ihre Schlafprobleme lösen“
15.06.2021 Kniearthrose: Wann kommt ein Gelenkersatz infrage? Gibt es Alternativen? IQWiG legt Entscheidungshilfe vor
09.06.2021 «Wir sollten den Einfluss von Reisen nicht unterschätzen»
01.06.2021 Einjährige Corona-Studie ELISA zu Antikörpern zeigt: Dunkelziffer ist deutlich zurückgegangen
Gesellschaft
24.06.2021 Einkommen, Vermögen, Aufstiegschancen: Wie die Deutschen Ungleichheit (miss-)verstehen
12.06.2021 Roboterhunde auf der Baustelle
08.06.2021 Studie: Mit KI Ressourcen im Betrieb wirksam einsetzen
05.06.2021 Wie man Elfmeter besser halten kann
03.06.2021 Es gibt einen deutlichen Zusammenhang zwischen freiwilligem Engagement und positiven Einstellungen zu Demokratie
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.05.2021 In Millisekunden von verschmutztem zu klarem Wasser – Neue Erkenntnisse im Bereich Nanoscience
29.05.2021 Vibrionen und Klimawandel: Können Natur-basierte Methoden das Gefährdungspotenzial in der Ostsee mildern?
27.05.2021 Grundwasserüberwachung mit Erdbebenmessgeräten
26.05.2021 Nachhaltige Stromerzeugung in Aquakultur, Kläranlage und Abwasserkanal
25.05.2021 Was Städteplaner aus der Corona-Krise lernen
23.05.2021 Neue Fachzeitschrift präsentiert Wissen aus der Fischereiforschung
21.05.2021 Multitalent für die Elektromobilität – der CrossChargePoint – ein Projekt der TH Deggendorf
20.05.2021 Unsichtbares sichtbar machen
18.05.2021 Neue Frühwarnsignale: Teile des grönländischen Eisschildes könnten Kipppunkt überschreiten
17.05.2021 Neue REBOWL bald auch aus Biokunststoff? IfBB entwickelt nachhaltiges Material für neue Mehrweg-Schale
16.05.2021 Verarmte Flora in Wiesen und Wäldern gefährdet Insekten
15.05.2021 Geothermie als nachhaltige Energiequelle: Neue Fallstudie zeigt Potenziale für die Verringerung von CO₂-Emissionen
11.05.2021 Bioaktive Papierbeschichtung ersetzt Kunststoffverpackungen bei Lebensmitteln
10.05.2021 KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten
09.05.2021 Von Gewittern über Starkregen bis Dürreperioden
07.05.2021 Schadstoffabbau und Treibhausgas-Verringerung: Neue Studie zur Funktionsweise aquatischer Ökosysteme
05.05.2021 Mehr Widerstandskraft für die Schweizer Energieversorgung
04.05.2021 Ausgezeichnete Klimaaktivitäten als Blaupause für Kommunen
03.05.2021 Bioraffinerie am Bauernhof der Zukunft
01.05.2021 Mehr Gemüse, weniger Milch
Gesundheit
30.05.2021 Hygieneregeln wirken auch gegen britische und südafrikanische Mutante
28.05.2021 Wann und wie schädigt Alkohol das Gehirn?
24.05.2021 Gesichtsmasken schützen effektiv vor COVID-19
19.05.2021 Corona: Neue Webanwendung Aerosol Control berechnet Infektionsrisiko
13.05.2021 Studie: Das durchschnittliche Einzelkrankenhaus hat wenig Zukunft
02.05.2021 Grippeschutzimpfung: Neue Richtlinie verbessert Versorgung älterer Menschen
Gesellschaft
22.05.2021 Die Macht der Bilder – Wissenschaftler untersuchen ihren Einfluss bei der Magersucht
14.05.2021 Drei Viertel der Beschäftigten mit Homeoffice-Option sind teilweise oder ausschließlich im Homeoffice tätig
12.05.2021 Neue Studie aus Bayreuth: Deutlicher Anstieg des Radfahrens in Großstädten nach Lockdown-Beginn 2020
08.05.2021 Fehler am Anfang des Lebens
06.05.2021 Beruflicher Erfolg beeinflusst die Persönlichkeit
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.04.2021 Korallen, die Algen spucken
28.04.2021 Einkaufen ohne Verpackungsmüll
23.04.2021 Einladung zum HNEE-Feldtag: Austausch über die Vielfalt im Wurzelraum
22.04.2021 Kraftstoffe & Energieträger der Zukunft
21.04.2021 Keine Ausreden mehr: EU-Kommissar Frans Timmermans unterstreicht ein effektives Recycling von Hightech-Kunststoffen
20.04.2021 Grüner Wasserstoff: Israelisch-deutsches Team löst das Rätsel um Rost
18.04.2021 Wohlhabendere Länder im Vorteil
17.04.2021 Kampf gegen Mikroplastik: Neues Verfahren zur Herstellung von Dämmstoff aus Kunststoffabfällen
15.04.2021 Zuverlässig messen, ob Flüssen und Seen die Luft ausgeht
14.04.2021 Entwicklung von Wasserstofftanks für Kraftfahrzeuge
11.04.2021 Trotz verbessertem Umweltmonitoring: Der ökologische Zustand von europäischen Gewässern verschlechtert sich
10.04.2021 Wirkung des Lockdowns auf Luftqualität an den Straßen und damit im Alltag zu spüren
09.04.2021 Die Pandemie für den Umweltschutz nutzen
07.04.2021 Welche Rolle spielt das Grundwasser für die Küstenmeere?
06.04.2021 Grüner Wasserstoff: Transport im Erdgasnetz
05.04.2021 Ein neuer Zustand des Lichts
01.04.2021 Neuer Schwung für die Elektromobilität: Entwicklung von effizienteren Lithium-Ionen-Batterien
Gesundheit
26.04.2021 Starker Rückgang der Darmkrebs-Inzidenz und -Sterblichkeit seit Einführung der Vorsorge-Darmspiegelung
25.04.2021 Neue Ursache zur Entstehung von Leukämie entdeckt
19.04.2021 Papier-basierter Covid-19-Antikörper-Test – TU-Forschende veröffentlichen ihre Entwicklung in „Scientific Reports“
13.04.2021 Mehr als die Summe der Mutationen – 165 neue Krebsgene mit Hilfe maschinellen Lernens identifiziert
03.04.2021 Röntgenlichtquelle PETRA III identifiziert vielversprechende Kandidaten für Coronamedikamente
Gesellschaft
29.04.2021 Wem gehört der Fußball?
26.04.2021 Studie: Wie verändern Berufseinstieg und Renteneintritt die Persönlichkeit?
24.04.2021 Langeweile und Selbstkontrolle in der Pandemie
16.04.2021 Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik
12.04.2021 Mehr Brot und Süßigkeiten im Lockdown
08.04.2021 Aktuelle Auswertung von Lohnspiegel.de – Diese fünf Faktoren bestimmen Ihr Gehalt
04.04.2021 Apokalyptische und Postapokalyptische Studien
02.04.2021 Covid-19 und der öffentliche Raum in der Krise
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.03.2021 Neue Methode für die Speicherung erneuerbarer Energien
28.03.2021 Die beständige Gefahr nach Landschaftsbränden: Verkohlte Pflanzen enthalten schädliche freie Radikale
27.03.2021 Neuartige, haltbare biologisch abbaubare Flaschen aus Biokunststoffen
26.03.2021 DBFZ präsentiert umfangreich erweiterte Onlinedatenbank zu biogenen Rohstoffen
25.03.2021 Emissionsrückgang aufgrund der Corona-Lockdowns hat das globale Klima nicht wesentlich beeinflusst
22.03.2021 Mit „innovatION“ nationale und internationale Wasserressourcen sichern
21.03.2021 Risiken von Wasserknappheit begrenzen: Bewässerungsmanagement entscheidend für Bioenergie-Anbau zum Klimaschutz
20.03.2021 Auf der Suche nach Lösungen für Klimawandelfolgen in Nord- und Ostsee: Küstenforschungsverbund KüNO geht in dritte Runde
19.08.2021 Lachsdetektor zur Erfolgskontrolle am Rhein
18.03.2021 Mikroplastik in der Elbe
14.03.2021 Erste Lausitzer Wasserkonferenz in Cottbus startet durch
13.03.2021 Europäisches Forschungsnetzwerk untersucht die Mikroplastikbelastung von Ackerböden
12.03.2021 Klimawandel verändert Abflussmenge von Flüssen
11.03.2021 Erholung an europäischen Gewässern bringt Volkswirtschaft 800 Milliarden Euro
10.03.2021 Neue Studie zeigt: Mehr Müll durch COVID-19 Pandemie
09.03.2021 Eine “Modell-Botschaft” für die Ostsee: die weitere Umsetzung von Nährstoff-Reduktionen wird am Ende erfolgreich sein
08.03.2021 Die Weltmeere sickern tiefer in die Erde als erwartet
06.03.2021 Energiewende der Schweiz
04.03.2021 BLUE PLANET Berlin Water Dialogues – Virtuelle Vernetzungsmöglichkeiten mit der internationalen Wasserbranche
02.03.2021 Die Mikroplastik-Belastung der Ostsee: Neue Ansätze für Monitoring und Reduktionsmaßnahmen
Gesundheit
23.03.2021 Wenn Salz, dann Jodsalz
15.03.2021 TU Berlin: Weniger Behandlungsfälle trotz Pandemie
07.03.2021 Virus-Varianten in der Pandemie schneller aufspüren
03.03.3021 70 Prozent weniger Darmkrebs-Todesfälle nach Vorsorge-Darmspiegelung
Gesellschaft
30.03.2021 Arbeitszeit von Männern und Frauen: Wunsch und Wirklichkeit klaffen auseinander
29.03.2021 IAB-Arbeitsmarktbarometer legt weiter zu, dennoch bleiben Risiken
24.03.2021 Grundsteuer belastet vor allem ärmere Haushalte in Mietwohnungen
17.03.2021 Arbeitsbedingungen in sozialen Berufen verschlechtern sich weiter
16.03.2021 Internetnutzung von Menschen in der zweiten Lebenshälfte während der Pandemie: Soziale Ungleichheiten bleiben bestehen
05.03.2021 2019 gingen weniger Beschäftigte vorzeitig in Rente
01.03.2021
kompetenzz-Studie zeigt: Partnerschaftliche Teilung der Arbeit im Haushalt – Frauen wollen sie, Männer auch
Umwelt
Gesundheit
Gesellschaft
Umwelt
28.02.2021 Golfstrom-System schwächer als je zuvor im vergangenen Jahrtausend
26.02.2021 Report: Energiewende-Projekt Ariadne diskutiert mit Menschen aus ganz Deutschland zur Strom- und Verkehrswende
25.02.2021 Cyanobakterien könnten die Plastikindustrie revolutionieren
23.02.2021 Erhöhter Wasserverbrauch in Zeiten des Lockdowns. Was bedeuten veränderte Routinen für die Versorgungssicherheit?
22.02.2021 Der Meeresspiegel an Nord- und Ostseeküste steigt
21.02.2021 Ein neuer Master-Studiengang Biotechnologie
19.02.2021 Perspektiven-Papier zeigt Forschungsbedarf zur unterirdischen Wasserstoffspeicherung
17.02.2021 Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem
16.02.2021 Wärmere Winter führen zu weniger Heringsnachwuchs in der westlichen Ostsee
15.02.2021 Ganzheitliches Aktivkohleverfahren beseitigt Spurenstoffe in Kläranlagen
14.02.2021 Verborgenes Wissen heben, um Ökovielfalt der Meere zu retten
11.02.2021 ACHEMA Pulse – das neue digitale Flagschiff für die Prozessindustrie setzt Segel
10.02.2021 Wie beeinträchtigt der Biokraftstoff E10 Filtersysteme im Auto?
07.02.2021 MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich
06.02.2021 CO2 ist nicht alles: Klimapolitik braucht stärkeren Fokus auf kurzlebige Schadstoffe
05.02.2021 Plastik in der Umwelt finden und vermeiden
02.02.2021 Folgen des Klimawandels an der Küste
01.02.2021 Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem
Gesundheit
24.02.2021 Klimawandel spielte womöglich wichtige Rolle bei der Entstehung vom SARS-CoV-2
20.02.2021 Schnellere und richtigere Diagnosen
13.02.2021 Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit
12.02.2021 Studie in Tansania: Traditionelle Ernährung verursacht weniger Entzündungen
03.02.2021 Höhere Tierwohlstandards lassen Milchpreise steigen
Gesellschaft
27.02.2021 Lerntechnologien und Mathematikdidaktik gemeinsam entwickeln
10.02.2021 BAuA-Arbeitszeitbefragung: Arbeitszeitgeschehen zeigt positive Trends bei hoher Stabilität
09.02.2021 Mit KI den Parkdruck auf der Straße messen
07.02.2021 Wie beeinflusst die Pandemie unser Denken und Fühlen?
02.02.2021 Fußball und Inklusion: Auf das richtige Trainingsklima kommt es an
Januar 2021
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.01.2021 Neue Untersuchungen bestätigen Munitionsbelastung in der Ostsee erneut
29.01.2021 CO2-Bepreisung allein bringt technologischen Wandel kaum voran
28.01.2021 Stress an den deutschen Flüssen: Der Klimawandel setzt Umwelt und Wirtschaft unter Druck
27.01.2021 Regionaler Wasserstoff aus Biomasse – sauber und effizient!
26.01.2021 Permanenter Hitzezustand / Klimawandel fördert das Aufheizen von Seen
25.01.2021 Benzinpreise steigen nach CO2-Bepreisung und Mehrwertsteuererhöhung weniger als erwartet
24.01.2021 Klimawandel und Wasserstraßen
22.01.2021 KIT: Thermomagnetische Generatoren wandeln Abwärme auch bei kleinen Temperaturunterschieden in Strom
21.01.2021 Kommt Trinkwasser bald aus dem Meeresboden?
20.01.2021 Grundwasser beeinflusst die Chemie des Ozeans
18.01.2021 Corona-Trend Angeln: Die Artenvielfalt könnte profitieren
16.01.2021 Das neue Gesicht der Antarktis
14.01.2021 Seilbahnen als umweltfreundliche Alternative zum Autoverkehr
12.01.2021 Stadtlogistik: Wie lässt sich die „Letzte Meile“ möglichst nachhaltig gestalten?
10.01.2021 Verzicht auf Silvesterfeuerwerk erspart der Umwelt Tausende Tonnen Kunststoffe
07.01.2021 TU Berlin: Klärschlämme und Plastikfolien kontaminieren die Felder
05.01.2021 Neuer Forschungsverbund als „Turbo für Atmosphären- und Klimaforschung sowie Meteorologie“
02.01.2021 Speicherung erneuerbarer Energien und CO2-Verwertung
Gesundheit
30.01.2021 An der Uhr gedreht: Wie Zeit das Arbeitsgedächtnis beeinflusst
19.01.2021 Corona-Warn-App auf dem Prüfstand
17.01.2021 Schlaf für Erholung des Gehirns unersetzlich
13.01.2021 Erste Daten des Corona-Impfstoffes zeigen gute Verträglichkeit, aber schwache Immunreaktion
09.01.2021 Stellungnahme des KKNMS zur Methode der mRNA Vakzinierung
08.01.2021 Ein unbehandelter Bluthochdruck erhöht das Risiko für schwere COVID-19-Verläufe
04.01.2021 Generation 80+: Impfbereitschaft gut, Erreichbarkeit der Impfzentren schlecht
03.01.2021 Immunüberreaktion erklärt schweren COVID-19 Verlauf bei Patient*innen mit Bluthochdruck – Können ACE-Hemmer helfen?
Gesellschaft
23.01.2021 Erfolgsfaktoren für die Gestaltung einer teamorientierten Arbeitswelt
15.01.2021 Wenn ältere Beschäftigte ihr Wissen nicht mit Jüngeren teilen
11.01.2021 Menschen hören das, was sie zu hören erwarten
06.01.2021 Studie: Wie (un)beliebt ist die „Corona-Warn-App“?
01.01.2021 IAB-Arbeitsmarktbarometer: Arbeitsmarktentwicklung bleibt stabil
 

Rekonstruktion kosmischer Geschichte kann Eigenschaften von Merkur, Venus, Erde und Mars erklären

Dr. Markus Pössel Öffentlichkeitsarbeit
Max-Planck-Institut für Astronomie
Astronomen ist es gelungen, die Eigenschaften der inneren Planeten unseres Sonnensystems aus unserer kosmischen Geschichte heraus zu erklären: durch Ringe in der Scheibe aus Gas und Staub, in der die Planeten entstanden sind. Die Ringe hängen mit Eigenschaften zusammen wie dem Übergang von einer äußeren Region, in der sich Eis bilden kann, zu einer inneren Region, in der Wasser nur als Wasserdampf existieren kann. Die Astronomen nutzten eine Reihe von Simulationen, um verschiedene Möglichkeiten der Entwicklung der inneren Planeten zu untersuchen. Die Ergebnisse wurden in der Fachzeitschrift Nature Astronomy veröffentlicht.

In groben Zügen ist das Bild der Astronomie von der Entstehung unseres Sonnensystems seit Jahrzehnten unverändert. Aber die Details sind nach wie vor Gegenstand aktueller Forschung. Jetzt hat eine Gruppe von Astronomen unter der Leitung von Andre Izidoro von der Rice University, zu der auch Bertram Bitsch vom Max-Planck-Institut für Astronomie gehört, eine Erklärung für die Eigenschaften der inneren Planeten unseres Sonnensystems gefunden.

Eine wirbelnde Scheibe und Ringe, die alles verändern
Um einen jungen Stern bildet sich eine „protoplanetare Scheibe“ aus Gas und Staub, und in dieser Scheibe wachsen immer größere kleine Körper, die schließlich Durchmesser von Tausenden von Kilometern erreichen, das heißt: zu Planeten werden. Doch in den letzten Jahren hat sich das moderne Bild der Planetenentstehung dank moderner Beobachtungsmethoden verfeinert und in ganz bestimmte Richtungen verändert.

Die auffälligste Veränderung wurde durch ein Foto ausgelöst: das erste Bild, das die ALMA-Beobachtung nach ihrer Fertigstellung im Jahr 2014 aufnahm. Das Bild zeigt die protoplanetare Scheibe um den jungen Stern HL Tauri in nie dagewesener Detailtreue. Was dabei sichtbar wurde, hatten die Astronom*innen zuvor noch nie so direkt gesehen: ein regelmäßiges Muster aus Ringen und Lücken in dieser Scheibe.

Im Vergleich mit Simulationen protoplanetarer Scheiben wurde klar, dass solche Ringe und Lücken in der Regel mit „Druckschwellen“ verbunden sind, also Regionen, in denen der lokale Druck etwas niedriger ist als in den umliegenden Regionen. Das Auftreten solcher Druckschwellen ist typischerweise mit Veränderungen in der Scheibenzusammensetzung verbunden, vor allem in der Größe der Staubkörner.

Drei Übergänge, drei Ringe
Insbesondere gibt es Druckschwellen in drei wichtigen Übergangsregionen, die direkt mit grundlegenden physikalischen Eigenschaften zusammenhängen. In unmittelbarer Nähe des Sterns, bei Temperaturen über 1400 Kelvin, können Silikatverbindungen (ähnlich jenen aus denen Sandkörner bestehen) nur als Gas vorkommen. Insbesondere können innerhalb dieser Grenze überhaupt keine Planeten entstehen. Außerhalb der Grenze, also unterhalb der genannten Temperatur, gehen die Silikatverbindungen direkt in einen festen Zustand über (sie „kondensieren“). Damit ist eine innere Grenze für die Planetenbildung definiert.

Weiter außen, bei 170 Kelvin (-100 Grad Celsius), gibt es einen Übergang zwischen Wasserdampf einerseits und Wassereis andererseits, die so genannte (Wasser-)Schneelinie. (Der Grund dafür, dass diese Temperatur so viel niedriger ist als die uns vertraute Übergangstemperatur von 0 Grad Celsius, bei denen Wasser auf der Erde gefriert, ist der im Vergleich zur Erdatmosphäre viel geringere Druck). Bei noch niedrigeren Temperaturen, 30 Kelvin (-240 Grad Celsius), liegt die CO-Schneegrenze; unterhalb dieser Temperatur bildet Kohlenmonoxid ein festes Eis.

Druckschwellen als Pebble-Fallen
Was bedeutet das für die Entstehung von Planetensystemen? Eine Reihe früherer Simulationen hatten bereits gezeigt, wie solche Druckschwellen die Bildung von Planetesimalen erleichtern – also die Entstehung jener kleinerer Objekte mit einem Durchmesser zwischen 10 und 100 Kilometern, von denen man annimmt, dass sie die Bausteine für Planeten sind.

Die Planetenentstehung beginnt ja mit ungleich kleineren Objekten, nämlich mit Staubkörnern. Diese Staubkörner neigen dazu, sich in der Region etwas niedrigeren Drucks zu sammeln, die man in einer Druckschwelle findet. Körner einer bestimmten Größe driften natürlicherweise immer weiter nach innen, also auf den Stern zu, bis sie durch den höheren Druck am inneren Rand der Druckschwelle gestoppt werden.

Mit zunehmender Konzentration der Staubkörner an der Druckschwelle und insbesondere mit zunehmendem Verhältnis von festem Material (das dazu neigt, weiter zusammenzuklumpen) zu Gas (das die Staubkörner auseinander drückt) wird es für diese Körner leichter, sich zu sogenannten Pebbles zusammenzuschließen. Das ist der nächste Schritt auf dem Entwicklungsschritt hin zu größeren Objekten: Pebbles, wörtlich „Kieselsteinchen“, sind Klumpen von einigen Millimetern bis zu einigen Zentimetern Größe.

Die Rolle von Druckschwellen für das (innere) Sonnensystem
Aber was ist die Rolle solcher Strukturen für die großräumigen Eigenschaften von Planetensystemen wie unserem eigenen Sonnensystem? Dort haben wir es ja mit einer charakteristischen Verteilung von felsigen, terrestrischen inneren Planeten und äußeren Gasplaneten zu tun. Mit der offenen Frage, wie sich diese Verteilung erklären lässt, beschäftigten sich Andre Izidoro (Rice University) und Bertram Bitsch vom Max-Planck-Institut für Astronomie und ihre Kollegen. Auf der Suche nach Antworten kombinierten sie mehrere Simulationen, die verschiedene Phasen der Planetenbildung abdecken.

Konkret konstruierten die Astronomen ein Modell einer Gasscheibe mit drei Druckschwellen: an der Grenze, ab der Silikate gasförmig werden, sowie an den Wasser- und CO-Schneelinien. Anschließend simulierten sie, wie Staubkörner in der Gasscheibe wachsen (und zum Teil ja auch wieder auseinanderfallen), die Bildung von Planetesimalen, das Wachstum von Planetesimalen zu Planetenembryonen (von 100 km Durchmesser auf 2000 km) in der Nähe unserer Erde (im Abstand „1 Astronomische Einheit“, der mittleren Entfernung der Erde von der Sonne), das Wachstum von Planetenembryonen zu Planeten für die terrestrischen Planeten sowie die Ansammlung von Planetesimalen in einem neu gebildeten Asteroidengürtel.

In unserem eigenen Sonnensystem beherbergt der Asteroidengürtel zwischen den Umlaufbahnen von Mars und Jupiter zahlreiche kleinere Körper (davon geschätzt zwischen 100 und 1000 mit Durchmessern von 10 Kilometern und mehr), von denen man annimmt, dass sie Überreste oder Kollisionsfragmente von Planetesimalen in jener Region sind, die nie zu Planetenembryonen, geschweige denn zu Planeten heranwuchsen.

Variationen über ein planetarisches Thema
Bei Simulationen dieser Art ist die folgende Frage von einigem Interesse: Was, wenn die Ausgangsbedingungen nur ein wenig anders wären? Wäre das Endergebnis dasselbe (oder zumindest ähnlich), oder komplett anders? Das Verständnis dieser Art von Variationen ist wichtig, um zu verstehen, welche der Zutaten für das Ergebnis der Simulation entscheidend sind. Aus diesem Grund analysierten Bitsch und seine Kollegen eine Reihe verschiedener Szenarien mit unterschiedlichen Eigenschaften für die Zusammensetzung und das Temperaturprofil der protoplanetaren Scheibe. In einigen der Simulationen berücksichtigten sie dabei nur die Silikat- und Wassereis-Druckschwellen, in anderen alle drei Druckschwellen.

Die Ergebnisse zeigen einen direkten Zusammenhang zwischen dem Aussehen unseres Sonnensystems und der Ringstruktur seiner protoplanetaren Scheibe. Bertram Bitsch vom Max-Planck-Institut für Astronomie, der sowohl an der Planung dieses Forschungsprogramms als auch an der Entwicklung einiger der verwendeten Methoden beteiligt war, sagt: „Für mich war es eine völlige Überraschung, wie gut unsere Modelle die Entwicklung eines Planetensystems wie unseres Sonnensystems abbilden konnten – bis hin zu den leicht unterschiedlichen Massen und chemischen Zusammensetzungen von Venus, Erde und Mars.“

Wie erwartet, bildeten sich in diesen Modellen Planetesimale in natürlicher Weise in der Nähe der Druckschwellen: in einem „kosmischen Stau“ für nach innen driftende Pebbles, die dann durch den höheren Druck an der inneren Grenze des Druckschwelle aufgehalten wurden.

Rezept für unser (inneres) Sonnensystem
Für die inneren Regionen der simulierten Systeme konnten die Forscher auf diese Weise herausfinden, welche Bedingungen für die Entstehung unseres eigenen Sonnensystems nötig sind: Enthält die Region direkt außerhalb der innerste Druckschwelle (gasförmige vs. feste Silikate) Planetesimale mit einer Gesamtmasse von rund 2,5 Erdmassen, so wachsen jene zu etwa marsgroßen Körpern heran – passend zu den inneren Planeten im Sonnensystem.

Eine massereichere Scheibe oder aber auch eine höhere Effizienz bei der Bildung von Planetesimalen würde stattdessen zur Entstehung von „Super-Erden“ führen, deutlich massereicheren Felsplaneten. Deren Umlaufbahnen wären vergleichsweise eng am Stern, direkt an der Grenze der innersten Druckschwelle. Die Existenz dieser Grenze kann natürlicherweise auch erklären, warum es keinen Planeten gibt, der näher an der Sonne liegt als Merkur – das nötige Material wäre in dieser Nähe des Sterns einfach verdampft.

Die Simulationen gehen sogar so weit, dass sie die leicht unterschiedliche chemische Zusammensetzung von Mars auf der einen und Erde und Venus auf der anderen Seite erklären: In den Modellen sammeln Erde und Venus das meiste Material, aus dem sich ihre Masse bilden wird, aus Regionen, die näher an der Sonne liegen als die derzeitige Umlaufbahn der Erde. Die Mars-Analoga in den Simulationen dagegen entstanden hauptsächlich aus Material aus Regionen, die etwas weiter von der Sonne entfernt sind.

Wie man einen Asteroidengürtel baut
Jenseits der Marsumlaufbahn entstand in den Simulationen eine Region, die anfangs nur spärlich mit Planetesimalen besiedelt oder in einigen Fällen sogar völlig leer war – der Vorläufer des heutigen Asteroidengürtels unseres Sonnensystems. Einige Planetesimale aus den Zonen innerhalb oder direkt jenseits des Asteroidengürtels verirrten sich jedoch später in die Region des Asteroidengürtels und blieben dort hängen.

Zusammenstöße jener Planetesimale führten zur Entstehung kleinerer Brocken und damit dem, was wir heute als Asteroiden beobachten. Die Simulationen sind sogar in der Lage, die verschiedenen Asteroidenpopulationen zu erklären: Die als S-Typ-Asteroiden bezeichneten Körper, die größtenteils aus Siliziumdioxid bestehen, wären die Überreste von versprengten Objekten aus der Region rund um den Mars, während die C-Typ-Asteroiden, die überwiegend Kohlenstoff enthalten, aus der Region direkt außerhalb des Asteroidengürtels gekommen wären.

Äußere Planeten und Kuipergürtel
In dieser äußeren Region, knapp außerhalb der Druckschwelle, die die innere Grenze für das Vorhandensein von Wassereis markiert, zeigen die Simulationen den Beginn der Bildung von Riesenplaneten an. Die Planetesimale in der Nähe dieser Grenze haben in den meisten der Simulationen eine Gesamtmasse zwischen dem 40- und 100-fachen der Masse der Erde. Das mit Abschätzungen zur Gesamtmasse der Kerne der Riesenplaneten Jupiter, Saturn, Uranus und Neptun in unserem Sonnensystem überein.

Unter diesen Verhältnissen sollten die massereichsten Planetesimale schnell an Masse zunehmen. In den vorliegenden Simulationen wurde diese (anderweitig bereits gut untersuchte) spätere Entwicklung dieser Riesenplaneten nicht weiterverfolgt. Dabei liegen die Umlaufbahnen jener Riesen anfänglich recht eng beieinander. Uranus und Neptun wandern erst später nach außen zu ihren heutigen Abständen von der Sonne.

Nicht zuletzt können die Simulationen eine weitere Klasse von Objekten und ihre Eigenschaften erklären: die so genannten Kuiper-Gürtel-Objekte. Sie entstehen außerhalb der dritten, äußersten Druckschwelle, welche die innere Grenze für die Existenz von Kohlenmonoxid-Eis markiert. Die Simulationen zeigen sogar, woher die leichten Unterschiede in der Zusammensetzung der bekannten Kuipergürtel-Objekte stammen: Sie ntsprechen den Unterschieden zwischen Planetesimalen, die sich ursprünglich außerhalb der CO-Schneelinie gebildet hatten und dort geblieben sind, und Planetesimalen, die sich aus der angrenzenden inneren Region der Riesenplaneten in den Kuipergürtel verirrt haben.

Zwei mögliche Ergebnisse und ein seltenes Sonnensystem
Insgesamt gab es bei den Simulationen zwei grundlegend unterschiedliche Ergebnisse: Entweder bildete sich sehr früh eine Druckschwelle an der Wassereis-Schneelinie aus. In dem Falle entwickelten sich innere und äußere Region des Planetensystems bereits recht früh unabhängig voneinander, nämlich ab den ersten hunderttausend Jahren. Das führte zur Entstehung massearmer erdähnlicher Planeten im inneren Planetensystem, wie in unserem eigenen Sonnensystem.

Bildet sich die Wasser-Schneegrenze-Druckschwelle dagegen später oder war sie insgesamt nicht so ausgeprägt, dann konnte mehr Masse in den inneren Bereich driften. Das wiederum führte zur Entstehung von Super-Erden oder Mini-Neptunen im inneren Teil des Planetensystems. Die Statistik derjenigen Exo-Planetensysteme, die Astronom*innen bisher gefunden haben, zeigt, dass dieser Fall bei weitem wahrscheinlicher ist – und unser eigenes Sonnensystem ein vergleichsweise seltenes Ergebnis darstellt.

Ausblick
Die hier beschriebene Studie konzentriert sich auf das innere Sonnensystem mit seinen terrestrischen (erdähnlichen) Planeten. Als nächstes wollen die beteiligten Astronomen Simulationen durchführen, die auch die äußeren Regionen, wo sich in unserem Sonnensystrem Jupiter, Saturn, Uranus und Neptun befinden, genauer untersuchen. Ziel ist es, am Ende eine vollständige Erklärung für die Eigenschaften unseres und anderer Sonnensysteme zu finden.

Zumindest für das innere Sonnensystem wissen wir jetzt, dass und wie die wichtigsten Eigenschaften der Erde und ihres nächsten Nachbarplaneten auf eine recht grundlegende Physik zurückgeführt werden können: den Übergang zwischen Wassereis und Wasserdampf und die damit verbundene Druckschwelle in der Scheibe aus Gas und Staub, die unsere junge Sonne umgab.

Hintergrundinformationen
Die hier beschriebenen Ergebnisse wurden als A. Izidoro et al. „Planetesimal rings as the cause of the Solar System’s planetary architecture“ in der Zeitschrift Nature Astronomy veröffentlicht.

Der beteiligte MPIA-Forscher ist Bertram Bitsch, unabhängiger Forschungsgruppenleiter in der Abteilung Planeten- und Sternentstehung, in Zusammenarbeit mit Andre Izidoro, Rajdeep Dasgupta, Andrea Isella (alle Rice University), Sean N. Raymond (Université de Bordeaux) und Rogerio Deienno (Southwestern Research Institute).

Das ALMA-Bild samt hochauflösender Versionen kann von den ESO-Webseiten heruntergeladen werden unter: https://www.eso.org/public/germany/images/eso1436a/

Journalist*innen, die Zugang zu dem genannten Fachartikel (insbesondere auch vor Ablauf der Sperrfrist) benötigen, wenden sich bitte an press@nature.com

Wissenschaftliche Ansprechpartner:
Bertram Bitsch
Max-Planck-Institut für Astronomie, Heidelberg
Tel. +49 6221 528-427
bitsch@mpia.de

Originalpublikation:
Die hier beschriebenen Ergebnisse wurden als A. Izidoro et al. „Planetesimal rings as the cause of the Solar System’s planetary architecture“ in der Zeitschrift Nature Astronomy veröffentlicht.

Weitere Informationen:
http://Online-Version der Pressemitteilung: https://www.mpg.de/18026335/1214-astr-ringe-und-planetenentstehung-106969-x
http://Das ALMA-Bild samt hochauflösender Versionen kann von den ESO-Webseiten heruntergeladen werden unter: https://www.eso.org/public/germany/images/eso1436a/

(nach oben)


IAB-Arbeitsmarktbarometer: Stärkster Rückgang seit April 2020

Sophia Koenen, Jana Bart, Inna Felde, Christine Vigeant Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das IAB-Arbeitsmarktbarometer ist im Dezember um 2,4 Punkte auf 101,5 Punkte gesunken. Dieser vierte Rückgang in Folge ist der stärkste seit April 2020. Der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) liegt damit noch leicht im positiven Bereich.

Beide Komponenten des Barometers sinken deutlich. Die Komponente des Frühindikators für die Entwicklung der Arbeitslosigkeit ist gegenüber dem Wert von November um 2,6 Punkte auf 98,9 Punkte zurückgegangen. Damit liegt sie erstmals seit Sommer 2020 wieder unter der mittleren Marke von 100 Punkten. Dies lässt über die nächsten Monate saisonbereinigt eine leicht steigende Arbeitslosigkeit erwarten. „Die Omikron-Variante zieht die Corona-Krise weiter in die Länge. Gerade für die Langzeitarbeitslosigkeit ist das kritisch“, berichtet Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“.

Die Beschäftigungskomponente liegt im Dezember 2021 bei 104,1 Punkten und damit um 2,2 Punkte niedriger als im November. Der Beschäftigungstrend flacht also ab, bleibt aber weiterhin positiv. „Insgesamt wird der Arbeitsmarkt auch bei einem erneuten Lockdown nicht einbrechen, viele Firmen werden ihre Leute halten“, so Weber. Nach zwei Lockdowns seien Erfahrungen und Instrumente vorhanden. Zudem werde es weiterhin zusätzliche Jobs in Branchen wie IT oder Erziehung geben. Die Beschäftigung in unmittelbar betroffenen Bereichen wie der Veranstaltungswirtschaft könne aber Schaden nehmen.

Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert. Während Komponente A des Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert des IAB-Arbeitsmarktbarometers. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

Zum Download stehen bereit:
– eine Zeitreihe des IAB-Arbeitsmarktbarometers einschließlich seiner Einzelkomponenten „Arbeitslosigkeit“ und „Beschäftigung“ unter https://www.iab.de/presse/abzeitreihe.
– eine Grafik mit den aktuellen Werten des IAB-Arbeitsmarktbarometers und seiner Komponenten sowie eine Zeitreihengrafik unter https://www.iab.de/presse/abgrafik.

(nach oben)


Roboter sammeln Unterwasser-Müll auf

Christine Lehner Corporate Communications Center
Technische Universität München
Das Sammeln von Müll in Ozeanen und Meeren ist sehr aufwendig und teuer. Ein Team der Technischen Universität München (TUM) entwickelt in einem europäischen Kooperationsprojekt ein Robotersystem, das Abfall Unterwasser ortet und einsammeln kann. Dabei kommen Methoden des maschinellen Lernens zum Einsatz.

In unseren Meeren und Ozeanen befinden sich aktuell zwischen 26 und 66 Millionen Tonnen Plastikmüll. Der größte Anteil davon liegt auf dem Meeresboden. Eine gewaltige Bedrohung für im Meer lebende Pflanzen und Tiere sowieso das ökologische Gleichgewicht der Meere.

Doch das Reinigen der Gewässer ist aufwendig, teuer und oft auch gefährlich, weil meist Taucher eingesetzt werden müssen. Außerdem konzentrieren sich Reinigungsaktionen meist auf die Wasseroberfläche. Ein Team der TUM hat sich mit acht europäischen Partner-Instituten im Project „SeaClear“ zusammengetan und entwickelt ein Robotersystem, das auch Unterwasser Müll einsammeln kann.

Vier Roboter agieren gemeinsam
Das System setzt sich aus vier einzelnen Roboter-Komponenten zusammen: Ein autonom fahrendes Roboter-Boot führt einen ersten Scan des Meeresbodens durch und lokalisiert dabei größere Müllansammlungen. Dann wird ein Beobachtungs-Roboter ins Wasser gelassen, der den Müll in der Tiefe aufspürt und gleichzeitig weitere Informationen wie Nahaufnahmen des Meeresbodens an die Rechner liefert.

Bei klarem Wasser und guten Sichtverhältnissen sorgt zusätzlich eine Drohne aus der Luft dafür, dass weiterer Müll im Wasser erkannt wird. Mit Hilfe all dieser Informationen wird eine virtuelle Karte erzeugt. Ein Sammel-Roboter fährt dann bestimmte Punkte an der Karte ab und sammelt den Müll auf. Dabei werden größere Teile mit Hilfe eines Greifers in einem Korb, der mit dem Schiff verbunden ist, abtransportiert.

Herausforderung Strömung
„Autonome Roboter für den Einsatz Unterwasser zu entwickeln stellt eine ganz besondere Herausforderung“ sagt Dr. Stefan Sosnowski, Technischer Leiter des SeaClear-Projekts am Lehrstuhl für Informationstechnische Regelung an der TUM. Denn anders als an Land herrschen im Wasser ganz besondere Bedingungen. „Sobald ein Stück Müll identifiziert und geortet wurde, muss sich der Roboter zunächst in dessen Nähe bewegen. Dabei kann er mitunter auf starke Strömungen treffen, gegen die er sich durchsetzen muss. Das richtig auszusteuern, ist Aufgabe der TUM im SeaClear-Projekt.“

Effizientes Machine Learning
Dafür verwendet das Team Methoden des maschinellen Lernens. Eine Künstliche Intelligenz (KI) berechnet und lernt, wann und unter welchen Bedingungen sich der Roboter auf eine bestimmte Weise bewegt. So können genaue Vorhersagen über sein Verhalten getroffen werden.

„Eine weitere Herausforderung ist, dass wir nicht die gewohnte Rechenleistung wie an Land zur Verfügung haben“ sagt Prof. Sandra Hirche, Leiterin des Lehrstuhls und SeaClear Projektkoordinatorin. „Es gibt keine Anbindung an große Rechenzentren mit Hochleistungscomputern. Die Algorithmen, die wir entwickeln, müssen daher möglichst effizient und ressourcenschonend sein. Deswegen arbeiten wir schon seit einiger Zeit an Methoden mit hoher „Sampling Efficiency“, die mit möglichst wenig Daten möglichst gute Vorhersagen treffen können. Nicht benötigte Informationen werden von der KI einfach vergessen.“

Erfolgsquote von 90%
Wenn das SeaClear-System einmal voll einsatzfähig ist, soll es Unterwasserabfälle mit einer prognostizierten Quote von 80% klassifizieren und zu 90% erfolgreich einsammeln – vergleichbar mit dem Erfolg beim Einsatz von Tauchern. Erste Versuche mit dem Prototyp wurden im Oktober 2021 unter klaren Wasser- und Sichtverhältnissen im kroatischen Dubrovnik durchgeführt. Im Mai 2022 soll es weitere Versuche im Hamburger Hafen geben.

Mehr Informationen:
SeaClear ist ein EU-gefördertes Horizon-2020-Projekt, das am 1. Januar 2020 gestartet ist. Es läuft bis Dezember 2023. Das Gesamtbudget beträgt ca. 5 Mio. Euro. Am Projekt sind acht Partner aus fünf Ländern und 49 Forscher beteiligt. Die acht Partner sind: TU Delft, Hamburg Port Authority, TU Cluj-Napoca, Subsea Tech, Technische Universität München (TUM), Fraunhofer CML, Universität Dubrovnik und DUNEA.

Hochauflösende Bilder und Videos:
https://mediatum.ub.tum.de/1638148
https://www.youtube.com/channel/UCMcJY8uxgCodSuMRF3KHiZQ

Publikation:
P. Bevanda, S. Sosnowski, S. Hirche, Koopman operator dynamical models: Learning, analysis and control, Annual Reviews in Control , 2021, 52, 197-212 , doi:10.1016/j.arcontrol.2021.09.002

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sandra Hirche
Technische Universität München
Lehrstuhl für Informationstechnische Regelung
Tel: +49 (89) 289-25723
Hirche@tum.de
www.tum.de

Originalpublikation:
DOI:10.1016/j.arcontrol.2021.09.002

Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/details/37116

(nach oben)


Digitale Transformation im Hochschulbereich: Erster University Innovation Report präsentiert Innovationen und Konzep

Mag. Christoph Pelzl, MSc Kommunikation und Marketing
Technische Universität Graz
Als Teil ihrer Digitalisierungsstrategie fördert die TU Graz seit März 2019 Digitalisierungsprojekte in Forschung, Lehre und Verwaltung, die an der Universität selbst erprobt werden. Der University Innovation Report 2021 präsentiert nun erste erfolgreich etablierte Projekte zur Bewältigung der digitalen Transformation im Hochschulbereich.

Die TU Graz setzt sich seit 2017 intensiv mit digitaler Transformation auseinander und hat 2018 als erste österreichische Universität eine Digitalisierungsstrategie beschlossen. Seither wird im Rahmen des strategischen Projekts „Digitale TU Graz“ an Digitalisierungsprozessen für die universitären Kernbereiche Lehre, Forschung und Verwaltung gearbeitet. Die Devise: Digitale Technologien sollen dort eingesetzt werden, wo sie den Mitarbeitenden, Forschenden und Studierenden konkret nützen und neue Möglichkeiten eröffnen.

Marktplatz forciert Austausch über innovative Ideen
Eines der Leuchtturmprojekte der „Digitalen TU Graz“ ist das partizipative Innovationsprogramm „Digitaler TU Graz Marketplace“, das methodische und technische Innovationen in Form geförderter Pilotprojekte nachhaltig in die Universitätspraxis überführt. Forschende, Lehrende und Studierende der TU Graz reichen Pilotprojekte ein und entwickeln sie gemeinsam. Ein Fachgremium bestehend aus Forschenden der Bereiche Computer Science, Psychologie, Bildungswissenschaften sowie Lehr- und Lernforschung wählt die Projekte aus und begleiten sie. Von insgesamt 40 Einreichungen seit 2019 wurden bisher 23 Projekte gefördert.

Die Projekte reichen von digitalen Innovationen in der Lehre, von MOOCs (Massive Open Online Courses) oder Ideen, die den Alltag an der Universität erleichtern, bis hin zu digitalem Forschungsdatenmanagement. Sie alle werden nun erstmals gebündelt im University Innovation Report 2021 vorgestellt: www.tugraz.at/go/university-innovation-report. Die Tools, Applikationen und didaktischen Konzepte sind an der TU Graz teilweise schon ausgerollt, teilweise sind sie noch im Entwicklungsprozess.

Digitale Assets für den gesamten Hochschulsektor
Bereits im Einsatz ist das „Learning Goal Widget“, ein Online-Tool zur Lernzielverfolgung. „Lehrende bekommen mit dem Tool die Möglichkeit, ihre Lehrveranstaltungen noch besser zu strukturieren, Studierende wiederum eine gute Übersicht über die Themen der Lehrveranstaltung und Informationen zur Prüfungsvorbereitung“ erklärt Katharina Maitz vom Instituts für Interactive Systems and Data Science und wissenschaftliche Mitarbeiterin im Marketplace-Projekt. Das Tool wird an der TU Graz bereits verwendet und soll zukünftig auch als Open Source-Plugin für Lernplattformen anderer Hochschulen zur Verfügung stehen (weitere Details im Report auf Seite 27).

Im Bereich der Administration und Verwaltung wird an Lösungen gearbeitet, die Mitarbeitende und Studierende im Arbeits- bzw. Universitätsalltag entlasten und auf die Serviceorientierung abzielen. So stehen in einem Projekt beispielsweise digitale und kryptografisch gesicherte Bildungsnachweise (Projektname: Verifiable Credentials for Student Mobility) im Fokus. Ziel sind Abschlussdiplome bzw. Beglaubigungen von absolvierten Prüfungen in digitaler Form, die Studierende ihren zukünftigen Arbeitgeber*innen oder anderen Universitäten über Schnittstellen als maschinenlesbare Daten übermitteln können, bei gleichzeitiger Wahrung der Privatsphäre. Auch hier handelt es sich um Open-Source-Lösungen, die Institutionen außerhalb der TU Graz für sich nutzen und weiterentwickeln können (Details auf Seite 36).

Im Forschungsbereich werden sieben Pilotprojekte gefördert, die sich mit dem Thema Forschungsdaten-Management aus unterschiedlichen Perspektiven und in verschiedenen Bereichen beschäftigen. So wird der Einsatz von elektronischen Laborbüchern analysiert und zur Anwendung gebracht, die Veröffentlichung und Langzeitarchivierung von Forschungsdaten auf geeigneten Repositorien wie beispielsweise dem TU Graz Repository vorbereitet und durchgeführt sowie die Auswertung von Daten mithilfe von CyVerse Austria getestet – einer gemeinsamen Plattform von TU Graz, Uni Graz und Med Uni Graz im Rahmen des interuniversitären Kooperation BioTechMed Graz (Informationen zu den Projekten ab Seite 37).

„Der Weg von einer digitalen Idee hin zu einem nachhaltig flächendeckenden Service ist ein langer. Wie der Prozess erfolgreich durchlaufen werden kann, zeigt der University Innovation Report“, so die Vizerektorin für Digitalisierung und Change Management Claudia von der Linden, die mit Verweis auf den Report und das strategische Projekt „Digitale TU Graz“ einmal mehr die Vorreiterrolle der TU Graz auf diesem Gebiet unterstreicht. Diese spiegelt sich auch in der Förderung des Bundesministeriums für Bildung, Wissenschaft und Forschung (BMBWF) wider, das im Rahmen der Ausschreibung „Digitale und soziale Transformation in der Hochschulbildung“ 12,2 Millionen Euro in richtungsweisende Digitalisierungsprojekte der TU Graz und deren Kooperationspartner investiert hat.

Der University Innovation Report 2021 ist mit zahlreichen interaktiven Elementen ausgestattet, die weiterführende Informationen in Form von Abstracts, Kurzvideos, Chats und visuellen Werkzeugen wie Canvas oder Screencasts liefern. Am besten funktioniert das über die mobile Plattform Learning Toolbox App (verfügbar für Android und iOS). Die Inhalte können aber auch in einem normalen Browser angesehen werden.

Wissenschaftliche Ansprechpartner:
Katharina MAITZ
BA BA MA PhD
TU Graz | Institute of Interactive Systems and Data Science
Tel.: +43 316 873 32803
k.maitz@tugraz.at

Weitere Informationen:
https://www.tugraz-verlag.at/gesamtverzeichnis/interdiszipinaeres/university-inn… (University Innovation Report 2021)

Anhang
University Innovation Report 2021

(nach oben)


„In die Zukunft schauen, wenn man die Gegenwart nur schwer aushält“

Viola van Melis Zentrum für Wissenschaftskommunikation
Exzellenzcluster „Religion und Politik“ an der Westfälischen Wilhelms-Universität Münster
Bleigießen oder Jahreshoroskope: Wahrsagerei hatte laut Historikerin Ulrike Ludwig immer wieder Konjunktur in Krisen wie Pandemien, religiöser Spaltung oder Kriegsjahren – „,Werde ich glücklich, bleibe ich gesund?‘ Wahrsagen zeigte stets das menschliche Bedürfnis nach Sicherheit vor der unsicheren Zukunft“ – Früher auch Instrument der Politik gegen Fake News

Bleigießen zu Silvester, Jahreshoroskope, Tarot-Karten: Wahrsagen war Historikern und Historikerinnen zufolge zu allen Zeiten ein Versuch, mit der unsicheren Zukunft umzugehen. „Wahrsagerei war vor allem in Krisenzeiten beliebt, wenn die Sorge vor der Zukunft, wie heute in der Pandemie, schwer auszuhalten war. Angesichts von Seuchen, religiösem Streit, Missernten oder Kriegsjahren suchten etwa die Menschen der Frühen Neuzeit dringend nach Vorhersagen. Aber auch zum persönlichen Schicksal befragte man überirdische Mächte“, erläutert die Historikerin Prof. Dr. Ulrike Ludwig vom Exzellenzcluster „Religion und Politik“ der Uni Münster. „Zum Neujahr 1522 etwa trieben die Menschen dieselben Fragen um wie bei einer Silvesterfeier heute: Werde ich glücklich, werde ich reich, bleibe ich gesund?“ Quellen aus dieser Zeit wie Jahreshoroskope oder die weitverbreiteten Losbücher offenbaren die menschlichen Bedürfnisse hinter der Suche nach Prognosen. Wer in die Zukunft blickte, suchte Handlungsfähigkeit in der Gegenwart. „Dabei haben auch früher die Menschen nicht blind geglaubt, was ihnen gewahrsagt wurde aus den Sternen, der Kristallkugel oder der eigenen Hand.“ Wahrsagerei wurde auch spielerisch in geselliger Runde betrieben, etwa mit Orakelbüchern, in denen man mit vielen simplen, aber durch ihre Kombination schwierig durchschaubaren Verrätselungstechniken Antworten auf Lebensfragen ermittelte.

„Wahrsagerei hat den Menschen oft Orientierung gegeben, aber ihnen die Entscheidungen meist nicht abgenommen“, führt die Historikerin aus. Wer im 17. Jahrhundert eine schlechte Weissagung über die anstehende Hochzeit erhielt, sagte sie trotzdem nicht ab. „Vielmehr versuchte er oder sie, alles dafür zu tun, dass die Ehe doch noch unter einem möglichst– wie wir heute noch sagen – guten Stern geschlossen wurde. Etwa dadurch, dass ein astrologisch günstigerer Hochzeitstag gewählt wurde.“ Weit verbreitet, aber nie unumstritten: „Wahrsagerei wurde auch immer wieder hinterfragt und verhöhnt.“ Prominent war der Historikerin zufolge von Anfang an kirchliche Kritik. Aber auch der Humanist und satirische Autor Sebastian Brant (gestorben 1521) stellte dem gelehrten Astrologen einen Narren zur Seite. „Und in den berühmten Tagebüchern von Samuel Pepys (1633 – 1703) lesen wir, dass dieser nur Spott für Wahrsager und ihre Klientel übrighatte.“

Wahrsagen auch in der Politik: August von Sachsen bis François Mitterand
Obwohl westliche Politikerinnen und Politiker Wahrsagerei verpönen – anders als solche in Taiwan und weiteren ostasiatischen Ländern –, ließen sich dennoch der US-amerikanische Präsident Ronald Reagan und der französische Staatspräsident François Mitterrand während ihrer Amtszeit regelmäßig wahrsagerisch beraten. Das hat in der Geschichte Vorläufer, wie Ulrike Ludwig schildert: „In der Zeit der Vormoderne war Wahrsagerei in der Politik ein legitimes Instrument: Könige und Fürsten ließen von ihren Hofastrologen die Sterne befragen, um sich auf Krisen wie Epidemien, Missernten oder Kriege, aber auch auf Herausforderungen bei den Verhandlungen um die nächste Steuererhöhung oder diplomatischen Missionen vorbereitet zu wissen.“ Ein extremes Beispiel: Kurfürst August von Sachsen (1526 – 1586), nicht zu verwechseln mit August dem Starken, setzte systematisch auf wahrsagerische Kontrolle aller eingehenden Nachrichten, etwa zu Heiratsplänen Elisabeths II. und Todesfällen, geheimen Allianzen, Handelserfolgen und Kuriositäten – letztlich, um nicht Fake News aufzusitzen. „In einer Zeit unsicherer Informationen nutzte er jede Chance, um gesichertes Wissen zu erlangen.“

Traditionen des Wahrsagens oder moderne Prognostik
Mit der Zeit der Aufklärung um 1700 übernahm das ‚rationale‘ Denken auch das Geschäft der Zukunftsvorhersage: Statt Befragung von Göttern und transzendenten Mächten entwickelten die Menschen wissenschaftlich überprüfbare Methoden, die modellgeleitete Prognostik. „Aber auch in der modernen Prognostik zeigen die Trefferquoten, dass wir die Möglichkeiten, mit Modellrechnungen die Zukunft zu antizipieren, tendenziell überschätzen“, so Ulrike Ludwig.

„Wahrsagerische Praktiken brauchten für ihre Akzeptanz immer eine Rückbindung an Traditionen“, sagt die Wissenschaftlerin. „Es sind die alten Bräuche der Vorfahren, auf deren Wirksamkeit man vertraute, wenn der Wunsch nach Wissen über die Zukunft am größten war.“ Doch viele wahrsagerische Methoden, die Eingang in heutige Darstellungen der Geschichte gefunden haben, sind spätere – moderne – Erfindungen. „Eines der beliebtesten Wahrsage-Motive, die Tarot-Karten und damit auch das Kartenlegen, kommt vermehrt erst ab dem 19. Jahrhundert zum Einsatz“, so Ulrike Ludwig. Sie äußerte sich im Rahmen des Themenjahres „Tradition(en)“ am Exzellenzcluster (http://go.wwu.de/yd3ey), das sich anhand ausgewählter Beispiele vom Alten Ägypten bis in die Gegenwart mit der Entstehung, Überlieferung und dem Wandel von Traditionen etwa in Literatur, Recht und Religionen befasst.

Am Exzellenzcluster erforscht Prof. Dr. Ulrike Ludwig in ihrem Projekt „Wahrsagerei und Politik in der Frühen Neuzeit“. Im Rahmen des Themenjahres diskutiert sie im Sommer 2022 in der Gesprächsreihe „Tradition(en): interdisziplinär und transepochal“ den Zusammenhang von „Tradition und Rationalität“. Die Ausstellung „Zeichen der Zukunft“ im Germanischen Nationalmuseum in Nürnberg im vergangenen Jahr hat Prof. Ludwig mitkonzipiert. (sca/vvm)

Originalpublikation:
Ulrike Ludwig et al. (Hg.): Zeichen der Zukunft. Wahrsagen in Ostasien und Europa / Signs of the Future. Divination in East Asia and Europe, Heidelberg: arthistoricum.net, 2021.

Weitere Informationen:
https://www.uni-muenster.de/Religion-und-Politik/aktuelles/2021/PM_Wahrsagerei.h…

(nach oben)


Mut zur Lücke – auch im Genom

Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
Die Nutzung genetischer Information ist für die moderne Pflanzenzucht unerlässlich geworden. Auch wenn die Sequenzierung der DNA seit der ersten Entschlüsselung des menschlichen Genoms im Jahr 2003 deutlich günstiger geworden ist, macht die Erhebung genetischer Informationen auch heute noch einen großen Teil der Kosten in der Tier- und Pflanzenzucht aus. Ein Trick, diese Kosten zu senken, besteht darin, nur einen sehr kleinen und zufällig ausgewählten Teil des Genoms zu sequenzieren und die verbliebenen Lücken mit mathematisch-statistischen Mitteln zu vervollständigen.

Hierfür hat ein interdisziplinäres Forschungsteam der Universität Göttingen einen neuen methodischen Ansatz entwickelt, der in der Fachzeitschrift PLoS Genetics veröffentlich wurde.

„Kernidee der Methode ist es, sogenannte Haplotypenblöcke, also längere Abschnitte im Genom, die in verschiedenen Pflanzen durch Vererbung sehr ähnlich sind, zu erkennen und diese Mosaikstruktur zur Komplettierung zu nutzen“, sagt Dr. Torsten Pook vom Zentrum für Integrierte Züchtungsforschung der Universität Göttingen. „In Zuchtpopulationen haben die so ergänzten Sequenzen eine Qualität, als hätten wir ein hundertfaches an Informationen des DNA-Strangs erhoben.“ Ziel der Forschenden ist es, im Rahmen des Projektes MAZE Maispflanzen mit geringer Anfälligkeit gegen Frost- und Dürreschäden zu züchten. Die KWS Saat SE, ein Partner des Projekts, wendet die Methode aufgrund ihrer hohen Kosteneffizienz bereits in Zuchtprogrammen an.

„Ein weiterer Vorteil ist, dass wir durch das Verfahren nicht nur Unterschiede in einzelnen Nukleotiden im DNA-Strang feststellen, sondern auch strukturelle Veränderungen erkennen können, die bisher züchterisch praktisch gar nicht nutzbar sind“, so Pook. Nach aktuellem Stand ist die Methode bisher allerdings nur für durch Inzucht entstandene Linien in der Pflanzenzüchtung effizient nutzbar. Eine Folgestudie, um das Verfahren auch auf Organismen mit regulärem zweifachem Chromosomensatz, wie den meisten Wirbeltieren einschließlich des Menschen, zu erweitern, ist bereits in Planung.

Wissenschaftliche Ansprechpartner:
Dr. Torsten Pook
Georg-August-Universität Göttingen
Zentrum für Integrierte Züchtungsforschung
Albrecht-Thaer-Weg 3, 37075 Göttingen
Telefon: (0551) 39-25609
Email: torsten.pook@uni-goettingen.de
Internet: http://www.uni-goettingen.de/de/585938.html

Originalpublikation:
Torsten Pook et al. Increasing calling accuracy, coverage, and read-depth in sequence data by the use of haplotype blocks. PLoS Genetics (2021). https://journals.plos.org/plosgenetics/article?id=10.1371/journal.pgen.1009944.

(nach oben)


Klima und Boden entscheiden über die Ausprägung von Pflanzenmerkmalen

Dr. Eberhard Fritz Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie
Einem internationalen Forschungsteam gelang es, global wirkende Faktoren zu erkennen, die die Vielfalt der Formen und Funktionen von Pflanzen hervorrufen. Unter der Leitung der Universität Zürich, des Max-Planck-Instituts für Biogeochemie in Jena sowie der Universität Leipzig, trugen die Forschenden weltweit Pflanzendaten zusammen und analysierten sie. Sie zeigten erstmalig für Merkmale wie Größe, Aufbau und Lebensspanne der Pflanzen, wie stark diese durch Klima- und Bodeneigenschaften bestimmt werden. Daraus abgeleitete Erkenntnisse könnten entscheidend sein, um Erdsystemmodelle hinsichtlich der Rolle von Pflanzenvielfalt zu verbessern.

Auf den ersten Blick erscheint die Vielfalt der Formen und Funktionen von Pflanzen kaum erfassbar. Sie kann jedoch anhand morphologischer, physiologischer und biochemischer Merkmale beschrieben werden. Schon früher wurde gezeigt, dass Merkmale arten-übergreifend in zwei Hauptkategorien fallen, innerhalb derer jede Pflanze ein Gleichgewicht halten muss: zum einen die Größe und zum anderen die Ökonomie des Stoffwechsels. In einer aktuellen Studie in Nature Ecology and Evolution konnte ein Forscherteam anhand eines stark vergrößerten, globalen Datensatzes für 17 verschiedene Pflanzenmerkmale nun erstmals bestätigen, dass diese zwei Hauptkategorien für alle untersuchten Pflanzen weltweit gültig sind.

In der Kategorie Größen halten Pflanzen unter anderem die Wuchshöhe, die Blattgröße und die Größe der Samen in Balance. Diese Merkmale werden auch von hydraulischen Komponenten des Wassertransports in den Pflanzen beeinflusst. Die ökonomische Kategorie beschreibt, wie schnell und effektiv die Pflanze Energie und Biomasse durch Photosynthese gewinnt und damit auch wie lange sie unter den jeweiligen Bedingungen überlebt. Bestimmt wird diese Kategorie durch messbare Merkmale wie z.B. den Aufbau und die Zusammensetzung der Blätter hinsichtlich Blattfläche, sowie Stickstoff-, Phosphor- und Kohlenstoffgehalt der Trockenmasse. Mithilfe der zwei universal gültigen Hauptkategorien sind Lebensstrategien aller Pflanzenarten, die in weltweit zusammengetragenen Daten der TRY-Datenbank erfasst sind, nun gut erklärbar.

Die Merkmale einer Pflanze als Ganzes sowie der gesamten Vegetation werden aber durch unterschiedlichste externe Faktoren wie z.B. Klima, Bodenbeschaffenheit und menschliche Eingriffe beeinflusst. Welche Faktoren entscheidend sind, konnte auf der globalen Ebene bislang nicht bestimmt werden. Zur Beantwortung dieser Frage analysierte das Forscherteam, geleitet von Julia Joswig an der Universität Zürich und am Max-Planck-Institut für Biogeochemie in Jena, die Pflanzenmerkmale von über 20.000 Arten. Entscheidend hierbei war die Tatsache, dass über die Standort-Daten der Pflanzen auch die Informationen zum Klima und der Bodenbeschaffenheit mitberücksichtigt wurden.

“Unsere Studie belegt eindeutig, dass Pflanzenmerkmale weltweit nur durch gemeinsame Effekte von Klima und Boden erklärbar sind”, so Joswig, und weiter: “Dies deutet darauf hin, dass Aspekte des Klimawandels und der Bodenerosion, die beide zum Beispiel durch eine veränderte Landnutzung auftreten, immer auch gemeinsam erforscht werden sollten.”
Viele der hier beschriebenen Zusammenhänge waren aus kleinteiligen, lokalen Studien bekannt. “Aber dass diese Prozesse nun global aufgezeigt und ihre Bedeutung quantifiziert werden konnte, ist ein wichtiger Meilenstein”, fügt Prof. Miguel Mahecha von der Universität Leipzig hinzu. “Denn an Studien dieser Art können sich globale Erdsystem-Modelle orientieren, um die komplexe Wechselwirkung von Klima-Boden und Biodiversität darzustellen, was eine wichtige Voraussetzung für zukünftige Vorhersagen ist”, so Mahecha weiter.

Die Studie zeigt erwartungsgemäß, wie sich die Wuchshöhe von Pflanzenarten entlang der Breitengrade verändert, aufgrund des unterschiedlichen Klimas. Die Ökonomie der Pflanzen zeigt diesen Gradienten aber nicht. Ebenso ist die Bodenqualität nur zum Teil vom Klima geprägt, weshalb es einen Breitengrad-unabhängigen Anteil in der Bodeninformation gibt. Joswig und ihre Kolleg*innen zeigen, dass diese Bodeninformation aber auch für die Ökonomie relevant ist. Bodenbildende Faktoren sind neben dem Klima: Im Boden lebende Organismen, die Geologie und die Topographie sowie natürlich der Zeitfaktor. Der Globale Wandel betrifft das Klima, die Organismen und teilweise die Topographie. Die Studie legt daher nahe, die Risiken für Pflanzen besonders in Bezug auf den Klimawandel und die Bodenerosion zu erforschen.

Danksagung: Diese Studie nutzte Pflanzeneigenschaftsdaten aus einer Sammlung von Datensätzen, die in der TRY-Datenbank des MPI-BGC zur Verfügung gestellt werden.

Wissenschaftliche Ansprechpartner:
Julia Joswig
julia.joswig@geo.uzh.ch

Miguel Mahecha
miguel.mahecha@uni-leipzig.de

Originalpublikation:
Climatic and soil factors explain the two-dimensional spectrum of global plant trait variation
Joswig, J.S.; Wirth C.; Schuman, M. C.; Kattge, J.; Reu, B.; Wright, I. J.; Sippel, S: D.; Rüger, N.; Richter R., Schaepman M.E., van Bodegom, P.M.; Cornelissen, J. H. C.; Díaz, S.; Hattingh, W. N.; Kramer, K.; Lens, F.; Niinemets, Ü., Reich, B.; Reichstein, M.; Römermann, C.; Schrodt, F.; […] & Mahecha, M.D.
Nature Ecology and Evolution (2021)
DOI 10.1038/s41559-021-01616-8

(nach oben)


Jenseits von Afrika: Der Weg des Homo sapiens

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Welche Wege hat der Homo sapiens auf seinem Weg von Afrika nach Europa und Asien in den vergangenen Jahrhunderttausenden genommen? Die Klimabedingungen wechselten und damit auch die Lebensbedingungen. Teils erschwerten Wüsten den Vormarsch, teilweise auch dichter Wald. Ein Forscherteam entschlüsselte in den vergangenen zwölf Jahren im Rahmen des Sonderforschungsbereichs 806 “Unser Weg nach Europa” das komplexe Zusammenspiel von kulturellen Innovationen und Umwelt, die die Wanderungen prägten. Nach Abschluss des interdisziplinären Verbundprojektes legen die Forschenden nun ein Buch mit den wichtigsten Ergebnissen unter Federführung der Universitäten Bonn und Köln vor.

Die Wiege des Menschen befindet sich in Afrika – das ist seit einem halben Jahrhundert bekannt. Vor einem Jahrzehnt beherrschte noch die Idee die wissenschaftlicher Diskussion, dass vor rund 70.000 Jahren eine kleine Gruppe des Homo sapiens von Afrika nach Europa einwanderte. Durch anatomische und intellektuelle Überlegenheit soll sie bei ihrem Vormarsch archaische lokale Populationen verdrängt haben, wodurch der Homo sapiens als einziger genetischer Zweig der Menschheit überlebte.

“Dieses Bild hat sich grundlegend verändert, seit sich herausgestellt hat, dass die Neandertaler zumindest zu einem kleinen Teil zum Genom des Homo sapiens beigetragen haben”, sagt der Paläobotaniker Prof. Dr. Thomas Litt von der Universität Bonn, hauptverantwortlicher Herausgeber des Buches und stellvertretender Sprecher des Sonderforschungsbereichs. “Die Genetik erzählt nicht ganz dieselbe Geschichte – oder einen anderen Teil der Geschichte – wie die Paläontologie und die Archäologie.” Das Team versuchte deshalb, dieses kontroverse Bild besser zu verstehen, indem es Informationen zur Natur und Umwelt sowie die Rolle der Kultur dieser prähistorischen Bevölkerungsdynamik analysierte. Die Forschenden konzentrierten sich auf verschiedene Zeitabschnitte: von der Entstehung des modernen Menschen, seine Ausbreitung, die Wiederbesiedlung des eiszeitlichen Europas, die neolithische Besiedlung sowie die Migration der sesshaften Gesellschaften.

Die neuen Erkenntnisse zeigen, dass nicht nur eine Migrationswelle, sondern mehrere afrikanische Homo-sapiens-Populationen auf ihrer bis zu 5.000 Kilometer langen Reise nach Europa und Asien geführt haben. Verbesserte radiometrische Datierungen von Homo-sapiens-Fossilien legen darüber hinaus nahe, dass das Ursprungsgebiet des modernen Menschen nicht nur Ostafrika, sondern auch Süd- und Nordwest-Afrika umfasst. Die Zeitskala des Homo sapiens reicht nun bis auf 300.000 Jahre zurück. Das Team um Prof. Litt untersuchte, wann und wo aus paläoökologischer und paläoklimatologischer Sicht Migrationskorridore oder -barrieren vorhanden waren.

Keine wissenschaftlichen Belege für die West-Route
Die Wissenschaft ging bislang davon aus, dass es zwei mögliche Hauptrouten des modernen Menschen nach Europa gab: Die westliche über die Straße von Gibraltar und die östliche über die Levante. Trotz der geringen Entfernung über die Straße von Gibraltar konnten die Forschenden in den vergangenen zwölf Jahren keinen Beleg für direkte kulturelle Kontakte zwischen Marokko und der Iberischen Halbinsel beziehungsweise Hinweise für die Überquerung der Meerenge während des Paläolithikums finden. “Dies ist eines der großen Fragezeichen in der Geschichte der menschlichen Besiedlung im westlichen Mittelmeerraum”, sagt Litt zu diesem überraschenden Ergebnis. Offenbar sei die Straße von Gibraltar damals aufgrund starker Meeresströmung eher eine Barriere gewesen.

“Somit ist die Levante als einzige permanente Landverbindung zwischen Afrika und Eurasien die Schlüsselregion als Migrationsweg des modernen Menschen”, sagt Litt. Seine Arbeitsgruppe forschte intensiv an Bohrkernen etwa aus dem Toten Meer oder dem See Genezareth, in denen Pflanzenpollen konserviert sind. Daraus lassen sich Veränderungen des Pflanzenkleids ablesen und die Umwelt- und Klimaverhältnisse rekonstruieren. Litt: “Diese Daten verdeutlichen, dass die Lavente nur als Korridor in Frage kam, wenn unter günstigeren Bedingungen etwa weder Wüsten noch dichte Wälder den Vormarsch erschwerten.“

Fast Hundert Forschende waren beteiligt
Insgesamt zwölf Jahre hat das interdisziplinäre Forschungsteam aus Archäologie, Geowissenschaften, Bodenkunde, Ethnologie und Geografie im Sonderforschungsbereich 806 “Unser Weg nach Europa” die Wanderungen des Homo sapiens entschlüsselt. Etwa Hundert Forschende waren involviert und viele Hundert wissenschaftliche Beiträge wurden bereits veröffentlicht. Beteiligt waren neben den Universitäten Köln und Bonn die Rheinisch-Westfälische Hochschule Aachen sowie zahlreiche Kooperationspartner aus den USA, Afrika, dem Nahen Osten und Europa. Die wesentlichen Ergebnisse sind nun in dem 372 Seiten umfassenden Buch zusammengefasst, das der Paläobotaniker Prof. Dr. Thomas Litt (Bonn), der Ur- und Frühgeschichtler Prof. Dr. Jürgen Richter und der Geographiedidaktiker Prof. Dr. Frank Schäbitz (beide Universität Köln) gemeinsam herausgegeben haben. “Das Buch soll für alle Leser attraktiv und relevant sein, die daran interessiert sind, die Vorgeschichte unserer eigenen Spezies, ihre Migrationsrouten und ihre Motivation zur Wanderung, ausgelöst durch komplexe Interaktionen ihrer Kultur und Umwelt, zu verstehen”, sagt Litt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thomas Litt
Institut für Geowissenschaften
Universität Bonn
Tel. 0228/732736
E-Mail: t.litt@uni-bonn.de

Originalpublikation:
Thomas Litt, Jürgen Richter, Frank Schäbitz (Hrsg.): The Journey of Modern Humans from Africa to Europe – Culture-Environmental Interaction and Mobility, Schweizerbart Science Publishers, 372 S., 39,90 Euro

(nach oben)


Darum schwimmen Fische die La-Ola-Welle

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Tausende Fische bewegen sich wie eine riesige La-Ola-Welle im Wasser, tauchen ab und kommen bis zu zwei Minuten lang immer wieder an die Oberfläche zurück. Was Menschenmassen im Fußballstadion zum Spaß ausführen, hat bei den Fischen einen ernsten Grund: Nicht von Vögeln gefressen zu werden. Ein Team unter der Leitung des Exzellenzclusters „Science of Intelligence“ der Humboldt-Universität zu Berlin, der Technischen Universität Berlin und des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) hat nun herausgefunden, dass die von winzigen Fischen in Mexiko kollektiv erzeugten La-Ola-Wellen sowohl die Angriffslust der Raubvögel als auch deren Jagderfolg verringern.

Die Quellen von Baños del Azufre, in der Nähe der mexikanischen Stadt Teapa, sind ein unwirtlicher Lebensraum. Da es sich um vulkanische Quellen handelt, enthält das Wasser viel giftigen Schwefelwasserstoff und sehr wenig Sauerstoff. Nur speziell angepasste Fische wie der Schwefelmolly (Pocilia sulphuraria) können dort überleben.

Schwarmverhalten bei Vogelangriff ähnelt La-Ola-Welle:
Doch das Wasser ist nicht die einzige Herausforderung, mit der diese Fische fertig werden müssen. Während Schwefelmollys die meiste Zeit nahe der Wasseroberfläche verweilen, um zu atmen, werden sie von vielen verschiedenen Vogelarten angegriffen. Doch diese zwei Zentimeter kleinen Fische sind gewappnet; sie treten in großen Schwärmen auf, die oft mehr als 100.000 Individuen umfassen. Wenn sich ein Vogel nähert oder angreift, reagieren die Fische gemeinsam, indem sie gestaffelt abtauchen, wobei jeder Fisch mit seinem Schwanz die Wasseroberfläche berührt. Aus der Ferne sieht es so aus, als würde der Schwarm auffällige Wellen erzeugen, die denen ähneln, die zum ersten Mal während der Fußballweltmeisterschaft 1986 in Mexiko in Fußballstadien zu sehen waren – und seitdem als „La-Ola-Wellen“ bekannt sind. Im Englischen werden sie auch „Mexican waves“ genannt.

Interessant ist, dass die Fische diese Wellen mehrmals hintereinander ausführen, manchmal bis zu 2 Minuten lang. Das Berliner Forschungsteam untersuchte mit mexikanischen Kolleg*innen von der Universität Tabasco, ob diese Wellenbewegung einen Einfluss auf das Verhalten der Vögel hat, die die Fische jagen.

Vögel verzögern ihren Angriff und sind weniger erfolgreich:
Und tatsächlich fanden die Forschenden heraus, dass Eisvögel (Chloroceryle americana) umso länger mit einem erneuten Angriff warteten, je mehr Wellen sie nach ihrem ersten Angriff erlebten. „Manchmal verließen die Vögel sogar den Ort des Geschehens, bevor sie zum nächsten Angriff übergingen“, erläutert Carolina Doran, eine Autorin der Studie.
Jedoch lösen nicht alle angreifenden Vogelarten bei den Fischen diese wiederholten Wellen aus. Der Schwefeltyrann (Pitangus sulphuratus) greift nämlich auf eine andere Art an als der Eisvogel, der mit seinem ganzen Körper ins Wasser eintaucht. Der Schwefeltyrann steckt nur seinen Schnabel ins Wasser und verursacht so keine so große Störung an der Wasseroberfläche. Die Angriffe des Schwefeltyrannen führen dazu, dass die Fische nur eine einzige Welle erzeugen, was es den Vögeln ermöglicht, ihre Angriffe immer wieder und mit sehr hoher Frequenz zu wiederholen.

Diese Beobachtung veranlasste die Forschenden dazu, die Wirkung von Wellen auf Schwefeltyrannen ebenfalls zu untersuchen. Sie lösten wiederholte Fischwellen aus, wenn Schwefeltyrannen ihre Jagd begannen, indem sie gezielt kleine Gegenstände ins Wasser einwarfen. Wenn sie mit mehreren Wellen konfrontiert wurden, verzögerten die Schwefeltyrannen ihre Angriffe, wie es Eisvögel tun. Außerdem sank ihr Angriffserfolg und sie wichen eher auf andere Flussabschnitte aus.

Mehr als nur ein Fluchtreflex: Die Welle soll Verwirrung stiften und könnte auch ein Signal für den Vogel sein, dass er entdeckt worden ist:
Dass Fische abtauchen, um Vögeln zu entkommen, ist ein häufig beobachtetes Phänomen, aber das wiederholte Abtauchen, selbst wenn der angreifende Vogel nicht in der Nähe ist, ist einzigartig: „Da die beobachteten Wellen auffällig, wiederholt und regelmäßig waren und die Intervalle zwischen den einzelnen Wellen immer ähnlich lang waren, egal wie oft die Fische ihre Wellenbewegung wiederholten, gehen wir davon aus, dass die Wellenbewegungen mehr als eine reine Fluchtreaktion sind“, erklärt Dr. David Bierbach, ein Autor der Studie.

Die Autor*innen vermuten, dass die Wellen dazu dienen könnten, den angreifenden Vogel zu verwirren, insbesondere wenn die Wellen vor dem Vogel „weglaufen“.
Aber das ist vielleicht nicht der einzige Grund: Die Wellenbewegung könnte sich im Zuge der Evolution als ein Signal der Fische an die Vögel entwickelt haben, von dem sowohl die Fische als auch die Vögel profitieren. Vögel können Zeit und Energie sparen, wenn sie den Fischschwarm in Wellenbewegung nicht angreifen, da ihre Erfolgsaussichten gering sind. Für die Fische wiederum ist es von Vorteil, ein Signal zu geben, wenn sie einen Räuber entdecken, denn der Räuber wird daraufhin woanders jagen. „Eine solche Win-win-Situation ist notwendig, damit sich ein kollektives Signal zwischen Beute- und Räuberarten entwickeln kann“, erklärt Professor Jens Krause, ein Autor der Studie. „Letztendlich müssen wir uns diese Systeme genauer ansehen, um zu verstehen, wie sich kollektive Verhaltensweisen wie ein Wahrnehmungssignal wirklich entwickelt haben“, ergänzt Juliane Lukas, eine Autorin der Studie.

In einem nächsten Schritt wollen die Forschenden die offene Frage beantworten, wie viele einzelne Fische an den Wellen teilnehmen müssen, um den Effekt der Verzögerung von Angriffen und der Verringerung des Angriffserfolgs zu erzielen.

Wissenschaftliche Ansprechpartner:
Dr. David Bierbach
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: david.bierbach@igb-berlin.de

Originalpublikation:
DOI:https://doi.org/10.1016/j.cub.2021.11.068

Weitere Informationen:
https://www.igb-berlin.de/news/darum-schwimmen-fische-die-la-ola-welle

(nach oben)


Fettgewebe wichtiger Replikationsort von SARS-CoV-2

Dr. Franziska Ahnert Presse- und Öffentlichkeitsarbeit
Heinrich-Pette-Institut – Leibniz-Institut für Experimentelle Virologie
Adipositas ist ein wichtiger Risikofaktor für schwere Krankheitsverläufe bei Patienten mit COVID-19. Ein multidisziplinäres Forschungsteam aus dem Leibniz-Institut für Experimentelle Virologie (HPI) und dem Universitätsklinikum Hamburg-Eppendorf (UKE) konnte nun eine wichtige Rolle des Fettgewebes für die Virusvermehrung von SARS-CoV-2 nachweisen. Die Ergebnisse, die auch neue therapeutische Strategien zur Behandlung von SARS-CoV-2-Infektionen aufzeigen, sind in der Online-Ausgabe der renommierten Fachzeitschrift Cell Metabolism erschienen.

Weltweit stellt überhöhtes Körpergewicht eine schwerwiegende Bedrohung für die öffentliche Gesundheit dar. Laut Weltgesundheitsorganisation hat die Prävalenz der Adipositas in den letzten Jahrzehnten dramatisch zugenommen und mittlerweile epidemische Ausmaße angenommen. Etwa 39% der Erwachsenen (>18 Jahre) sind übergewichtig (BMI≥25 kg/m²) und 13% adipös (BMI≥30 kg/m²). Geschätzt sind 19% der Kinder und Jugendlichen übergewichtig und 7% adipös. Die Prävalenzen können länderabhängig stark variieren.

In der COVID-19 Pandemie hat sich wiederholt gezeigt, dass Adipositas ein Risikofaktor für schwere Krankheitsverläufe darstellt. Allerdings war die Rolle des Fettgewebes für die Virusinfektion und Virusvermehrung von SARS-CoV-2 sowie mögliche Konsequenzen für den Stoffwechsel zu großen Teilen ungeklärt. Dieser Fragestellung wurde nun in einer multidisziplinär angelegten Studie nachgegangen.

Das Forschungsteam unter der Leitung von Prof. Dr. Gülşah Gabriel (HPI) und Prof. Dr. Jörg Heeren (UKE) konnte in Autopsieproben von COVID-19-Verstorbenen zeigen, dass SARS-CoV-2 häufig im Fettgewebe von COVID-19-Patienten nachweisbar ist. Bemerkenswerterweise wurde das Virus vorwiegend im Fettgewebe von männlichen Personen nachgewiesen, die übergewichtig oder adipös waren. Bei weiblichen Personen wurde SARS-CoV-2 ebenfalls in Fettgeweben nachgewiesen, wobei es keine eindeutige Korrelation zwischen der Fettmasse und den Virus-mRNA-Spiegeln gab. In einem präklinischen Modell einer COVID-19-Erkrankung wurde zudem gezeigt, dass sich SARS-CoV-2 vom Respirationstrakt ausgehend in das Fettgewebe ausbreitet und sich dort weiter vermehrt. Dies führt zu einer lokalen Entzündung und hat Folgen für den gesamten Stoffwechsel. „Unsere Ergebnisse zeigen, dass die bei Patienten mit COVID-19 beschriebenen Veränderungen des Stoffwechsels durch die SARS-CoV-2-Infektion der Fettgewebe erklärbar sind“, erläutert Jörg Heeren, Professor für Immunstoffwechsel am Institut für Biochemie und Molekulare Zellbiologie des UKE.

Zudem konnte in reifen Adipozyten (Fettzellen) in Zellkultur gezeigt werden, dass der intrazelluläre Fettstoffwechsel für die Ausbreitung von SARS-CoV-2 ein maßgeblicher Faktor ist. So reduziert die Blockierung des Fettabbaus durch einen Lipase-Inhibitor die Virusreplikation in reifen Adipozyten um das 100-fache. Durch die gleichzeitige Verabreichung eines Medikamentes, welches zur Cholesterin-Senkung eingesetzt wird, konnte die Replikation noch weiter unterdrückt werden. „Da es sich dabei um zwei bereits gegen andere Krankheitsbilder zugelassene Wirkstoffe handelt, könnten unsere Ergebnisse eine Basis für neue Behandlungsstrategien gegen COVID-19 darstellen“, erläutert Gülşah Gabriel, Leiterin der HPI-Abteilung „Virale Zoonosen – One Health“ und Professorin für Virologie an der Stiftung Tierärztliche Hochschule Hannover (TiHo), die Ergebnisse.

Diese multidisziplinäre Studie wurde in der Abteilung Virale Zoonosen – One Health am Leibniz-Institut für Experimentelle Virologie (HPI), in den Instituten für Biochemie und Molekulare Zellbiologie, für Rechtsmedizin, für Klinische Chemie und Laboratoriumsmedizin, für Neuropathologie sowie den Kliniken für Allgemein-, Viszeral- und Thoraxchirurgie und für Intensivmedizin am Universitätsklinikum Hamburg-Eppendorf durchgeführt. Beteiligt war ebenfalls die Abteilung Computational Biology of Infection Research vom Helmholtz Zentrum für Infektionsforschung in Braunschweig.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Gülşah Gabriel (HPI, TiHo), Tel.: 040/48051-315, guelsah.gabriel@leibniz-hpi.de
Prof. Dr. Jörg Heeren (UKE), Tel.: 040/7410 51715, heeren@uke.de

Originalpublikation:
Martin Zickler, Stephanie Stanelle-Bertram, Sandra Ehret, Fabian Heinrich, Philine Lange, Berfin Schaumburg, Nancy Mounogou Kouassi, Sebastian Beck, Michelle Y. Jäckstein, Oliver Mann, Susanne Krasemann, Maria Schröder, Dominik Jarczak, Axel Nierhaus, Stefan Kluge, Manuela Peschka, Hartmut Schlüter, Thomas Renné, Klaus Püschel, Andreas Klötgen, Ludger Scheja, Benjamin Ondruschka, Jörg Heeren and Gülşah Gabriel (2021). Replication of SARS-CoV-2 in adipose tissue determines organ and systemic lipid metabolism in hamsters and humans. Cell Metabolism (2021).
https://doi.org/10.1016/j.cmet.2021.12.002

Weitere Informationen:
http://www.hpi-hamburg.de HPI-Webseite

Anhang
PDF der Pressemitteilung

(nach oben)


Innovative Düngeverfahren: Weniger Emissionen bei Gülle-Düngung wachsender Bestände

Florian Klebs Hochschulkommunikation
Universität Hohenheim
Verbundprojekt mit Beteiligung der Uni Hohenheim untersucht, wie möglichst wenig Treibhausgas- und Ammoniakemissionen beim Düngen mit Gülle und Gärresten entstehen.

Bis zu 55 Prozent weniger Ammoniak-Emissionen durch innovative Methoden: Wirtschaftsdünger, wie Gülle oder Gärreste aus Biogasanlagen ließen sich erheblich umweltschonender auf die Äcker und Wiesen ausbringen. Das zeigen erste Ergebnisse eines Verbundprojekts mit Beteiligung der Universität Hohenheim in Stuttgart. Das Projekt nimmt ein Problem ins Visier, das die Düngeverordnung von 2017 sowie deren Novelle von 2020 noch verschärft hat, da verstärkt bereits bewachsene Felder gedüngt werden, bei denen der Dünger nicht in den Boden eingearbeitet werden kann. Für das vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) mit etwa 1,7 Millionen Euro geförderte Verbundprojekt erhält Dr. Reiner Ruser vom Fachgebiet Düngung und Bodenstoffhaushalt der Universität gut 360.000 Euro an Fördermitteln. Das macht es dort zu einem Schwergewicht der Forschung.

„Wirtschaftsdünger setzen nicht nur große Mengen an Ammoniak frei, das auch die menschliche Gesundheit schädigen kann. Den Pflanzen geht dadurch auch Stickstoff als wichtiger Nährstoff verloren“, erklärt Dr. Ruser. „So müssen nach der europäischen Richtlinie zur Luftreinhaltung bis 2030 die Ammoniakemissionen in Deutschland um 29 Prozent gegenüber 2005 reduziert werden.“

Außerdem trägt unter anderem aufgrund des intensiven Einsatzes von Stickstoffdünger in Deutschland die Landwirtschaft mit etwa sieben Prozent zu den gesamten Treibhausgasemissionen bei. Rund die Hälfte davon wird aus landwirtschaftlich genutzten Böden in Form von Lachgas (N2O) freigesetzt, das ein wesentlich stärkeres Treibhausgaspotenzial hat als Kohlendioxid.

Eine große Rolle bei der Freisetzung dieser Gase spielen neben der Düngermenge auch die Techniken, mit denen der Dünger auf die Äcker und Grünflächen ausgebracht wird. Wie innovative, emissionsarme Ausbringungstechniken aussehen können, untersuchen Forschende im Verbundprojekt „Minderung von Ammoniak- und Treibhausgasemissionen und Optimierung der Stickstoffproduktivität durch innovative Techniken der Gülle- und Gärresteausbringung in wachsende Bestände“ – GülleBest.

Ansäuern reduziert die Ammoniakfreisetzung
Erste Ergebnisse zeigen deutliche Unterschiede bei der Ammoniakfreisetzung. Vor allem das Ansäuern von Gülle und Gärresten erweist sich als besonders effektiv: „Wenn wir einen pH-Wert von ca. 6,0 erreichen, den üblicherweise auch der Boden aufweist, können wir die Ammoniak-Emissionen um bis zu 55 Prozent reduzieren“, sagt Dr. Ruser, Mitarbeiter von Prof. Dr. Torsten Müller im Fachgebiet Düngung und Bodenstoffhaushalt.

Auch die Befürchtung, dass es dadurch zu einer vermehrten Freisetzung von Lachgas kommen könnte, hat sich nicht bestätigt. Was ihn und seinen Doktoranden Christoph Essich, dessen Arbeitsschwerpunkt auf der Erfassung der Lachgas-Emissionen liegt, besonders freut.

Allerdings ist die Technik zur Ansäuerung in Deutschland noch nicht weit verbreitet und weitere Untersuchungen zur Optimierung der Ansäuerung, wie pH-Wert, Arbeitssicherheit im Umgang mit konzentrierter Schwefelsäure und mögliche alternative Methoden sind aus Sicht der Wissenschaftler sinnvoll.

Innovative Ausbringungstechniken können Emissionen reduzieren
Vor allem in Kombination mit der so genannten Schleppschuhtechnik ist die Ansäuerung auf Grünlandböden sehr effektiv. Dabei handelt es sich um einen Metallschuh, der das Gras zur Seite drückt, so dass die Gülle direkt auf den Boden gelangen kann. Außerdem werden im Projekt GülleBest die Schlitztechnik auf Acker- und Grünland sowie die Ausbringung über einen Schleppschlauch auf Acker untersucht. Bei der Schlitztechnik wird die Grasnarbe aufgeschnitten, bevor anschließend die Gülle injiziert wird, und Schleppschläuche ermöglichen die Ausbringung sehr dicht am Boden zwischen Weizenreihen.

Zusammen mit den Projektpartnern testen Dr. Ruser und Christoph Essich verschiedene Ansätze bei wachsenden Beständen, wie beispielsweise auf Feldern, auf denen Winterweizen oder Gras wächst, in einem Netzwerk abgestimmter Feldversuche. Zusätzlich erfassen die Forschenden die Stickstoff-Aufnahme durch die Pflanzen und beurteilen die ökonomischen und betrieblichen Vor- und Nachteile.

Bislang führen alle getesteten Techniken zu vergleichbaren Erträgen, sowohl beim Kornertrag des Winterweizens als auch bei der Biomasse-Produktion des Grünlands, unterscheiden sich aber in ihren Ammoniakemissionen. So könnten gerade bei wachsenden Kulturen innovative, emissionsarme Techniken dazu beitragen, den Nährstoffbedarf der Kulturen optimal zu bedienen und Stickstoffdünger einzusparen. Durch die Reduzierung von klima- und umweltbelastenden Emissionen im Pflanzenbau leisten sie zudem einen wichtigen Beitrag zum Umwelt- und Klimaschutz.

Ziel: Ableitung von Düngeempfehlungen für möglichst viele Standorte
Übergeordnetes Ziel von GülleBest ist es, aus den gewonnenen Daten Düngeempfehlungen für organische Dünger bei unterschiedlichen Bodenbeschaffenheiten und Standortseigenschaften für Winterweizen und Grünland ableiten zu können. „Durch die Vorgaben der 2017 in Kraft getretenen Düngeverordnung verlagert sich die Ausbringung zunehmend ins Frühjahr und in bereits mit Pflanzen bewachsene Felder, beispielsweise mit Wintergetreide“, sagt Dr. Ruser. „Dadurch können flüssige Wirtschaftsdünger nicht in den Boden eingearbeitet werden, und die Gefahr erhöhter Ammoniakemissionen steigt.“

Weitere Informationen:
Projekt-Website: https://www.guellebest.de/
Expertenliste Precision Farming / Smart Farming / Farming 4.0 / Landwirtschaft 4.0: https://www.uni-hohenheim.de/expertenliste-precision-farming
Expertenliste Klimawandel: https://www.uni-hohenheim.de/expertenliste-klimawandel

HINTERGRUND: „Minderung von Ammoniak- und Treibhausgasemissionen und Optimierung der Stickstoffproduktivität durch innovative Techniken der Gülle- und Gärresteausbringung in wachsende Bestände“ – GülleBest

Ziel des Verbundprojektes GülleBest ist es, innovative und emissionsarme Ausbringungstechniken zu untersuchen, um Düngeempfehlungen für unterschiedliche Bodenbeschaffenheiten, Nutzpflanzen und organische Dünger treffen zu können.

Am Projekt beteiligt sind neben den Hohenheimer Forschenden die Christian-Albrechts-Universität zu Kiel, die Hochschule Osnabrück und die Samson Agro A/S. Die Gesamtkoordination liegt beim Thünen-Institut in Braunschweig. Projektstart war am ersten September 2018, das voraussichtliche Ende wird der 31. März 2022 sein.

Für das vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) über die Bundesanstalt für Landwirtschaft und Ernährung (BLE) mit etwa 1,7 Millionen Euro geförderte Verbundprojekt erhält die Universität Hohenheim gut 360.000 Euro an Fördermitteln.

HINTERGRUND: Schwergewichte der Forschung
33,8 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2020 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 350.000 Euro für apparative Forschung bzw. 150.000 Euro für nicht-apparative Forschung.

Mehr Schwergewichte der Forschung: https://www.uni-hohenheim.de/drittmittelstarke-forschungsprojekte

Kontakt für Medien:
Dr. Reiner Ruser, Universität Hohenheim, Fachgebiet Düngung und Bodenstoffhaushalt,
T +49 (0)711 459-23291, E Reiner.Ruser@uni-hohenheim.de

Zu den Pressemitteilungen der Universität Hohenheim
http://www.uni-hohenheim.de/presse

(nach oben)


Neue Studie aus Bayreuth: Vermeintlich gleichartige Mikroplastik-Partikel zeigen unterschiedlich hohe Toxizität

Christian Wißler Pressestelle
Universität Bayreuth
Weltweit befassen sich immer mehr Studien mit Auswirkungen von Mikroplastik, vor allem im Hinblick auf die Umwelt und die Gesundheit. Oft verwenden sie kugelförmige Polystyrol-Mikropartikel und sind dabei zu teilweise widersprüchlichen Ergebnissen gelangt. Ein interdisziplinäres Forschungsteam der Universität Bayreuth hat einen Grund dafür entdeckt: Handelsübliche, vermeintlich gleiche Polystyrol-Teilchen unterscheiden sich je nach Hersteller signifikant in Bezug auf ihre Strukturen und Eigenschaften. Deshalb haben ihre Wechselwirkungen mit lebenden Zellen unterschiedliche Folgen für den Zellstoffwechsel. Im Journal of Hazardous Materials stellen die Wissenschaftler*innen ihre Studie vor.

Die neuen Forschungsergebnisse wurden exemplarisch an Modellzelllinien von Mäusen gewonnen. „Unsere Studie zeigt eindrucksvoll, wie problematisch es ist, verallgemeinernde Aussagen über gesundheitliche oder ökologische Auswirkungen von Mikroplastik machen zu wollen. Wenn gleich große Partikel des gleichen Kunststofftyps in der gleichen Form bei vertieften Analysen überraschende chemische und physikalische Unterschiede aufweisen und wenn sich diese Unterschiede auf Interaktionen mit lebenden Zellen auswirken – dann ist Vorsicht gegenüber voreiligen Schlussfolgerungen geboten“, sagt Prof. Dr. Christian Laforsch, Sprecher des SFB Mikroplastik an der Universität Bayreuth.

„Unsere Befunde enthalten klare Hinweise darauf, dass die in Wirkungsstudien derzeit gern verwendeten Polystyrol-Mikropartikel bisher nur schlecht charakterisiert sind. Weil hochrelevante Unterschiede unentdeckt blieben, haben widersprüchliche Ergebnisse, die unter vermeintlich gleichen Bedingungen erzielt wurden, der Forschung Rätsel aufgegeben. Künftig werden wir in Bayreuth die in unseren Versuchen eingesetzten Mikropartikel noch genauer unter die Lupe nehmen. Die Replizierbarkeit von Experimenten muss in der Mikroplastik-Forschung höchste Priorität haben – gerade wenn es um die Untersuchung gesundheitlicher Auswirkungen geht“, ergänzt Anja Ramsperger, eine der Erstautor*innen der Studie.

Die deutlichen Unterschiede zwischen handelsüblichen Polystyrol-Partikeln, die von verschiedenen Herstellern stammen, betreffen zunächst ihren Gehalt an Monomeren. Diese Grundbausteine der langkettigen Kunststoffmoleküle, die bei der Herstellung der Kunststoffe verkettet werden, können schädlich auf Zellen oder Organismen wirken. Weitere Unterschiede betreffen die elektrische Ladungsverteilung an der Oberfläche der Partikel, das sogenannte Zeta-Potenzial. Die Experimente wurden im Rahmen des SFB 1357 Mikroplastik in Laboratorien der Universität Bayreuth und des Leibniz-Instituts für Polymerforschung in Dresden durchgeführt. Die Ergebnisse zeigen eindeutig: Wenn Polystyrol-Mikropartikel mit einem höheren Zeta-Potenzial und einer einheitlichen Ladungsverteilung an der Oberfläche in Kontakt mit lebenden Zellen gebracht werden, kommt es zu weitaus häufigeren Interaktionen als bei der Verwendung anderer Polystyrol-Mikropartikel. Im Zuge häufiger Wechselwirkungen können vergleichsweise viele Partikel in die Zellen gelangen. Hier beeinträchtigen sie den Stoffwechsel und die Vermehrung der Zellen – vor allem dann, wenn die Partikelkonzentrationen hoch sind.

„Mittlerweile gibt es zahlreiche toxikologische Studien, die den Auswirkungen von Mikroplastik auf lebende Organismen auf die Spur kommen wollen. Aber erst wenn wir die chemische Zusammensetzung und die Oberflächeneigenschaften der dabei verwendeten Partikel im Detail kennen, lassen sich diese Studien wissenschaftlich vergleichen. Nur auf dieser Basis wird es möglich sein, die Eigenschaften zu entschlüsseln, die bestimmte Arten von Mikroplastik für die Umwelt und den Menschen potenziell gefährlich machen“, betont Ramsperger.

Die neue Studie beruht auf einer engen interdisziplinären Kooperation im DFG-Sonderforschungsbereich 1357 Mikroplastik an der Universität Bayreuth. Die beteiligten Autor*innen forschen und lehren auf Gebieten der Tierökologie, der Biomaterialforschung, der Bioprozesstechnik, der Biophysik und der Anorganischen Chemie. Weiterer Forschungspartner im Rahmen des SFB war das Leibniz-Institut für Polymerforschung in Dresden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Laforsch
Tierökologie I
Sprecher des SFB 1357 “Mikroplastik”
Universität Bayreuth
Telefon: +49 (0)921 55- 2651
E-Mail: christian.laforsch@uni-bayreuth.de

Originalpublikation:
A.F.R.M. Ramsperger, J. Jasinski, M. Völkl et al.: Supposedly identical microplastic particles substantially differ in their material properties influencing particle-cell interactions and cellular responses. Journal of Hazardous Materials (2021), DOI: https://doi.org/10.1016/j.jhazmat.2021.127961

(nach oben)


Damit Fondue-Fleisch nicht krank macht

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Lebensmittelbedingte Infektionen mit Campylobacter-Bakterien lassen sich durch gute Küchenhygiene vermeiden

Fleisch-Fondue oder Raclette-Essen mit gleichzeitiger Zubereitung von rohem Fleisch, frischem Gemüse und verschiedenen Saucen sind in der kalten Jahreszeit beliebt. Dabei können aber im rohen Fleisch vorhandene Krankheitserreger auf verzehrfertige Lebensmittel übergehen, wenn sie auf demselben Teller liegen oder mit demselben Besteck in Kontakt kommen. Am Essenstisch und bei der Zubereitung in der Küche sollte beim Umgang mit rohen Lebensmitteln vom Tier auf eine gute Küchenhygiene geachtet werden. Dazu hat das Bundesinstitut für Risikobewertung (BfR) in einem Merkblatt zum Schutz vor lebensmittelbedingten Infektionen mit Campylobacter und anderen Lebensmittelkeimen Verbrauchertipps veröffentlicht. Damit weist das BfR zum Schutz vor Infektionen nochmals auf die Notwendigkeit der Lebensmittelhygiene hin: „Durch konsequentes Trennen von rohem Fleisch, vor allem von Geflügel, und Lebensmitteln, die ohne weiteres Erhitzen verzehrt werden, lassen sich Campylobacter-Infektionen vermeiden“, sagt Professor Dr. Dr. Andreas Hensel, Präsident des BfR. „Zur guten Küchenhygiene gehört außerdem konsequentes Reinigen von Händen, Küchenutensilien und Zubereitungsflächen nach Kontakt mit rohen Lebensmitteln vom Tier und vor der Zubereitung weiterer Bestandteile einer Mahlzeit.“ Eine Infektion mit Campylobacter-Keimen ist die häufigste gemeldete lebensmittelbedingte bakterielle Erkrankung in Deutschland und in der EU. In Deutschland wurden im Jahr 2020 insgesamt 46.519 Fälle registriert. Besonders häufig infizieren sich kleine Kinder und junge Erwachsene. Die Folge sind Durchfallerkrankungen, in Einzelfällen aber auch schwerwiegende Nervenerkrankungen oder Gelenkentzündungen.

Auch die europäischen Behörden richten ihr besonderes Augenmerk auf die Häufigkeit von Campylobacter-Erkrankungen des Menschen, beispielsweise im Bericht zur Zoonosensituation in der EU im Jahr 2019. Die Campylobacteriose ist seit Jahren europa- und deutschlandweit die am häufigsten gemeldete bakterielle lebensmittelbedingte Erkrankung, wobei sich der Infektionstrend in den Jahren 2015 bis 2019 stabilisiert hat. Infektionen mit Campylobacter-Bakterien treten vermehrt in den Sommermonaten auf. Auch Deutschland verzeichnete im Jahr 2020 wie in den Vorjahren einen saisonalen Verlauf mit den höchsten Fallzahlen in den Monaten Juni bis September. Darüber hinaus zeigt sich ein jährlich wiederkehrender kurzzeitiger Anstieg der Fallzahlen am Jahresanfang. In einer kürzlich veröffentlichten Studie konnte das Robert Koch-Institut (RKI) einen Zusammenhang zwischen Campylobacter-Enteritis-Erkrankungen nach Weihnachten und Silvester und Fleischfondue- oder Raclette-Essen an den Feiertagen zeigen, insbesondere, wenn Hühnerfleisch angeboten wurde.

Campylobacter-Bakterien kommen weltweit bei Haus- und Nutztieren sowie in der Umwelt vor. Sie gelangen oft bereits beim Melken oder Schlachten auf die Lebensmittel. Besonders häufig wird Campylobacter in rohem Geflügelfleisch nachgewiesen. Aber auch andere rohe oder unzureichend erhitzte Lebensmittel vom Tier können den Erreger enthalten, z. B. Hühnereier, Rohmilch und Rohfleischerzeugnisse wie Hackepeter (Mett). Durch mangelnde Küchenhygiene können die Bakterien bei der Zubereitung auch auf andere Lebensmittel gelangen und ggf. nach Verzehr dieser zu einer Erkrankung führen. Schon sehr geringe Mengen an Campylobacter-Keimen können beim Menschen Darminfektionen verursachen, die typischerweise mit Bauchschmerzen und Durchfall einhergehen. Als seltene Komplikationen können auch Nervenerkrankungen (Guillain-Barré-Syndrom) und Gelenkentzündungen auftreten.

Um dem Verzehr von mit Campylobacter kontaminierten Lebensmitteln vorzubeugen, sollte in der Küche darauf geachtet werden, dass es zu keiner Verschleppung von Keimen, also einer Kreuzkontamination kommt. Als Kreuzkontamination wird die Keimübertragung von einem meist rohen Lebensmittel auf ein anderes Lebensmittel bezeichnet. Die Bakterien können direkt von einem Lebensmittel auf das andere übergehen, wenn diese unverpackt in Kontakt kommen. Möglich ist aber auch die indirekte Übertragung über Hände, Geräte, Arbeitsflächen, Messer oder andere Küchenutensilien. Beispielsweise können Bakterien von ungegartem Fondue-Fleisch auf gegartes Fleisch oder fertigen Salat übertragen werden, wenn das Besteck und der Teller nicht gewechselt werden.

Da Campylobacter-Keime nicht zum Verderb der Lebensmittel führen, lässt sich ihr Vorkommen weder am Aussehen noch am Geruch einer Speise erkennen. Wie die meisten Lebensmittelinfektionserreger lässt sich Campylobacter durch Erhitzen abtöten, also durch Kochen, Braten oder Pasteurisieren. Voraussetzung ist, dass für mindestens zwei Minuten eine Temperatur von 70 °C im Kern des Lebensmittels erreicht wurde. Das Tiefgefrieren von Lebensmitteln kann Campylobacter hingegen nicht vollständig abtöten, sondern nur die Anzahl der Keime reduzieren.

Das Merkblatt „Schutz vor lebensmittelbedingten Infektionen mit Campylobacter“ steht auf der Internetseite des BfR zur Verfügung und kann zudem auch kostenfrei bestellt werden:
http://www.bfr.bund.de/cm/350/verbrauchertipps-schutz-vor-lebensmittelbedingten-…

Das BfR hat zum Thema Küchenhygiene zudem zwei Videoclips „Was tun mit dem Huhn?“ und „Dem Keim auf der Spur“ veröffentlicht:
http://www.bfr.bund.de/de/was_tun_mit_dem_huhn_-191706.html?current_page=1
https://www.bfr.bund.de/de/dem_keim_auf_der_spur-202987.html?current_page=1

Bericht der EFSA und ECDC:
https://www.ecdc.europa.eu/sites/default/files/documents/zoonoses-EU-one-health-…

Presseinformation zur RKI-Studie zu Campylobacter-Enteritis-Erkrankungen nach Weihnachten und Silvester:
https://www.rki.de/DE/Content/InfAZ/C/Campylobacter/Presseinfo_2021_11_26.html

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Max-Planck-Institut Magdeburg begleitet die Verwirklichung eines realen Power-to-X Systems

Gabriele Ebel M.A. Presse- und Öffentlichkeitsarbeit / Public Relations
Max-Planck-Institut für Dynamik komplexer technischer Systeme Magdeburg
In dem Modellprojekt „Energieregion Staßfurt“ soll Wasserstoff aus grünem Strom vor Ort erzeugt und genutzt werden. Wissenschaftlerinnen und Wissenschaftler am Max-Planck-Institut für Dynamik komplexer technischer Systeme Magdeburg begleiten das Projekt, in Kooperation mit dem Fraunhofer IFF Magdeburg. Sie werden unter wissenschaftlichen Gesichtspunkten eine geeignete Elektrolysetechnologie auswählen und ihr Verhalten im zukünftigen realen Betrieb mathematisch modellieren sowie Alterungserscheinungen in Elektrolyseuren analysieren.

Die „Energieregion Staßfurt“, gelegen im Salzlandkreis in Sachsen-Anhalt, ist ein klimafreundliches Leuchtturmprojekt. Für das Wasserstoff-Projekt haben sich die Stadt Staßfurt, die Stadtwerke Staßfurt, der Energielieferant Erdgas Mittelsachsen und das Energieunternehmen MVV in der „Wasserstoff-Region“ Salzlandkreis zusammengeschlossen. Ziel ist es, die gesamte Wertschöpfungskette regional abzubilden: von der Stromerzeugung aus erneuerbaren Energien in lokalen Wind- und Photovoltaikparks bis hin zur Nutzung des klimafreundlich hergestellten Wasserstoffs. Ein bestehender nahegelegener Windpark soll um Windenergieanlagen erweitert und ggf. durch Photovoltaikanlagen bei steigendem Wasserstoffbedarf ergänzt werden.

Der grüne Wasserstoff soll durch ein Wasser-Elektrolyse-System mit 1 Megawatt Leistung am Standort in Staßfurt gewonnen werden. Der Strom aus den eigenen Wind- und Solarparks wird dabei in reinen Wasserstoff umgewandelt (Power-to-X). Der Elektrolyseur wird in diesem Projekt ausschließlich und kontinuierlich durch den Windpark mit grünem Strom betrieben. Mit dem grünen Wasserstoff aus der Region sollen zukünftig Linienbusse und Abfallsammelfahrzeuge angetrieben werden. Darüber hinaus sind eine oder mehrere Wasserstoff-Tankstellen für die öffentliche Nutzung vorgesehen.

Geeignete Elektrolysetechnologie betrachten und auswählen
Bei der Planung und technischen Auslegung der Elektrolyseanlage kommt die wissenschaftliche Expertise des Max-Planck-Instituts Magdeburg ins Spiel. Die Wissenschaftlerinnen und Wissenschaftler der Abteilung Prozesstechnik (PSE, Leitung: Prof. Dr.-Ing. Kai Sundmacher) werden unter wissenschaftlichen Gesichtspunkten eine geeignete Elektrolysetechnologie auswählen. In enger Abstimmung mit dem Energieunternehmen MVV werden die Einsatzszenarien und Betriebsbedingungen der Elektrolyseanlage definiert. Zwei unterschiedliche Technologien für die Niedrigtemperaturelektrolyse sollen systematisch betrachtet werden und schließlich in eine Auswahlempfehlung münden.

Die Betriebsdynamik des gesamten Elektrolysesystems soll mit Hilfe von Simulationen genauer untersucht werden. Dafür wird ein mathematisches Modell der Elektrolyseanlage in einer geeigneten Softwareumgebung entwickelt.

Sicheren und stabilen Betrieb bei optimalem Wirkungsgrad gewähren
Während ihrer gesamten Lebensdauer soll eine Elektrolysezelle sicher und stabil betrieben werden können – bei einem optimalen Wirkungsgrad. Dennoch wird die Zelle, abhängig von den Betriebsbedingungen, zu einem gewissen Grad altern. Die Wissenschaftlerinnen und Wissenschaftler aus der Forschungsgruppe Elektrochemische Energieumwandlung (EEC, Leitung: Dr.-Ing. Tanja Vidaković-Koch) konzentrieren sich daher darauf, die Rolle von Alterungsphänomenen in Elektrolyseuren während des Betriebs besser zu verstehen. Dafür setzt die Gruppe innovative nichtlineare dynamische Diagnose-Methoden ein, die zusätzliche Einblicke in die Mikroprozesse, die in der Zelle ablaufen, ermöglichen.

Grundlagen für ein reales Power-to-X-Projekt schaffen
Die wissenschaftliche Vorauswahl der Elektrolysetechnologie durch die PSE Forschungsgruppe des Max-Planck-Instituts Magdeburg legt die Grundlage für die später zu installierende Anlage in Staßfurt. Die Forschungsergebnisse aus der dynamischen Simulation der Elektrolyseanlage werden verwendet, um das Verhalten der Anlage im realen Betrieb schon in der technischen Planungs- und Auslegungsphase zu berücksichtigen.

In einer nachfolgenden zweiten Förderperiode sollen die gewonnenen Erkenntnisse am Praxisbeispiel der „Energieregion Staßfurt“ angewendet und erprobt und somit in ein reales Power-to-X-System überführt werden.

Zudem wird das Modell für den Entwurf von optimalen Betriebsführungsstrategien der realen Elektrolyseanlage eingesetzt. Weiterhin könnten die von der EEC-Gruppe entwickelten dynamischen Methoden in der zukünftigen Elektrolyseanlage vor Ort angewendet werden, um Alterungsprozesse im realen Betrieb zu untersuchen.

Darüber hinaus unterstützen die Wissenschaftlerinnen und Wissenschaftler der Gruppe Prozesstechnik die Erdgas Mittelsachsen GmbH bei der Entwicklung und Realisierung eines Regelungssystems zur sicheren und netzverträglichen Beimischung von Wasserstoff in das Erdgasnetz.

Das Forschungsprojekt wird von der Landesinvestitionsbank Sachsen-Anhalt mit 1 Million Euro bis Ende 2022 gefördert.

Weitere Informationen:
https://www.mpi-magdeburg.mpg.de/pm-power-to-x-elektrolyse
https://www.stassfurt.de/de/wirtschaftsstandort/energieregion-stassfurt.html

(nach oben)


TU Berlin forscht an 6G-Mobilfunknetz

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Die Fakultät Elektrotechnik und Informatik der TU Berlin erhält 13 Millionen Euro vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen seines Forschungs-Hubs „6G Research and Innovation Cluster“ (6G-RIC)

Das Funknetz 6G wird voraussichtlich ab 2030 das zentrale Nervensystem unseres vernetzten Lebens bilden und es ermöglichen, Daten bis zu tausendmal schneller zu übertragen als mit 5G, bei gleichzeitig höherer Energieeffizienz und Ausfallsicherheit. Damit Deutschland bei dieser Technologie nicht in Abhängigkeit von anderen kommt, will das BMBF schon heute die technologischen Grundlagen für 6G und dessen Anwendung legen. Dazu hat es im Rahmen seiner 6G-Forschungsinitiative vier Hubs gegründet. Beim Hub 6G-RIC sind insgesamt neun Fachgebiete aus der Fakultät Elektrotechnik und Informatik der TU Berlin beteiligt. Sein Ziel ist es, wissenschaftlich-technische Grundlagen für die nächste Generation der Mobilfunknetze über alle Technologieebenen hinweg zu schaffen.

Es ist der Vorstoß in einen neuen Wellenlängen-Bereich: Während die Frequenzen von 5G zwischen drei und 30 Gigahertz (GHz) liegen, sollen für 6G zusätzlich hohe Frequenzen bis in den Terahertz-Bereich genutzt werden. „Dies führt zu größeren Bandbreiten und somit auch zu höheren Übertragungsraten, die neue Anwendungen erschließen. Die Möglichkeit, durch die Nutzung größerer Bandbreiten mehr Redundanz zu schaffen, erhöht zudem die Ausfallsicherheit des Netzes.“, erklärt Prof. Dr.-Ing. Slawomir Stanczak. Er leitet die „Network Information Theory Group“ am Institut für Telekommunikationssysteme der TU Berlin und die Abteilung „Wireless Communications and Networks“ am Fraunhofer Heinrich-Hertz-Institut (HHI). Zudem koordiniert er den Forschungs-Hub 6G-RIC.

Mensch und Maschine Hand in Hand
Die hohen Frequenzen werden völlig neue Anwendungen ermöglichen, wie Telepräsenz und gemischte Realitäten, in denen die reale mit der virtuellen Welt verknüpft wird. Außerdem der Einsatz von mobilen Roboter-Schwärmen sowie hochspezialisierte Anwendungen, etwa in der Telemedizin, der Landwirtschaft oder in der Produktion. „Insbesondere werden Anwendungen möglich, bei denen Maschinen und Menschen bei riskanten Aufgaben zeitgleich zusammenarbeiten“, sagt Stanczak. „Stellen Sie sich vor, Service-Roboter helfen bei der Versorgung von pflegebedürftigen Menschen oder bei der Begleitung von Pflegepersonen“, beschreibt Stanczak einen potenziellen Anwendungsfall. „Oder mobile Roboter-Schwärme unterstützen Menschen bei der Feldarbeit.“ All diese Arbeiten würden durch mobile Datenübertragung erleichtert, benötigten aber neue Lösungen mit blitzschnellen Reaktionszeiten. „6G ist das Netz der Mensch-Maschine-Kollaboration“, erklärt Slawomir Stanczak.

Digitale Zwillinge und weltweite Netzabdeckung
Eine weitere Anwendung der 6G-Technik werden sogenannte Digitale Zwillinge sein, also exakte virtuelle Abbilder von realen Objekten und Vorgängen. Die Abläufe etwa in zukünftigen Fabriken könnten so schnell sein, dass ein direktes Eingreifen von Menschen zu gefährlich ist. Mit VR-Brille und anderen Hilfsmitteln könnte aber ein Digitaler Zwilling der Fabrik problemlos begangen werden und Technikern hilfreiche Einblicke geben. 6G kann hier wieder durch die drahtlose, schnelle Datenübertragung und die kurzen Reaktionszeiten punkten. Ein weiteres Ziel von 6G ist eine weltumspannende Netzabdeckung durch Schwärme von Nanosatelliten, die etwa die Versorgungslage mit schnellen Datenverbindungen auf dem afrikanischen Kontinent wesentlich verbessern könnten.

Stärkere Dämpfung der Wellen als Vor- und Nachteil
Es ist ein physikalisches Gesetz, dass hochfrequente Wellen, die häufig zwischen ihren Wellenbergen und -tälern wechseln, auch stärker mit dem sie umgebenden Medium wechselwirken und sich dabei abschwächen. „Dieses als Dämpfung bekannte Phänomen ist Fluch und Segen zugleich“, sagt Slawomir Stanczak. Die Verluste in der Luft führten dazu, dass die Wellen stärker auf ihre Zielobjekte fokussiert werden müssten. Komplexe Systeme aus vielen Einzelantennen müssen dazu angesteuert und sich bewegende Objekte zudem aufwendig nachverfolgt werden. Zudem wirkt sich der störende Dopplereffekt (sich bewegende Sender drücken ihre ausgesandten Wellen zusammen oder ziehen sie auseinander) bei hohen Frequenzen besonders stark aus. Auf der anderen Seite sei die Dämpfung aber auch ein Vorteil, so Stanczak. Denn die ihretwegen wesentlich stärker zielgerichteten Signale seien auch schwerer von anderer Seite abzuhören. „Außerdem sind breitbandige Signale schwieriger zu stören, was das Militär schon seit langem ausnutzt“, erzählt Stanczak.

Technologische Souveränität Europas sicherstellen
Diesen Herausforderungen stelle sich 6G-RIC vor allem durch intensive Grundlagenforschung zur Signalverarbeitung, sagt Slawomir Stanczak. Weil die herkömmliche Digitaltechnik hier an ihre Grenzen stoße, werde zum einen mehr auf analoge Technik wie zu Beginn des Informationszeitalters gesetzt. „Heute ist es allerdings auch möglich, mit Hilfe von Künstlicher Intelligenz das Verhalten von analoger Hardware digital zu simulieren.“ Letztlich also so etwas wie die informationstechnische Quadratur des Kreises. Was am Ende entstehen soll: Eine flexible Technologieplattform mit offenen Schnittstellen, die Anreize schafft für Start-Ups und neue Lieferanten von Technik-Komponenten. So kann auch schon die Hardware auf branchenspezifische Lösungen zugeschnitten werden, etwa für Hafenanlagen, Land- und Forstwirtschaft, vernetzte Mobilität und industrielle Anwendungen. „Wenn wir heute die Grundlagen legen, haben wir die Chance, mit 6G an die Weltspitze zu kommen und die technologische Souveränität Europas in diesem Bereich sicherzustellen“, sagt Stanczak. „Dies kann in einer Welt mit ständig wechselnden Rahmenbedingungen nur von Vorteil sein.“

Die neun Fachgebiete aus der Fakultät Elektrotechnik und Informatik bei 6G-RIC im Einzelnen:
• Das Fachgebiet für Kommunikations- und Informationstheorie (TUB-CommIT), geleitet von Alexander von Humboldt Professor Giuseppe Caire, bringt seine weitreichende Expertise in der informationstheoretischen Beschreibung drahtloser Kommunikation ein.
• Das Fachgebiet Mixed Signal Circuit Design (TUB-MSC), geleitet von Prof. Friedel Gerfers, verfügt über ein breites Spektrum an Vorarbeiten im Bereich energieeffizienter HF-Schaltungen und Systeme.
• Das Fachgebiet Security in Telecommunications (TUB-SecT), geleitet von Prof. Jean-Pierre Seifert, bringt umfangreiche Vorarbeiten zu Grundlagen für Sicherheit und Zuverlässigkeit in Telekommunikationssystemen ein.
• Das Fachgebiet Telekommunikationsnetze (TUB-TKN), geleitet von Prof. Falko Dressler, erforscht Methoden der Drahtloskommunikation mit Fokus auf WLAN, 5G und 6G sowie Visible Light Communication.
• Das Fachgebiet Netzwerkinformationstheorie (TUB-NetIT) von Prof. Slawomir Stanczak verfügt über weitreichende Kompetenz im Bereich Informationstheorie, drahtloser Kommunikation, Signalverarbeitung, Physical Layer Security sowie Over the Air Computation mit Anwendungen im maschinellen Lernen.
• Das Fachgebiet Hochfrequenzsysteme (TUB-HFS) von Prof. Wilhelm Keusgen beschäftigt sich mit der Mikrowellen- und Höchstfrequenztechnik mit starken Bezügen zur System- und Nachrichtentechnik.
• Das Fachgebiet Data Communications and Networking (TUB-DCN) von Prof. Stefan Schmid
• Das Fachgebiet Regelungssysteme (TUB-Control) von Prof. Jörg Raisch
• Der Lehrstuhl für Photonische Kommunikationssysteme (TUB-PKS) von Prof. Ronald Freund mit langjähriger Erfahrung in der Optimierung optischer Übertragungssysteme

Weiter Auskünfte erteilt Ihnen gern:
Prof. Dr.-Ing. Slawomir Stanczak
Technische Universität Berlin
Fakultät Elektrotechnik und Informatik
Fachgebiet Netzwerk-Informationstheorie
E-Mail: slawomir.stanczak@tu-berlin.de
Tel.: + 49 30 31002 702

(nach oben)


Klimapolitik: Wie man den Emissionshandel vor preisverzerrender Finanzspekulation schützen kann

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Der CO2-Emissionshandel – ein Schlüsselelement der europäischen Klimapolitik – kann vor Verzerrungen durch Finanzspekulanten geschützt werden, wie eine neue Untersuchung zeigt. Der Preis für CO2-Emissionszertifikate im Rahmen des EU-Systems hat sich im Laufe dieses Jahres zwischenzeitlich fast verdreifacht und schwankt nun so stark wie noch nie. Zunehmend werden Finanzspekulationen für diese Preisentwicklung verantwortlich gemacht, aber es fehlt der Nachweis, ob Spekulation tatsächlich das Funktionieren des Handelssystems gefährden kann. Die Forschenden schlagen nun Methoden zum Erkennen von preisverzerrender Spekulationen und Verbesserungen bei der Marktaufsicht vor.

„Während einige Akteure die Risiken durch Finanzspekulation übertreiben, nicht zuletzt wegen der politischen Auswirkungen hoher CO2-Preise, spielen andere es herunter, was oft ebenfalls politisch motiviert ist“, so Michael Pahle, der mit Simon Quemin Autor des neuen Berichts ist, er ist Ökonom am Potsdam-Institut für Klimafolgenforschung. Die derzeitige hitzige Debatte gipfelte bereits in der Forderung Spaniens und Polens, Spekulationen durch die Europäische Wertpapier- und Marktaufsichtsbehörde (ESMA) zu überprüfen.

+++Zahl der neuen Finanzakteure im Emissionshandel hat sich in nur drei Jahren verdreifacht+++

Für ihre eigene Untersuchung greifen die Forscher auf Daten zurück, die im Rahmen der EU-Finanzmarktverordnung seit 2018 erhoben werden. Sie überwacht die so genannten Termin-Kontrakte; diese sind für Spekulation das Finanzprodukt der Wahl, weil sie schnell und häufig gehandelt werden und nicht direkt von den Regulierungsbehörden des Emissionshandelssystems überwacht werden. Die Daten zeigen, dass sich die Zahl der neuen Finanzakteure, hauptsächlich Investmentfonds, in den letzten drei Jahren mehr als verdreifacht hat. Die Zahle der Akteure allein gibt jedoch keinen Aufschluss darüber, inwieweit sich deren Handel auf die Preisbildung auswirkt.

Um diese Frage zu beantworten, haben die Autoren eine Methode entwickelt, mit der sie das Verhalten der Finanzakteure auf dem CO2-Markt nach deren Handelsmotiven gruppieren, und in unterschiedliche Marktfunktionen einteilen: Einerseits nützliche Spekulation, insbesondere Absicherungen, das sind Vertragsgeschäfte, die es regulierten Unternehmen ermöglichen, das Risiko unsicherer künftiger Kohlenstoffpreise auszulagern. Andererseits schädliche Spekulation, die zu übermäßigen Preisschwankungen führen kann, zu Preisblasen und möglicherweise zu einem strategischen Horten von Zertifikaten durch große Investmentfonds, um die Preise zu treiben. Diese Risiken werden mit der Zeit zunehmen, da die Emissions-Zertifikate auf dem Markt zwangsläufig knapper werden müssen – der Ausstoß an CO2 soll sinken, das hat die Politik vorgegeben

+++Regulierer können Datenqualität und Diagnostik verbessern und Behörde zur Marktaufsicht schaffen+++

„Um sich auf dieses Risiko vorzubereiten, können Regulierer drei Dinge tun. Erstens müssten sie die Datenverfügbarkeit und -qualität erhöhen, um die neuen Formen des Handels genauer erfassen zu können. Zweitens sollten sie ihre Diagnostik verbessern, indem sie Methoden wie die von uns vorgeschlagenen benutzen, um schädliche Spekulation früher und besser erkennen zu können. Drittens sollten sie eine spezielle Marktaufsichtsbehörde schaffen, die Umwelt- und Finanzmarktgesichtspunkte integriert betrachtet“, so Simon Quemin. „Die Analyse der Spekulation auf anderen Rohstoffmärkten kann als Vergleichsmaßstab dienen. Auf diese Weise könnte die neue Behörde evidenzbasierte Maßnahmen ergreifen und die Spekulation eindämmen, wenn dies gerechtfertigt ist.“

Maßnahmen in diese Richtung sind enorm wichtig, da bloßes Abwarten tiefgreifende Folgen für die regulierte Wirtschaftszweige und für die Verbraucher haben kann. „Wenn wir der Spekulation freien Lauf lassen, kann dies früher oder später das Funktionieren der Märkte für CO2-Emissionszertifikate untergraben“, erklärt Michael Pahle. „Wenn wir hingegen jetzt eine bessere Überwachung und integrierte Regulierung einführen, kann dies das EU-Emissionshandelssystem vor exzessiven Finanzspekulationen schützen und so den Weg für eine strengere und robustere Kohlenstoffbepreisung ebnen – auch in anderen Emissionshandelssystemen weltweit, wie in den USA und China. „

Weblink zum Papier, sobald es veröffentlicht ist: https://www.ssrn.com/index.cfm/en

Originalpublikation:
Arbeitspapier: Simon Quemin, Michael Pahle (2021): Financials threaten to undermine the functioning of emissions allowance markets. Social Science Research Network [DOI wird erst am Mittwoch zugeordnet]

Weitere Informationen:
Auf Anfrage kann die Manuskript-Fassung zur Verfügung gestellt werden.

(nach oben)


Aufbruchsstimmung im deutschen Gesundheitswesen

Katrin Schubert Pressestelle
Universität Witten/Herdecke
ATLAS-Projekt der Universität Witten/Herdecke präsentiert Trendstudie zur Zukunft der Gesundheitswirtschaft

Die digitale Revolution des Gesundheitswesens ist in vollem Gange. Künstliche Intelligenz (KI), das Internet der medizinischen Dinge (IoMT), Robotik, 3D-Druck und Big Data entfesseln enorme Kräfte für einen fundamentalen Transformationsprozess. Das Forschungsteam des „ATLAS Digitale Gesundheitswirtschaft“ der Universität Witten/Herdecke (UW/H) beschreibt in einer aktuellen Studie, welche Umwälzungen und Herausforderungen sich für Industrie, Krankenkassen und Leistungserbringer im Gesundheitswesen abzeichnen.

Für die Analyse hat das ATLAS-Team auf Basis von Experteninterviews, internationalen Studien und Beispielen aus Nordrhein-Westfalen, Deutschland und der Welt digitale Transformationsfelder der Gesundheitswirtschaft identifiziert und daraus Handlungs- und Strategieempfehlungen abgeleitet. „Die Trendstudie beschreibt eine Aufbruchsstimmung im deutschen Gesundheitswesen“, sagt Projektleiterin Prof. Dr. Sabine Bohnet-Joschko, „und sie gibt einen Einblick in die Breite und Tiefe der Expertise, die im deutschen Gesundheitswesen bereits vorhanden ist und Ausgangspunkt für die erfolgreiche Mitgestaltung der digitalen Transformation darstellt.“

Das Ergebnis ist eine 56-Seiten starke Trendstudie mit dem Titel „KOOPERATIV & VERNETZT – Digitale Transformationsfelder der Gesundheitswirtschaft“, die Interessierten unter https://www.atlas-digitale-gesundheitswirtschaft.de/projekt/trendstudie/ zum Download zur Verfügung steht.

NRW-Wirtschaftsminister Prof. Andreas Pinkwart ordnet in seinem Vorwort zur Studie ein: „Die Bedürfnisse einzelner Stakeholder in der Gesundheitswirtschaft zu kennen, aber auch von ihnen im Hinblick auf Trends und Innovationspotential zu lernen, ist ein wichtiges Anliegen.“ Er ergänzt und lobt: „Die Digitalisierung der Gesundheitswirtschaft braucht den dynamischen Wissenstransfer zwischen Wissenschaft und Wirtschaft. Von ATLAS ITG gehen dazu wichtige Impulse aus.“

Die identifizierten Trends sind dabei eindeutig
Das Gesundheitswesen der Zukunft fordert von allen Beteiligten eine Stärkung der Kooperationsfähigkeit, auch über Sektoren- und Versorgungsgrenzen hinweg. So kann beispielsweise eine durch Künstliche Intelligenz unterstützte mobile Ultraschallbehandlung dazu beitragen, klinische Workflows effizienter zu gestalten. Auch im Hinblick auf Datenschutzbelange bieten sich direkte Kooperationen zwischen Kostenträgern, Leistungserbringern und Entwicklern der Software an.

Gleichzeitig gewinnt die Patientenperspektive im Behandlungspfad an Bedeutung. Expertinnen und Experten sehen speziell in der Integration patientengenerierter gesundheitsbezogener Daten – insbesondere über Smartwatches und andere Wearables – große Chancen für Diagnostik und Therapie, aber auch für die Forschung.

Da für den gesamten Prozess der digitalen Transformation kompetentes Fachpersonal, darunter insbesondere Schnittstellenprofis zwischen verschiedenen Professionen und der IT, gebraucht wird, kann es erfolgsversprechend sein, in Ergänzung zur Gewinnung und Ausbildung junger Nachwuchsfachkräfte auf eine Strategie des digitalen „Up-Skillings“ von Fachkräften zu setzen. Auch Kooperationen etablierter Unternehmen der Gesundheitswirtschaft mit (jungen) Technologieunternehmen identifiziert die Studie als eine gute Strategie.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sabine Bohnet-Joschko (Projektleiterin), sabine.bohnet-joschko@uni-wh.de
Dr. Katharina Pilgrim (Koordinatorin), katharina.pilgrim@uni-wh.de
Presseteam:
Katrin Schubert unter Tel +49 (0)2302 / 926-858 oder E-Mail: Katrin.Schubert@uni-wh.de

Originalpublikation:
„KOOPERATIV & VERNETZT – Digitale Transformationsfelder der Gesundheitswirtschaft“, https://www.atlas-digitale-gesundheitswirtschaft.de/projekt/trendstudie/

Weitere Informationen:
https://www.uni-wh.de/detailseiten/news/aufbruchsstimmung-im-deutschen-gesundhei…

(nach oben)


Konstanzer Homeoffice-Studie: Mobiles Arbeiten besonders bei Jüngeren gefragt

Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
Konstanzer Langzeitstudie stellt fest, dass besonders jüngere Arbeitnehmer*innen dem Arbeiten im Homeoffice positiv gegenüberstehen. Ein Sechstel von ihnen würde für garantierte Homeoffice-Tage sogar Gehaltseinbußen in Kauf nehmen.

Rein in das Homeoffice, raus aus dem Homeoffice, und dann wieder zurück – der wellenförmige Verlauf der Pandemie führt zu vielen Anpassungsphasen bei Arbeitnehmer*innen und Betrieben und zu zahlreichen Zwischenformen zwischen Homeoffice in Vollzeit und klassischer Präsenzpflicht am Arbeitsplatz. Dabei ist die erforderliche Anpassungsleistung bei beiden Gruppen enorm. Die Konstanzer Homeoffice-Studie des Organisationsforschers Prof. Dr. Florian Kunze (Exzellenzcluster „The Politics of Inequality“, Universität Konstanz) und seiner Mitarbeiterin Sophia Zimmermann geht diesen Entwicklungen seit dem Frühjahr 2020 in einer empirischen Längsschnittstudie nach. Sie befragen dazu stets dieselben Personen, die für die Erwerbsbevölkerung mit Büro- und Wissenstätigkeiten repräsentativ ausgewählt wurden. So können sie die Entwicklung der Situation über die Zeit verfolgen.

„Unsere jüngste Befragung im November 2021 zeigt nicht nur, dass der Wunsch nach Homeoffice stabil geblieben ist“, sagt Florian Kunze. „Gerade unter den Jüngeren würden viele sogar in Kauf nehmen, etwas weniger zu verdienen, wenn sie dafür regelmäßig von zu Hause aus arbeiten dürften. Dabei ist die Arbeitsplatzsituation in Deutschland von einer hybriden Arbeitskultur, in der Homeoffice, mobile Arbeitsformen und Präsenzarbeit Hand in Hand gehen, noch recht weit entfernt.“

Die Befunde:
• Der durchschnittliche Wunsch der Arbeitnehmer*innen nach Homeoffice liegt seit Beginn der Pandemie vor ca. 20 Monaten stabil bei ca. 2,9 Tagen in der Woche.
• Dabei unterscheiden sich die Altersgruppen. Den 18-35-jährigen ist Homeoffice so wichtig, dass ca. ein Sechstel von ihnen sogar Gehaltseinbußen dafür in Kauf nehmen würde.
• Nur 18 Prozent der Befragten meinen, dass Homeoffice Produktivität und Arbeitsprozesse stört. Unter den befragten Führungskräften liegt dieser Wert mit 26 Prozent deutlich höher. 70 Prozent der Beschäftigten kommen trotz Präsenzarbeit noch vorwiegend digital zusammen.

Auch nach der Rolle der Betriebe für das Impf- und Infektionsgeschehen fragten die Forschenden:
• Mehr als die Hälfte der Befragten wurde vom Arbeitgeber zur Impfung aufgefordert oder bekam im Betrieb eine Impfung angeboten.
• Ein Drittel der Befragten gab an, dass 3G-Regelungen an ihrem Arbeitsplatz nicht eingehalten würden.

Faktenübersicht:
• Prof. Dr. Florian Kunze ist Professor für Organisational Studies am Fachbereich Politik- und Verwaltungswissenschaft sowie Principal Investigator am Exzellenzcluster „The Politics of Inequality“ der Universität Konstanz. Er forscht zu Digitalisierung und neuen Formen der Arbeit, zum demographischen Wandel in öffentlichen und privaten Organisationen und effektivem Führungsverhalten.
• Sophia Zimmermann ist Doktorandin an der Professur für Organisational Studies. Ihre Forschungsschwerpunkte liegen im Bereich der Entwicklung von Mitarbeiterkompetenzen für den digitalen Wandel und der effektiven Gestaltung von Telearbeit.
• Die Online-Befragung wurde über das Online-Umfrageinstitut Respondi durchgeführt und umfasste bisher 14 Befragungszeitpunkte. An der jüngsten Befragungswelle (12.-18.11.2021) nahmen 688 Personen teil, die die Erwerbsbevölkerung in Bürotätigkeiten repräsentativ nach Alter und Geschlecht abbilden.
• Die Umfrage ging aus dem Projekt „Digitalisierung, Automatisierung und die Zukunft der Arbeit in postindustriellen Wohlfahrtsstaaten“ am Exzellenzcluster „The Politics of Inequality“ an der Universität Konstanz hervor.

Hinweis an die Redaktionen:
Die wichtigsten Ergebnisse haben die Forschenden in einem Fact Sheet zusammengefasst, das hier heruntergeladen werden kann: https://www.uni-konstanz.de/typo3temp/secure_downloads/64520/0/29f1c462aca320f22…
Eine ausführliche Erläuterung zum Fact Sheet findet sich hier: https://www.uni-konstanz.de/typo3temp/secure_downloads/64520/0/29f1c462aca320f22…

Umfangreiche Informationen und Empfehlungen zum Umgang mit dem Arbeiten im Homeoffice in Zeiten der COVID-19-Pandemie liefert auch ein Policy Paper der Autoren vom Juli 2020, das hier heruntergeladen werden kann:
https://kops.uni-konstanz.de/bitstream/handle/123456789/51524/Kunze_2-926cp7kvkn…

Ein Bild von Florian Kunze findet sich hier zum Download:
Bild: https://cms.uni-konstanz.de/fileadmin/exzellenz/inequality/Personen/Kunze_Floria…
Bildunterschrift: Prof. Dr. Florian Kunze, Professor für Organisational Studies am Fachbereich Politik- und Verwaltungswissenschaft sowie Principal Investigator am Exzellenzcluster „The Politics of Inequality“ der Universität Konstanz.
Bild: Ines Janas.

Ein Bild von Sophia Zimmermann steht hier zum Download bereit:
Bild: https://cms.uni-konstanz.de/fileadmin/exzellenz/inequality/Personen/Zimmermann_S…
Bildunterschrift: Sophia Zimmermann, wissenschaftliche Mitarbeiterin an der Professur für Organisational Studies des Fachbereichs Politik- und Verwaltungswissenschaft der Universität Konstanz.
Bild: Ines Janas.

Wissenschaftliche Ansprechpartner:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

(nach oben)


Urzelle LUCA entstand durch Wasserstoffenergie

Dr.rer.nat. Arne Claussen Stabsstelle Presse und Kommunikation
Heinrich-Heine-Universität Düsseldorf

Evolutionsbiologie: Publikation in Frontiers in Microbiology
Woher kam der Urstoffwechsel, aus dem das Leben entstand? Forschende der Heinrich-Heine-Universität Düsseldorf (HHU) haben jetzt den Stoffwechsel der allerersten Lebensform, der Urzelle LUCA, rekonstruiert. Dabei kam ans Licht, dass fast alle chemischen Reaktionen, die am Aufbau der molekularen Bausteine der Urzelle beteiligt waren, Energie freisetzen. Somit diente der Urstoffwechsel selbst als interne Energiequelle, sofern der älteste und zugleich modernste Energieträger vorhanden war: Wasserstoffgas, H2.

Das Team um Prof. Dr. William Martin, Leiter des HHU-Instituts für Molekulare Evolution, erforscht, wie und wo das frühe Leben auf der Erde entstand. Dazu führen sie einerseits chemische Versuche im Labor mit simulierten Hydrothermalquellen durch, andererseits sammeln sie die Spuren vom Ursprung des Lebens im Erbgut heutiger Mikroben und deuten diese im Kontext der Bedingungen auf der frühen Erde. Schon 2016 fanden sie heraus, dass der letzte gemeinsame Vorfahre allen Lebens LUCA (für last universal common ancestor) hydrothermale Tiefseequellen besiedelte.

In ihrer neuen Publikation untersuchen sie, wo LUCAs Stoffwechsel entstand, indem sie die Fragen klärten, wie LUCA seine Grundbausteine aufbaute und woher die dafür erforderliche Energie kam. Hierzu konnte Martins Team 402 Stoffwechselreaktionen identifizieren, die sich vom Ursprung des Lebens vor rund 4 Milliarden Jahren bis heute kaum verändert haben. Diese waren demnach schon in LUCA vorhanden und werfen Licht auf die Frage, wie LUCA mit Energie umging und woher er seine Energie bezog.

Jessica Wimmer, Doktorandin am Düsseldorfer Institut und Erstautorin der neuen Studie, interessierte sich vor allem für die Energiebilanz von LUCAs Stoffwechselreaktionen, denn: Alles Leben braucht Energie. Dazu untersuchte sie mit ihrem Forschungsteam bei ursprünglichen Mikroben die biochemischen Reaktionen, mit denen diese ihre Grundbausteine für Zellstruktur und -funktion aufbauen. Daraus ergab sich ein umfassendes Reaktionsnetzwerk, das bereits bei LUCA vorgelegen haben muss.

Es sind insgesamt 402 einzelne chemische Reaktionen, bei denen die 20 Aminosäuren entstehen, aus denen wiederum alle in Lebewesen vorkommenden Proteine aufgebaut sind; ferner bilden diese Reaktionen die Basen der Nukleinsäuren, die sich in der DNA bzw. RNA wiederfinden und 18 wichtige Vitamine, die für den Stoffwechsel unerlässlich sind. All diese Komponenten entstehen bei primitiven Mikroben – aber auch in Wimmers Computerberechnungen – aus den grundlegenden Molekülen Wasserstoff (H2), Kohlendioxid (CO2) und Ammoniak (NH3), die es an Hydrothermalquellen der frühen Erde in ausreichender Menge gab.

Wimmer zu ihrer Forschungsfrage: „Wir wollten wissen, woher der ursprüngliche Stoffwechsel seine Energie bezog. Denn vor vier Milliarden Jahren gab es noch keine Enzyme, die in heutigen Zellen die Reaktionen katalysieren. Die Reaktionen mussten vielmehr in der damaligen Umwelt von sich aus stattfinden können. Es gab schon viele Vermutungen, woher die treibende Energie hätte stammen können. Im Stoffwechsel selber hatte aber noch niemand gesucht.“ Dazu untersuchte das Team die Energiebilanz jeder Reaktion anhand ihrer freien Energie, auch Gibbs-Energie genannt.

Ihr Ergebnis: LUCA war für seinen Stoffwechsel auf keine externen Energiequellen wie UV-Licht, Meteoriteneinschläge, Vulkanausbrüche oder Radioaktivität angewiesen. Vielmehr liefern – in einer Umgebung, die sich bei Hydrothermalquellen finden lässt – die grundlegenden Reaktionen selbst die Energie für den Stoffwechsel. Oder anders ausgedrückt: Der Großteil von LUCAs chemischen Reaktionen setzt sogar Energie frei.
Die Energie für das Leben ist im Leben selbst enthalten. „Das ist deshalb aufregend,“ sagt Prof. Martin, Letztautor der Studie, „weil der sonst so komplizierte Stoffwechsel auf einmal eine natürliche Tendenz offenbart, sich unter den richtigen Bedingungen von alleine zu entfalten.“

Um zu diesem überraschenden Schluss zu gelangen, untersuchte das Team die Energetik der 402 Reaktionen mit Computermodellen unter vielen unterschiedlichen Umweltbedingungen, um energetisch günstige von energetisch ungünstigen Konstellationen zu unterscheiden. Denn ob eine Reaktion Energie freisetzt, hängt zum Teil von den herrschenden Umweltbedingungen ab. Sie spielten pH-Werte von 1 (sauer) bis 14 (alkalisch), Temperaturen von 25 bis 100 °C sowie unterschiedliche Konzentrationsverhältnisse der Ausgangsstoffe (Reaktanden) zu den Reaktionsprodukten durch, Auch die energetische Rolle des Wasserstoffs wurde bewertet. Wimmer: „Ohne Wasserstoff geht gar nichts, weil dieser benötigt wird, um das CO2 überhaupt in den Stoffwechsel einzuschleusen.“

Die energetisch optimalen Bedingungen lagen im Bereich eines alkalischen pH-Wertes um etwa 9 und einer Temperatur von 80 °C. Wasserstoff diente zur CO2-Fixierung. Prof. Martin ordnet diese Ergebnisse ein: „Dieses Milieu entspricht genau der Umgebung, die man im Hydrothermalfeld ‚Lost City‘ im Atlantis-Massiv, einem unterseeischen Gebirge im Mittelatlantik, vorfindet. In dieser Umgebung könnten rund 97 Prozent der 402 Reaktionen spontan ablaufen, also ohne zusätzliche Energiezufuhr. In dieser Umgebung ist Wasserstoff in jeder Hinsicht chemisches Sonnenlicht. Die moderne Energieforschung nutzt genau die gleichen Eigenschaften des Wasserstoffs wie das Leben. Nur hat das Leben schon vier Milliarden Jahre Erfahrung damit, wir fangen gerade erst an.“

Jessica Wimmer ergänzt: „Wir haben gezeigt, dass die Energie am Ursprung des Lebens rein chemischer Natur ist. Wir brauchen kein Sonnenlicht, keine Meteoriten, kein UV Licht: nur H2 und CO2, plus etwas Ammoniak und Salz. Und aus unserem biosynthetischen Netzwerk können wir auf die Eigenschaften von LUCA zurückschließen, über Milliarden von Jahren hinweg.“

Originalpublikation:
Jessica L. E. Wimmer, Joana C. Xavier, Andrey d. N. Vieira, Delfina P. Pereira, Jacqueline Leidner, Filipa L. Sousa, Karl Kleinermanns, Martina Preiner, William F. Martin, Energy at origins: Favorable thermodynamics of biosynthetic reactions in the last universal common ancestor (LUCA), Frontiers in Microbiology (2021).
DOI: 10.3389/fmicb.2021.793664

(nach oben)


Technologieentwicklung für kohlenstoffreie Energiesysteme geht in die Umsetzung

Dr. Hans Sawade Stab – Wissenschaftsmanagement
Leibniz-Institut für Plasmaforschung und Technologie e.V.
Das Programm „WIR! – Wandel durch Innovation in der Region“, seit 2017 am Start, schreitet voran. 23 Bündnisse, im August 2021 im Rahmen von „WIR!“ ausgewählt, befinden sich nun in ihrer sechsjährigen Umsetzungsphase.
„Wir unterziehen CAMPFIRE jetzt einer „Soll-Ist-Analyse“ hinsichtlich neuer notwendiger Lösungs- und Strategieansätze einschließlich der bis jetzt abgeleiteten Förderprojekte und weisen in einem erweiterten Konzept unsere nächsten Schritte aus“, erklärt Dr. Angela Kruth, Koordinatorin & Sprecherin von CAMPFIRE.

Deutschlands Ziel ist es, bis zum Jahr 2045 weitgehend treibhausgasneutral zu werden. Mindestens 80 Prozent der Stromversorgung und 60 Prozent der gesamten Energie-versorgung sollen dann aus Erneuerbaren Energien bereitgestellt werden. Das gegen-wärtige Energiesystem soll dabei in ein emissionsfreies, auf erneuerbaren Energien basierendes Energiesystem transformiert werden.

„Im Rahmen der Soll-Ist-Analyse von CAMPFIRE überprüfte unser unternehmens-geführtes Strategieteam und unser Fachbeirat den CAMPFIRE-Ansatz für ein zukünftiges globales, kohlenstofffreies Ammoniak-Wasserstoff-Energiesystem und entwickelte die notwendigen Strategie dazu weiter“, so Dr. Angela Kruth.

„CAMPFIRE“ steht für einen nachhaltigen Strukturwandel in der Region Nord-Ost mittels Aufbau innovativer Pfade und der Erschließung wirtschaftlicher Vorteile für kleine und mittelständige Unternehmen in der Region Nord-Ost, die hauptsächlich in Mecklenburg-Vorpommer (M-V) liegt. Die mittlerweile 72 Partner, vorrangig ansässig in der Region Nord-Ost, verfolgen gemeinsam das Ziel der Entwicklung exportfähiger Technologien zur NH3-Erzeugung, Transport sowie Nutzung als Kraftstoff und Energiespeicher.

In der nächsten Phase der Umsetzung geht es vorrangig um den Technologietransfer und die Verstetigung wissenschaftlicher Erfindungen im Markt mit dem Ziel der Erzeugung von Ammoniak (NH3) zur Nutzung als Kraftstoff zu Wasser und zu Land. Dazu zählt die Realisierung erforderlicher Forschungsschnittstellen im Rahmen von TransHyDE, dem CAMPFIRE-Umsetzungsprojekt. Es ist eines der drei Wasserstoff-Leitprojekte des Bundesministeriums für Bildung und Forschung (BMBF) aus dem Zukunftspaket zur Umsetzung der 2020 beschlossenen „Nationalen Wasserstoffstrategie“ in Deutschland. Im Detail bedeutet es die Adressierung von Forschungsschnittstellen zur saisonalen Erzeugung von grünem Ammoniak, zum Bau von Betankungsanlagen für den Import von grünem NH3 von Schiff zu Land sowie von Schiff zu Schiff, die Schaffung lastflexibler Ammoniak-Anlagen zur saisonale Erzeugung von NH3 aus erneuerbarer Energie inclusive dynamischer Wandlungstechnologien für eine stationäre und mobile Energieversorgung sowie den Bau von Ammoniak-zu-Wasserstoff-Tankstellen in Verbindung mit dem Aufbau der dazugehörigen Logistik sowie die Schaffung von Rahmenbedingungen zur Nutzung von NH3 und Wasserstoff für Brennstoffzellen, Ammoniakcracker und saisonale Mikro-Haber-Boschverfahren zur Energiespeicherung.

Über allem steht eine kohlenstoffreie, sichere Energieversorgung. Langfristig entstehen effektive wirtschaftliche Wege zur Verminderung des globalen Kohlendioxidgehaltes in der Erdatmosphäre. „Wir sorgen jetzt in Phase Nr. 2 von „WIR!“ mit der Schaffung einer „Open Innovation Plattform“ für eine Verstetigung der industriellen und wissenschaftlichen Schwerpunktsetzung von „CAMPFIRE“. Unser Ziel ist dabei die Gründung der CAMPFIRE gAG“, so Angela Kruth.

„WIR!“ richtet sich an breit angelegte regionale Bündnisse wie das regionale Partner-Bündnis „CAMPFIRE“ unter der Koordination des Leibniz-Institutes für Plasmaforschung und Technologie e.V. (INP) in Greifswald und der strategisch-technologischen Leitung des Zentrums für Brennstoffzellentechnik in Duisburg. Auf dem Industriegelände der YARA Rostock am Standort Poppendorf werden im Rahmen des CAMPFIRE-Umsetzungs-projekte im BMBF – Leitvorhaben TransHyDE dafür industrierelevante Prüf- und Testfelder im COIL – CAMPFIRE Open Innovation Lab für die neuen Ammoniak-Technologien aufgebaut.

Die Fördermaßnahme „WIR!“ ist Teil der Programmfamilie „Innovation & Strukturwandel“, mit der das BMBF den Wandel in strukturschwachen Regionen unterstützt. Allein bis 2025 stehen für „Innovation & Strukturwandel“ rund 600 Millionen Euro bereit.

Presse-Kontakt:
Dr. Gesine Selig
Pressesprecherin
Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP)
Tel.: +49 3834 554 3942
mobil: +49 163 554 3942
e-mail: gesine.selig@inp-greifswald.de
https://www.leibniz-inp.de

Weitere Informationen:
http://www.wir-campfire.de

Anhang
CAMPFIRE-Logo

(nach oben)


Wie Lieferketten widerstandsfähiger werden

Nicolas Vogt Presse und Öffentlichkeitsarbeit
WHU – Otto Beisheim School of Management
Lieferketten sind bei unvorhergesehenen Ereignissen störungsanfällig, das hat die Corona-Krise deutlich gezeigt. Eines von vielen Beispielen für gestörte Lieferketten ist die derzeitige Halbleiterknappheit, mit der nicht nur die Autohersteller zu kämpfen haben. Was aber können Unternehmen tun, um sich auf schwierige Situationen vorzubereiten? Wie können sie eigene Schwächen frühzeitig erkennen? Forscher der WHU – Otto Beisheim School of Management haben durch das Konsortialprojekt SPAICER eine Antwort darauf gefunden. Das Konzept eines datengestützten Resilienzindexes eröffnet die Möglichkeit, Schwächen in Lieferketten zu simulieren, noch bevor diese überhaupt unterbrochen werden.

Resilienz – die Fähigkeit, bei Störungen Auswege zu finden und weiterhin zu funktionieren – ist für Unternehmen der zentrale Faktor, um erfolgreich in Krisensituationen bestehen zu können. Sie kann durch gute Vorbereitung, gezielte Reaktionen auf Störungen und durch Anpassungsfähigkeit an neu entstandene Situationen erhöht werden. Aber wie kann ein Unternehmen erkennen, wie resilient es ist?

Diese Lücke könnte ein datengestützter Resilienzindex schließen. Das Konzept eines simulationsbasierten Ansatzes des SPAICER-Projekts geht darauf ein, wie gut ein Unternehmen mit möglichen Störungen umgehen kann. Dabei kann der Index Aufschluss über die Resilienz eines Unternehmens geben, indem er simuliert, inwiefern sich die Leistungsfähigkeit einer Firma ändert, wenn sie mit speziellen, schwierigen Situationen konfrontiert wird. Ist eine Firma resilient, wird sich ihre Leistung auch bei Störungen von Lieferketten kaum verschlechtern. Wichtig ist dabei, dass mit dem Resilienzindex nicht nur eine einmalige Einschätzung erfolgt, sondern ein kontinuierlicher Prozess eingeleitet wird, der zum Tagesgeschäft eines Unternehmens gehört und für den entsprechende Ressourcen bereitgestellt werden sollten.

Der datengestützte Ansatz hat den entscheidenden Vorteil, objektiv und präzise Schwachstellen identifizieren zu können und berücksichtigt dabei auch die Individualität der Unternehmen. Darüber hinaus könnte dieser Index effizienter als bisherige Indizes sein. Es werden kontinuierlich große Datenmengen erhoben und ausgewertet, ohne dass dafür ein übermäßiger Einsatz von Personal erforderlich wäre.

Schwierigkeiten sieht das SPAICER-Konsortium nur in der oft noch eingeschränkten Verfügbarkeit von Daten. Um die Verfügbarkeit der Daten zu verbessern, ist es für Unternehmen ratsam, in die eigene IT-Infrastruktur zu investieren und ein einheitliches „Datenökosystem“ aufzubauen.

Wissenschaftliche Ansprechpartner:
Jan Sporkmann, Lehrstuhl für Logistikmanagement an der WHU: Jan.Sporkmann@whu.edu

Originalpublikation:
Öksüz, N.; Bouschery, S.; Schlappa, M.; Unterberg, M.; Sporkmann, J. (2021): Towards an Artificial Intelligence based Approach for Manufacturing Resilience, in: 22. VDI-Kongress AUTOMATION 2021 – Navigating towards resilient production. VDI Automatisierungskongress (AUTOMATION-2021), 29./30. Juni 2021.

Weitere Informationen:
https://www.whu.edu/de/forschung/whu-knowledge/wie-lieferketten-widerstandsfaehi… Lesen Sie den vollständigen Artikel auf WHU Knowledge

(nach oben)


3 Fragen an 3 Forschende: Wie der Klimawandel unsere Gewässer verändert

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Vor kurzem ging der Weltklimagipfel in Glasgow zu Ende und auch in Deutschland soll der Klimaschutz einen höheren Stellenwert bekommen. Prof. Rita Adrian, Prof. Sonja Jähnig und Prof. Mark Gessner vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) beleuchten, wie sich der Klimawandel auf die Binnengewässer und ihre Artenvielfalt auswirkt und ob der aktuelle politische Diskurs Anlass zur Hoffnung gibt.

Frau Adrian, Sie können als Mitautorin des Weltklimaberichts sowohl die wissenschaftlichen als auch die politischen Diskussionen unmittelbar mitverfolgen. Welche Rolle spielen Gewässer in den aktuellen Debatten?

Binnengewässer werden oftmals nicht explizit neben den Meeren und dem Land genannt und häufig dem Land zugeordnet. Das war auch bei der COP26-Konferenz so. Der Vielfalt der Ökosysteme kann natürlich nicht im Detail Rechnung getragen werden. Eine Erwähnung von Binnengewässern – als wesentliche Süßwasser-Ressource und sich im Zuge der globalen Erwärmung stark verändernde Ökosysteme – halte ich jedoch für sehr wichtig.

„Die Zwei-Grad-Marke haben wir für Seen schon überschritten und es ist dennoch nicht Thema im politischen Diskurs.“ – Rita Adrian

Es geht auch darum, die essenziellen Leistungen von Binnengewässern stärker in das Bewusstsein von Politiker*innen und der Gesellschaft zu rücken. Menschen sind unmittelbar von der Erwärmung der Gewässer betroffen. Gerade Seen können sich noch stärker erwärmen als die Luft. Dort haben wir im Oberflächenwasser das Zwei-Grad-Ziel im langjährigen Jahresmittel schon überschritten.

Die Erwärmung führt zu höheren Nährstoffbelastungen und vermehrten Algenblüten. Das kann sich auf die Trinkwasserversorgung auswirken, denn weltweit spielen Oberflächengewässer als Ressource eine entscheidende Rolle. Außerdem verlieren Seen ihren Freizeitwert, wenn sich die Wasserqualität weiter verschlechtert. Wenn Seen wärmer werden, werden sie weniger häufig vollständig durchmischt, der Sauerstoffgehalt sinkt. Das wird wiederum problematisch für Fische und andere Lebewesen. Aber es ist nicht nur eine Frage der Qualität sondern vor allem auch der Quantität: Ganze Regionen sind von Wasserverknappung und Rückgang der Grundwasserstände betroffen. Dies alles findet nicht nur im Mittelmeerraum, sondern vor unserer Haustüre statt. Ganz wesentlich ist: Aquatische Ökosysteme haben einen inhärenten Wert, den es zu schützen gilt.

Frau Jähnig, die Klimakrise überdeckt die Biodiversitätskrise. Inwiefern werden Ihrer Meinung nach die verschiedenen ökologischen Krisen nach wie vor isoliert voneinander betrachtet? Und wie wirkt das eine auf das andere?

In der Tat sind beide Krisen eng verknüpft – und dem wird nicht immer Rechnung getragen. Im Abschlussdokument der COP26-Konferenz wird die Verbindung nur einmal kurz erwähnt. Durch den Klimawandel gehen Lebensräume verloren, beispielsweise weil Gewässer temporär trockenfallen. Etwa die Hälfte aller Fließgewässer weltweit trocknen zeitweise aus. Und dieser Trend wird weiter zunehmen. Im Gewässer müssen Tiere, die nur eine geringe Temperaturspanne tolerieren, in andere Regionen ausweichen. Das ist nicht immer möglich. Die Verschlechterung der Wasserqualität, von der Frau Adrian spricht, spielt natürlich auch eine Rolle. Außerdem begünstigt der Klimawandel die Ausbreitung gebietsfremder Arten, die mit den heimischen Tieren konkurrieren oder ihnen durch Fraßdruck oder Krankheitsübertragung schaden.

„Klima- und Biodiversitätsschutz schließen sich nicht aus, im Gegenteil.“ – Sonja Jähnig
Ein Punkt, der mir sehr am Herzen liegt, ist die Auflösung des vermeintlichen Zielkonflikts zwischen Klima- und Biodiversitätsschutz bei der Wasserkraft. Die Wasserkraft ist zwar eine erneuerbare, aber keine umweltfreundliche Energiequelle. Gerade die sogenannte kleine Wasserkraft trägt nur zu einem verschwindend geringen Anteil zur Energiewende bei, verschlechtert den ökologischen Zustand der Gewässer und ihrer Lebewesen aber erheblich. Daher haben kürzlich 65 Fachwissenschaftler*innen aus 30 wissenschaftlichen Institutionen in einer gemeinsamen Stellungnahme dringend empfohlen, die Förderung ineffizienter Kleinwasserkraftwerke aus EEG- oder Steuermitteln zu beenden.

Klimaschutz und Biodiversitätsschutz gehen tatsächlich oft Hand in Hand. Wenn Flüssen zum Beispiel mehr Platz eingeräumt wird, trägt das maßgeblich zum Schutz vor Hochwasser bei und unterstützt gleichzeitig artenreiche und vielfältige Lebensräume. Dort können nämlich sogenannte Refugialräume wie Altarme, Pools, oder Wurzelunterstände entstehen, die eine Wiederbesiedlung mit Lebewesen nach Perioden mit stark schwankendem Wasserstand gewährleisten.

Die COP26-Rahmenentscheidung erkennt an, „dass die Auswirkungen des Klimawandels viel geringer sein werden bei einem Temperaturanstieg um 1,5 Grad verglichen mit zwei Grad“ und sagt zu, die „Bemühungen zur Begrenzung des Temperaturanstiegs auf 1,5 Grad fortzusetzen“. Herr Gessner, aus Sicht eines Gewässerforschers: Eine gute Entscheidung ? Oder werden wir selbst bei Erreichen dieses Ziels kritische Auswirkungen spüren? Welche Folgen könnten uns bei 1,5 oder 2 Grad Erwärmung erwarten?

Ja, das verstärkte Bekenntnis zur Begrenzung der Erwärmung ist grundsätzlich ein gutes Ergebnis. Es kommt aber jetzt darauf an, auch wirksame Maßnahmen zu ergreifen, damit dieses Ziel erreicht wird. Damit hat sich die Staatengemeinschaft immer noch schwer getan.

Für Gewässer können die Schwellenwerte von 1,5 oder 2 Grad allerdings nicht eins zu eins übertragen werden. Frau Adrian hat es schon gesagt: Viele Seen haben diese Marke sowieso schon gerissen. Für den Stechlinsee im Norden Brandenburgs beispielsweise haben wir seit Ende der sechziger Jahren eine Erwärmung des Oberflächenwassers von rund 2 Grad gemessen. Und unsere Langzeitdaten vom gut untersuchten Müggelsee in Berlin zeigen sogar eine Erhöhung der sommerlichen Temperaturen von 0.6 Grad pro Dekade zwischen 1978 und 2020.

Neben den langfristigen Temperaturtrends sind aber mindestens drei weitere Faktoren entscheidend. Da ist erstens das Mischungsregime. In Seen unserer Breiten wird der gesamte Wasserkörper normalerweise zweimal im Jahr vollständig durchmischt. Das geschieht im Frühling und im Herbst. Im Sommer und Winter hingegen bleiben die beiden Schichten scharf voneinander getrennt. In einigen größeren Seen bei uns, wie beispielsweise dem Stechlin, wird die Erwärmung dazu führen, dass im Winter keine Schichtung mehr auftritt. Das zeigen die Modelle unserer Seenphysiker. In der kühlen Jahreszeit werden diese Seen also durchgehend gemischt und bekommen dadurch einen grundlegend anderen Charakter. Eine Temperatuerhöhung von 1,5 bis 2 Grad im Winter macht hier einen großen Unterschied.

„Der jahreszeitliche Zyklus von Seenschichtung und Durchmischung verändert sich in unseren Breitengraden deutlich. Seen bekommen dadurch einen grundlegend anderen Charakter.“ – Mark Gessner

Daran gekoppelt sind Einflüsse auf den Chemismus und die Biologie. Nehmen Sie die Sauerstoffverhältnisse. Das ist der zweite wichtige Aspekt, den ich ansprechen wollte. In der warmen Jahreszeit verlängert sich die Schichtungsphase und das führt zu verstärkter Sauerstoffzehrung im Tiefenwasser. Bei vollständiger Aufzehrung des Sauerstoffs, wie wir sie im Stechlinsee jetzt unterhalb von 40 Metern Tiefe sehen, sind die Auswirkungen auf Fische und andere Organismen enorm und das gilt auch für die Nährstoffdynamik im See.

Zusätzlich zu solchen langjährigen Temperatur- und Sauerstofftrends dürfen wir außerdem extreme Wetterereignisse nicht vergessen. Für die Zukunft wird eine Zunahme der Häufigkeit und Intensität solcher Ereignisse. Dazu gehören Hitzewellen genauso wie Stürme. Das ist ein dritter wesentlicher Aspekt, den wir beachten müssen, wenn wir Vorhersagen über die Reaktion von Seen auf den Klimawandel machen wollen. Hitzewellen können Massenentwicklung potenziell giftiger Blaualgen auslösen, ebenso wie Fischsterben. Und auch Stürme können eine Ursache für solche Entwicklungen sein. Am Stechlinsee haben wir solche Beobachtungen dokumentiert und auch in einem großen Freilandversuch nachvollziehen können. Dabei haben wir gesehen, dass wahrscheinlich gerade vom Menschen wenig beeinflusste oder restaurierte Klarwasserseen von Sturmereignissen besonders betroffen sind.

Wissenschaftliche Ansprechpartner:
Kontakt:
Prof. Dr. Rita Adrian
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: adrian@igb-berlin.de

Prof. Dr. Sonja Jähnig
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: sonja.jaehnig@igb-berlin.de

Prof. Dr. Mark Gessner
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: gessner@igb-berlin.de

Weitere Informationen:
https://www.igb-berlin.de/news/wie-der-klimawandel-unsere-gewaesser-veraendert

(nach oben)


Studie der Uni Bonn: Fleischarme Kost hat viele Vorteile

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Was ist besser: den Fleischkonsum moderat zu reduzieren und mehr Obst, Gemüse und Vollkornprodukte zu essen, wie es die Deutsche Gesellschaft für Ernährung anrät? Es unseren südlichen Nachbarn nachzutun und öfter mal zu Fisch und Meeresfrüchten zu greifen? Oder gar komplett auf vegane Ernährung umzustellen? Eine neue Studie der Universität Bonn zeigt, dass die Antwort auf diese Fragen nicht so eindeutig ausfällt, wie man denken könnte – je nachdem, welche Auswirkungen man sich genau anschaut. Die Ergebnisse sind in der Zeitschrift Science of The Total Environment erschienen.

950 Kilogramm Lebensmittel und Getränke nehmen jede Bürgerin und jeder Bürger der EU im Jahr zu sich – ein kleiner Berg, so schwer wie ein Kleinwagen. Weltweit ist die Ernährung für ein Viertel der menschlichen Treibhausgas-Emissionen verantwortlich. Ein großer Teil davon geht auf das Konto der Nutztierhaltung: Tiere wandeln nur einen kleinen Teil der verfütterten Kalorien in Fleisch um. Wiederkäuer erzeugen zudem Methan, das die Erderwärmung weiter beschleunigt.

Was wir essen, hat darüber hinaus auch Folgen für unsere Gesundheit und das Tierwohl. Will man Ernährungsformen miteinander vergleichen, sollte man auch diese Aspekte in den Blick nehmen. Die Fachwelt bezeichnet die optimale Gesundheit von Mensch, Tier und Umwelt auch als „One Health“-Perspektive. „Studien, die diesen Blickwinkel auf Ernährungsfragen anwenden, sind aber noch rar“, erklärt Juliana Paris vom Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn.

Aktuelle Ernährungsweise mit drei Alternativen verglichen
Paris hat zusammen mit Kolleginnen und Kollegen eine Analyse durchgeführt, die diese Forschungslücke ein Stück weit schließen möchte. „Dazu haben wir uns exemplarisch angesehen, welche Produkte bei Menschen in Nordrhein-Westfalen auf dem Speiseplan stehen“, erklärt sie. „Diese Referenzkost haben wir dann mit drei verschiedenen Szenarien verglichen: einer Umstellung nach den Empfehlungen der Deutschen Gesellschaft für Ernährung (DGE), dem Wechsel zu einer Mittelmeer-Diät mit mehr Fisch und Meeresfrüchten sowie der Änderung hin zu einer veganen Ernährung.“

In jedem dieser drei Szenarien wurden die Lebensmittel so gewählt, dass sie sich so wenig wie möglich von der Referenzernährung unterschieden. „Das heißt beispielsweise, dass wir in der Mittelmeer-Variante den Anteil von Fisch und Meeresfrüchten, Gemüse und Getreideprodukten erhöht haben“, sagt Paris. Zudem sollte die Produkt-Auswahl insgesamt dieselben Nährstoffe in ähnlichen Mengen enthalten wie bislang. Die Forschenden erhielten so für jedes Szenario einen „Lebensmittel-Korb“, den sie dann weiter analysierten.

„Dazu haben wir uns auf verschiedene Datenbanken gestützt“, sagt Dr. Neus Escobar vom Institut für Angewandte Systemanalyse in Österreich, die die Arbeit betreut hat. „Mit ihrer Hilfe konnten wir zum Beispiel den Effekt jeder Ernährung auf bestimmte Umweltaspekte abschätzen – etwa die bei ihrer Produktion entstehende Menge an Klimagasen oder den Wasserverbrauch. Ähnlich gingen wir vor, um die Auswirkung der jeweiligen Ernährung auf die Gesundheit zu bewerten.“ So ist beispielsweise von rotem Fleisch bekannt, dass es das Risiko bestimmter Krebsarten und von Herz-Kreislauf-Erkrankungen erhöht.

Die Konsequenzen für das Tierwohl schätzten die Forschenden anhand mehrerer Indikatoren. Darin floss unter anderem ein, wie viele Tiere durch den Konsum der Lebensmittel ihr Leben verlieren und unter welchen Bedingungen sie gehalten werden. „Wir haben aber auch anhand der Zahl von Neuronen oder der Größe des Gehirns im Verhältnis zum Körper abgeschätzt, inwiefern die jeweiligen Tiere unter ihrer Nutzung tatsächlich leiden“, erklärt Juliana Paris.

Fisch statt Steak hilft der Umwelt, doch schadet dem Tierwohl
Jede der drei Ernährungsformen wäre aus One-Health-Perspektive nachhaltig von Vorteil. Aber nicht unter jedem Aspekt: So schnitt die vegane Ernährung in vielen Bereichen am besten ab. Allerdings ist die Erzeugung veganer Lebensmittel mit einem erhöhten Wasserverbrauch verbunden. „Außerdem müssen Veganerinnen und Veganer bestimmte Nährstoffe separat zuführen, etwa Vitamin B12, Vitamin D oder auch Kalzium“, sagt Paris.

Die mediterrane Diät (obwohl gesund) hat aufgrund des hohen Anteils an Nüssen und Gemüse ebenfalls einen erhöhten Wasserbedarf zur Folge. Wird – wie in der Studie angenommen – das konsumierte Fleisch komplett durch Fisch ersetzt, sind zudem ihre Effekte auf das Tierwohl erstaunlich negativ: Da Fische und Meeresfrüchte deutlich kleiner sind als etwa Kühe oder Schweine, leiden unter dieser Ernährungsform erheblich mehr Tiere. Negativ wirkt sich zudem auch der vermehrte Konsum von Honig aus, der eine intensive Bewirtschaftung von Bienenvölkern verlangt. „Es wäre also von Vorteil, den Proteinbedarf insgesamt weniger aus tierischen Quellen zu decken“, betont Neus Escobar. „Zudem ernähren sich viele Menschen heute deutlich zu reichhaltig. Würden sie ihre Nahrungsmenge auf das reduzieren, was sie wirklich brauchen, hätte das möglicherweise zusätzliche positive Effekte.“

Die Empfehlungen der DGE gehen laut Studie zwar in die richtige Richtung. Mit Blick auf die menschliche Gesundheit sind die beiden anderen Optionen jedoch besser. Dennoch zeigen die Daten auch hier: Wer öfter Mal auf Fleisch verzichtet und sich stattdessen Vollkornprodukte, Gemüse und Obst auf den Teller lädt, der tut nicht nur sich etwas Gutes, sondern auch den Tieren und der Umwelt.

Förderung:
Die Studie wurde durch das Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen gefördert.

Wissenschaftliche Ansprechpartner:
Juliana Minetto Gellert Paris
Junior Researcher – „One Health and Urban Transformations”
Zentrum für Entwicklungsforschung (ZEF)
Universität Bonn
Tel.: +49 159/05133950
E-Mail: jparismi@uni-bonn.de
www.onehealth-survey.de

Originalpublikation:
Juliana Minetto Gellert Paris, Timo Falkenberg, Ute Nöthlings, Christine Heinzel, Christian Borgemeister & Neus Escobar: Changing dietary patterns is necessary to improve the sustainability of Western diets from a One Health perspective. Science of the Total Environment. https://doi.org/10.1016/j.scitotenv.2021.151437

(nach oben)


Corona-Drittimpfung unerlässlich bei fehlender Immunantwort

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Studie zeigt Wirkung der Boosterimpfung für Menschen ohne Immunantwort

In einer neuen Studie des Deutschen Zentrums Immuntherapie unter Leitung der Medizinischen Klinik 3 – Rheumatologie und Immunologie (Direktor: Prof. Dr. med. Georg Schett) am Universitätsklinikum Erlangen der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) wurden Patientinnen und Patienten, die auf zwei Impfungen gegen das neue Coronavirus keine Immunantwort entwickelten und damit keinen Schutz vor einer Infektion hatten, einer dritten Impfung unterzogen. Die Ergebnisse zeigen, dass diese Personen – medizinisch auch „Impfversager/-in“ genannt – nach der Drittimpfung in den allermeisten Fällen einen sehr guten Impfschutz aufbauen.*

„Wir hatten bereits in einer früheren Studie (https://pubmed.ncbi.nlm.nih.gov/33958324/) zeigen können, dass Patientinnen und Patienten mit Autoimmunerkrankungen wesentlich häufiger als gesunde Menschen keinen adäquaten Immunschutz nach zweimaliger Corona-Impfung aufweisen“, sagt Studienleiter Dr. David Simon von der Medizinischen Klinik 3. In diesen Untersuchungen sprach einer von zehn Patient/-innen mit einer Autoimmunerkrankung nicht ausreichend auf die Corona-Impfung an, während bei Gesunden nur einer von hundert keinen ausreichenden Immunschutz nach zweimaliger Impfung aufbaute. Damit sind Patient/innen mit Autoimmunerkrankungen besonders anfällig für Impfdurchbrüche.

„Durch die konsequente Durchführung von Tests, die die Antiköperantwort nach der Impfung untersuchen, konnten bereits im Frühjahr all jene Patientinnen und Patienten aus der Studie identifiziert werden, die keine entsprechende Immunantwort auf die Corona-Impfung entwickelten“ erklärt Dr. Koray Tascilar von der Medizinischen Klinik 3. Dabei handelte sich in erster Linie um Menschen mit Autoimmunerkrankungen wie Arthritis. Die Betroffenen wurden über diese Situation aufgeklärt und bereits im Sommer 2021, als eine der ersten Patientinnen und Patienten einer Drittimpfung unterzogen. Auf die Drittimpfung bildeten die allermeisten dieser Patient/-innen mit primären Impfversagen eine robuste Immunantwort gegen das neue Coronavirus.

Die Daten der Studie belegen die Bedeutung der Drittimpfung. Der Status „vollimmunisiert“ nach zwei Impfungen gilt nicht für alle Menschen nach zwei Impfdosen. Gerade bei Patientinnen und Patienten mit Autoimmunerkrankungen ist eine fehlende Immunantwort nach zwei Impfdosen gar nicht so selten, sodass bei diesem Personenkreis eine Überprüfung des Immunstatus nach der Impfung wichtig erscheint, um frühzeitig Impfversager/-innen zu identifizieren und Impfdurchbrüche zu verhindern. „Geimpft und erkrankt“ ist somit möglich, wobei es sowohl primäre Impfversager/-innen gibt als auch solche, die ihre Immunantwort nach einiger Zeit wieder verlieren. Autoimmunerkrankungen begünstigen beide Situationen. Diese Untersuchungen legen daher nahe, dass gerade Risikogruppen, wie Patientinnen und Patienten mit Autoimmunerkrankungen, von einer raschen Drittimpfung profitieren.

Die Untersuchungen wurden im Rahmen des Deutschen Zentrums Immuntherapie (DZI) durchgeführt und von der Deutschen Forschungsgemeinschaft über den Sonderforschungsbereich 1181 und die Forschergruppe 2886 unterstützt.

* https://pubmed.ncbi.nlm.nih.gov/34819271/

Kontakt für Medien:
PD Dr. David Simon
Lehrstuhl für Innere Medizin III
Tel.: 09131/85-39109
david.simon@uk-erlangen.deWissenschaftliche Ansprechpartner:
PD Dr. David Simon
Lehrstuhl für Innere Medizin III
Tel.: 09131/85-39109
david.simon@uk-erlangen.de

Originalpublikation:
https://pubmed.ncbi.nlm.nih.gov/34819271/

Weitere Informationen:
https://pubmed.ncbi.nlm.nih.gov/33958324/ Eine Vorgängerstudie zeigte, dass Patientinnen und Patienten mit Autoimmunerkrankungen wesentlich häufiger als gesunde Menschen keinen adäquaten Immunschutz nach zweimaliger Corona-Impfung aufweisen.

(nach oben)


Wie man im Grundwasser Nitratkonzentrationen senken kann

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Deutschlands Grundwasser enthält zu viel Nitrat, das auf lange Sicht auch das Trinkwasser gefährdet. Natürlich vorkommende Bakterien können dessen Abbau beschleunigen, solange sie dafür ausreichend organischen Kohlenstoff zur Verfügung haben. Der kann ebenfalls natürlich im Untergrund vorkommen, ist allerdings begrenzt und teilweise schon knapp. Durch verschiedene Substanzen könnte dieses Abbauvermögen aufrechterhalten werden. Ihre Wirkung bei unterschiedlichen Temperaturen hat Felix Ortmeyer untersucht. Sein Ergebnis: Bei der typischen Grundwassertemperatur von etwa zehn Grad Celsius wirkt Ethanol als Kohlenstofflieferant am besten.

Gemeinsam mit anderen Forschenden hat der Geowissenschaftler der Ruhr-Universität Bochum (RUB) seine Arbeit am 8. November 2021 in der Zeitschrift Water Resources Research veröffentlicht.

Eingreifen ist dringend geboten
Auslöser der zu hohen Nitrat-Werte im Grundwasser sind häufig stickstoffhaltige Düngemittel aus der Landwirtschaft. Wegen Nichteinhaltung der Nitrat-Direktive der EU wurden Deutschland und weitere EU-Mitgliedsstaaten bereits vor dem Europäischen Gerichtshof verklagt. „Es ist also dringend geboten einzugreifen, um das Grundwasser zu schützen“, erklärt Felix Ortmeyer, der am Lehrstuhl Angewandte Geologie/Hydrogeologie der RUB arbeitet. Eine Möglichkeit, den Nitratabbau zu verbessern, ist, dem Grundwasser kohlenstoffhaltige Substanzen hinzuzufügen.

In seiner Studie hat er die Wirkung verschiedener Zusätze untersucht. Dafür baute er das Grundwassersystem im Labormaßstab nach. Sedimentgefüllte Säulen, welche natürliche Mikroorganismen enthalten, wurden von nitrathaltigem Wasser durchströmt. Bei Raumtemperatur und bei der hierzulande typischen Grundwassertemperatur von zehn Grad Celsius fügte Ortmeyer vier Substanzen hinzu und beobachtete, was passiert: Ethanol, Acetat, Ascorbinsäure und Glukose dienten als Kohlenstofflieferanten. Neben dem Nitratabbau untersuchte er in Kooperation mit der Abteilung Evolution der Pflanzen und Pilze der RUB auch die Mikrobiologie. Er konnte beobachten, dass die Zusammensetzung der mikrobiellen Gemeinschaft von der Temperatur und der Zugabe des organischen Kohlenstoffes beeinflusst wurde.

Temperatur beeinflusst die Wahl der Substanz
„Bisherige Studien hatten ergeben, dass der Nitratabbau umso besser funktioniert, je höher die Temperatur ist“, erläutert Felix Ortmeyer. „Bei Ethanol stimmt das aber nicht: Gerade bei kälteren Temperaturen, wie sie für unser Grundwasser typisch sind, erfolgte der Abbau mit Ethanol am besten.“ Bei Raumtemperatur kam Glukose am besten weg.

„Die Grundwassertemperatur ist also ein wichtiger Faktor bei der Auswahl der Substanz, die den Kohlenstoff für den Nitratabbau liefern soll“, fasst Ortmeyer zusammen. „Diese Erkenntnis ist besonders bedeutend, weil durch den Klimawandel auch mit einem Anstieg der Grundwassertemperatur zu rechnen ist.“

Wissenschaftliche Ansprechpartner:
Felix Ortmeyer
Lehrstuhl Angewandte Geologie / Hydrogeologie
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel. +49 234 32 27455
E-Mail: felix.ortmeyer@rub.de

Originalpublikation:
Felix Ortmeyer, Dominik Begerow, Marco Alexandre Guerreiro, Stefan Wohnlich, Andre Banning: Comparison of denitrification induced by various organic substances – Reaction rates, microbiology, and temperature effect, in: Water Resources Rsearch, 2021, DOI: 10.1029/2021WR029793, https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2021WR029793

(nach oben)


Mikroplastikabrieb von Abwasserrohren aus Kunststoff

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Das Kanalnetz in Deutschland erstreckt sich im öffentlichen Bereich über eine Länge von 594 000 Kilometern. Im Privatbereich kommt die anderthalb- bis zweifache Strecke dazu. Fraunhofer UMSICHT hat im Auftrag der Fachvereinigung Betonrohre und Stahlbetonrohre e.V. abgeschätzt, welche Menge an Mikroplastikpartikeln durch den Verschleiß von Abwasserrohren aus Kunststoff in die Umwelt gelangen. Die Überlegungen zeigen: Die freigesetzte Abriebmenge liegt in ähnlicher Größenordnung wie die von Rasentrimmern.

Kunststoffe sind in unserer Gesellschaft allgegenwärtig. Auch der Anteil an Kunststoffrohren im Abwassersystem steigt seit Jahren. Mittlerweile bestehen knapp 18 Prozent des öffentlichen Abwassernetzes aus Kunststoff1 – das entspricht einer Strecke von 106 920 Kilometern unter der Erde. Sie besitzen eine glatte Oberfläche und hohe Elastizität.

Dennoch geben Kunststoffrohre Mikroplastikpartikel an die Umwelt ab. »In den Kanälen herrschen sehr aggressive Bedingungen durch Feuchtigkeit, Strömung und Abrasivstoffe«, schildert Jürgen Bertling, stellvertretender Abteilungsleiter Nachhaltigkeits- und Ressourcenmanagement beim UMSICHT, »Durch den Verschleiß setzen die Rohre schließlich Mikroplastikpartikel frei.« Die partikulären, schleißenden Bestandteile stammen überwiegend aus dem Niederschlagswasser und finden sich deshalb in Regen- und Mischkanälen. Zwar geht nicht der gesamte Abrieb in die Umwelt, da Abwasserbehandlungsanlagen einen Teil zurückhalten. Allerdings wird ein Teil der zurückgehaltenen Partikel mit dem Klärschlamm wieder auf Felder ausgebracht. Reine Regenwasserkanäle führen dagegen meist ungeklärt oder nur durch einfache Absetzbecken in die Vorfluter.

46 Tonnen Mikroplastik pro Jahr im öffentlichen Bereich
Die Forschenden von Fraunhofer UMSICHT konnten in einer ersten Studie im öffentlichen Kanalnetz einen Abrieb von 120 Tonnen Mikroplastik pro Jahr abschätzen. Davon hält die Abwasserbehandlung rund 62 Prozent zurück. Die freigesetzte Abriebmenge beträgt daher 46 Tonnen pro Jahr. Im privaten Bereich gestaltet sich die Abschätzung durch die wenigen Daten schwieriger. Das Team hat angenommen, dass der Durchmesser der Rohre kleiner, aber der Kunststoffanteil demgegenüber hoch ist. Der abgeschätzte Abrieb von rund 500 Tonnen pro Jahr im Abwassernetz auf privaten Grundstücken reduziert sich durch die Abwasserbehandlung auf ca. 190 Tonnen pro Jahr.

Kunststoffrohre werden während des Einbaus häufig vor Ort gekürzt und neu gefast. In der Regel wird dies ohne besondere Vorkehrungen durchgeführt, und die Späne verbleiben im Rohr oder zum größten Teil im umgebenden Erdreich. Die Emissionen durch Schnittverluste beim Verlegen schätzen die Forschenden aber auf unter 10 Tonnen pro Jahr und damit vergleichsweise gering ein.

Mikroplastikemissionen von Kunststoffrohren eher gering
Die Ergebnisse der Abriebmengen liegen somit weit unter den Abriebmengen, die zum Beispiel durch Pellets entstehen (14924 t/a) entstehen, aber in vergleichbarer Größenordnung wie Rasentrimmer (123 t/a)3. Die Abschätzungen zeigen, dass zurzeit die Mengen an Kunststoffabrieb im Vergleich zur Gesamtmenge der Mikroplastikemissionen eher gering sind. Die emittierten Polymere PE und PVC gelten allerdings als besonders schwer abbaubar.

Von Parameterkombinationen zur wahrscheinlichen Abriebmenge
Um die jährlichen Abriebmengen erstmalig abschätzen und ggf. einen Handlungsbedarf erkennen zu können, haben die Forschenden in einem ersten Schritt zu Messverfahren und Abschätzung des Abriebs recherchiert. Daraufhin erfolgte die Abschätzung beruhend auf der Verteilung von Längen, Durchmessern und der Abriebtiefen über die Lebensdauer, die veröffentlichten Literaturwerten entnommen wurden. Die wenigen verfügbaren Daten dienten dem Team für eine erste Einschätzung. Allerdings hinterfragen sie die Vergleichbarkeit der verwendeten Ergebnisse der Darmstädter Rinne bei verschiedenen Werkstoffen in Hinblick auf Laborversuche und Lebensdauer.

»Da wir die Parameter nur sehr unsicher bestimmen können, haben wir für jeden Parameter ein gewisses Intervall geschätzt«, erklärt Jan Blömer, Abteilung Nachhaltigkeit und Partizipation. »Den Abrieb berechnen wir jeweils für 1000 Parameterkombinationen. Daraus können wir dann einen wahrscheinlichen Abrieb mit einer gewissen Schwankungsbreite bestimmen.« Der Abrieb pro Jahr ergibt sich so aus der Kanalnetzlänge multipliziert mit dem Anteil der Kunststoffrohre, der Verschleißbreite und der Verschleißtiefe geteilt durch die Lebensdauer.

Mikroplastik in der Umwelt
Große Mengen von Kunststoffen gelangen jedes Jahr in die Umwelt. 2 Fraunhofer UMSICHT arbeitet seit 2015 daran, den Erkenntnisstand rund um die Thematik Kunststoffemissionen zu verbessern. Das Forschungsteam der Konsortialstudie Mikroplastik konnte im Juni 2018 insgesamt ca. 70 Quellen für Mikroplastikemissionen identifizieren. 3 Die (primären) Mikroplastikemissionen in Deutschland haben sie auf 330 000 Tonnen pro Jahr geschätzt. Aktuell versuchen die Wissenschaftler*innen, einzelne Quellen genauer zu bestimmen und auch die Transferpfade in die Umwelt aufzuschlüsseln.

[1] Berger et al. (2020)
[2] Geyer, Jambeck und Law (2017)
[3] Bertling, Hamann und Bertling (2018)

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/forschung-fuer-den-markt/mikroplastik.html (Weitere Informationen zu Mikroplastik)
https://www.umsicht.fraunhofer.de/de/forschung-fuer-den-markt/kunststoffe-in-der… (Weitere Informationen zu Kunststoffen in der Umwelt)
https://www.umsicht.fraunhofer.de/de/kompetenzen/nachhaltigkeit-partizipation.ht… (Abteilung Nachhaltigkeit und Partizipation)

(nach oben)


Den Schweregrad von COVID-19 besser einschätzen

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Biomediziner der LMU finden im Blut von COVID-19-Patienten einen neuen Marker. Er liefert Einblicke in das Krankheitsgeschehen und könnte zu besseren Diagnosen führen.

Infektionen mit SARS-CoV-2 laufen bei vielen Patienten symptomlos ab oder verursachen kaum Beschwerden. Sie können aber auch zu dem Krankheitsbild COVID-19 mit Veränderungen der Blutgerinnung und mit Entzündungen führen. Darüber hinaus beobachten Ärztinnen und Ärzte bei COVID-19 Störungen des Immunsystems mit niedrigen Lymphozyten-Titern im Blut.

„Wir wussten bisher, dass ein Zusammenhang zwischen Komponenten der Blutgerinnung und der Immunreaktion besteht“, sagt Prof. Dr. Thomas Brocker, der am Biomedizinischen Centrum der LMU forscht. „Die Gründe und die Mechanismen waren aber weitgehend unbekannt“, so der Wissenschaftler.

Im Fachmagazin Journal of Extracellular Vesicles berichtet Brocker jetzt zusammen mit Kolleginnen und Kollegen über die Rolle von Phosphatidylserin bei COVID-19: einem Molekül, das normalerweise in Zellwänden vorkommt. Es könnte bei pathophysiologischen Mechanismen rund um das Immunsystem und die Blutgerinnung bedeutsam sein, eignet sich perspektivisch aber auch als neuer Biomarker, um per Bluttest die Schwere der Erkrankung zu prognostizieren.

Studie mit Blutproben aus dem COVID-19-Register der LMU
Brockers Labor hatte bereits früher einen Test entwickelt, der Phosphatidylserin in oder auf Blutzellen erkennt. Im Rahmen der Studie untersuchten die Forschenden zwischen April 2020 und Februar 2021 Blutproben von 54 Patienten aus dem COVID-19-Register der LMU (CORKUM). Alle Erkrankten hatten COVID-19 in unterschiedlichen Schweregraden. Hinzu kamen Proben von 35 gesunden und 12 genesenen Spendern. Das Augenmerk der Studie lag auf mononukleären Zellen des peripheren Blutes wie Lymphozyten und Monozyten.

Alle Immunzellen wurden mit dem Phosphatidylserin-Test analysiert und per Durchflusszytometrie, einem physikalischen Verfahren, aufgetrennt. Das Gerät fertigte gleichzeitig mikroskopische Aufnahmen jeder Zelle an. Anhand der Bilddateien konnten die Forschenden erkennen, ob – beziehungsweise wo – sich Phosphatidylserin befand. Dabei zeigte sich, dass die Immunzellen das Signal nicht im Inneren trugen. „Lymphozyten aus dem Blut von COVID-19-Patienten waren mit Bruchstücken von Blutplättchen oberflächlich beladen, was wir anhand des Signals nachweisen konnten“, sagt Brocker. Blutplättchen wiederum beschleunigen die Blutgerinnung. „Damit könnte Phosphatidylserin als Signalgeber für fehlgeleitete entzündliche Prozesse oder Störungen der Blutgerinnung bei COVID-19 dienen, sprich typische Veränderungen bei COVID-19 triggern“, vermutet der LMU-Wissenschaftler.

Ein neuer Marker für COVID-19
Bei den Messungen zeigte sich auch eine Assoziation zwischen dem Schweregrad von COVID-19 und Phosphatidylserin. Erhöhte Werte während der aktiven Phase von COVID-19 korrelierten stark mit dem Schweregrad der Erkrankung und könnten perspektivisch zu besseren Diagnosen führen. „Als Marker übertraf Phosphatidylserin etablierte Labormarker für Entzündungsvorgänge im Körper, für Leukozyten und für Gerinnungsfaktoren, die momentan zur klinischen Bewertung von COVID-19 herangezogen werden“, so Brocker. Zur Einstufung werden momentan diverse Laborparameter herangezogen. Sie sind Grundlage der WHO-Skala von null Punkten (gesund) bis hin zu acht Punkten (Tod durch COVID-19).

Noch ist Brockers System für Forschungslabore ausgelegt; die wenigsten Kliniken haben Durchflusszytometer mit Möglichkeiten der Bildgebung. Deshalb wollen die LMU-Forscher jetzt herausfinden, ob sich normale Durchflusszytometer, wie sie viele Krankenhäuser im Labor haben, ebenfalls zur Messung eignen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thomas Brocker
Biomedizinisches Centrum
Institute for Immunology
Tel: +49 89 218075674
Assistant: Marion Dorfmeister
Tel: +49 89 218075669
sekretariat.immunologie@med.uni-muenchen.de
https://www.immunologie.med.uni-muenchen.de/research/ag_brocker/index.html

Originalpublikation:
Lisa Rausch, Konstantin Lutz, Martina Schifferer, Elena Winheim, Rudi Gruber, Elina F. Oesterhaus, Linus Rinke, Johannes C. Hellmuth, Clemens Scherer, Maximilian Muenchhoff, Christopher Mandel, Michael Bergwelt-Baildon, Mikael Simons, Tobias Straub, Anne B. Krug,
Jan Kranich, Thomas Brocker (2021). Binding of phosphatidylserine-positive microparticles by PBMCs classifies disease severity in COVID-19 patients. Journal of Extracellular Vesicles

(nach oben)


Arbeit und Wohlfahrt im Globalen Süden

Sandra Sieraad Medien und News
Universität Bielefeld
Auch für Wanderarbeiter*innen in den Fabriken des Globalen Südens – in Ländern wie China, Indien, Vietnam, Brasilien oder Südafrika – gibt es Sozialversicherungen und andere Schutzprogramme. Der Zusammenhang zwischen Arbeit und Wohlfahrt samt der Frage, wie weit solche Maßnahmen die Menschen wirklich schützen und wie sie ihre Arbeitswelt verändern, ist Thema der internationalen Onlinetagung „Neukonfiguration von Arbeit und Wohlfahrt in aufstrebenden Volkswirtschaften des Globalen Südens“ („Reconfiguring Labour and Welfare in Emerging Economies of the Global South“).

Die Konferenz wird am 7. und 8. Dezember vom Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld ausgerichtet.

„In den letzten zwanzig Jahren haben viele Länder des Globalen Südens universelle Schutzprogramme für Arbeiter*innen eingeführt, etwa Geldtransfers, Grundrente und Krankenversicherung“, berichtet Dr. Minh T.N. Nguyen, Professorin für Sozialanthropologie an der Universität Bielefeld. Sie leitet die Tagung zusammen mit Dr. Jake Lin, Ngoc Minh Luong und Yueran Tian von der Fakultät für Soziologie der Universität Bielefeld.

Die Schutzprogramme seien vor allem als Reaktion auf Unruhen und ökonomische Krisen eingeführt worden, sagt Minh Nguyen. Zwar haben die Programme einen universalen Anspruch. Doch wie wirksam die Programme tatsächlich sind, Ungleichheit zu vermindern und Bedürftige – insbesondere Wanderarbeiter*innen – zu schützen, das sei bislang unklar, so die Forscherin. Sie beobachtet, dass die Einführung von Versicherungen mit der Privatisierung von Wohlfahrt einhergeht. Für die Arbeiter*innen bedeute dies, sich eigenverantwortlich in einem Dschungel von mehr oder weniger gut zusammenpassenden Angeboten zurechtfinden zu müssen.

Um diese Entwicklungen besser zu verstehen, hat Nguyen fünfzig Kolleg*innen aus Sozialanthropologie, Soziologie, und Politikwissenschaft zu der Onlinetagung eingeladen. Die Teilnehmenden kommen aus 15 Ländern – unter anderem aus Vietnam, Brasilien und Südafrika. Auf der Tagung befassen sie sich damit, wie sich die Wohlfahrtsmaßnahmen in den Staaten des Globalen Südens in den vergangenen Jahren verändert haben und wie sie die Arbeitswelt verändern. Außerdem setzen sie sich damit auseinander, welche moralischen und politischen Triebkräfte hinter diesen Veränderungen stehen und wie diese Veränderungen im weltweiten Kontext zu verstehen sind.

Auf dem Programm steht eine Keynote von Professor Biao Xiang PhD, Direktor am Max-Planck-Institut für ethnologische Forschung in Halle an der Saale. In den Panels der Tagung geht es um Fabrikarbeit, informelle Arbeit, transnationale Arbeitsmigration, Finanzwesen und die Auswirkungen der Coronapandemie. Die Tagung steht im Kontext des Forschungsprojekts „WelfareStruggles“, das vom European Research Council unterstützt wird.

Das Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld ist eine unabhängige, thematisch ungebundene Forschungseinrichtung und steht Wissenschaftler*innen aller Länder und aller Disziplinen offen.

Wissenschaftliche Ansprechpartner:
Prof’in Dr. Minh T. N. Nguyen, Universität Bielefeld
Fakultät für Soziologie
E-Mail: minh.nguyen@uni-bielefeld.de

Weitere Informationen:
https://www.uni-bielefeld.de/(en)/ZiF/AG/2021/12-07-Nguyen.html Website der Tagung
https://cordis.europa.eu/project/id/803614/de Steckbrief zum Forschungsprojekt „WelfareStruggles“
https://aktuell.uni-bielefeld.de/2020/04/09/harte-arbeit-und-ostwestfaelische-be… Professorin Dr. Minh Nguyen im Portrait (Aktuell-Blog-Beitrag vom 04.02.2020)

(nach oben)


Personalisierte Medizin – Funktionierende, künstliche Leberzellen aus Hautgewebe

Marcel Wyler Wissenschaftskommunikation
Universitätsspital Bern
Einer Forschungsgruppe aus dem Inselspital, Universitätsspital Bern, dem Universitäts-Kinderspital Zürich – Eleonorenstiftung und der University of California San Francisco (UCSF) ist ein wichtiger Schritt zum Bau von personalisierten, künstlichen Leberzellen gelungen. Erstmals konnten technisch hergestellte Stammzellen aus Hautgewebe durch Zufügen eines Transportproteins dazu gebracht werden, sich wie normale Leberzellen zu verhalten. An diesen Zellen können nun u.a. Medikamente getestet werden.

Der Harnstoffzyklus ist für die Entfernung stickstoffhaltiger Abbauprodukte aus dem Organismus verantwortlich. Fehlt in diesem Zyklus das Enzym OTC, kommt es zu Vergiftungen durch eine Anreicherung von Ammoniak. Ein OTC-Defekt ist die häufigste vererbte Krankheit im Harnstoffzyklus. Er ist mit Medikamenten bisher nicht heilbar.

Das OTC-Gen liegt auf dem Geschlechtschromosom (X-Chromosom). Das bedeutet, dass die Krankheit bei weiblichen Betroffenen in der Regel schwächer ausgeprägt ist. Bei männlichen Patienten, die ein X- und ein Y-Chromosom haben, wirkt sich ein Defekt des OTC-Gens dramatisch aus: Bei neugeborenen Jungen endet die Ammoniakvergiftung durch OTC-Mangel oft tödlich. Das Forschungsteam suchte nach Wegen, Medikamente gegen den OTC-Defekt im Labor zu testen.

Ein erstes Modell gebaut
Zuerst stellte das Forschungsteam in einem aufwendigen Verfahren künstliche Leberzellen aus dem Hautgewebe von Patientinnen und Patienten her. Das funktionierte so: Zunächst wurde Patientinnen und Patienten und einer Kontrollgruppe (gesunde Personen) eine sehr kleine Gewebeprobe der Haut entnommen. Die Proben wurden in einem technologischen Verfahren so verändert, dass sie sich wie sogenannte Stammzellen verhielten. Dieses Herstellungsverfahren wurde von Shin’Ya Yamanaka entwickelt, wofür er 2012 mit dem Medizin-Nobelpreis ausgezeichnet wurde. «Mittels induzierter Stammzellentechnologie ist es uns gelungen, künstliche Leberzellen herzustellen, die sich weitgehend wie Leberzellen von Patientinnen und Patienten verhalten» erläutert Dr. med. Alexander Lämmle, Oberarzt an der Kinderklinik und am Universitätsinstitut für Klinische Chemie am Inselspital. «Wir haben jedoch beobachtet, dass die künstlichen Leberzellen deutlich weniger Harnstoff ausscheiden als echte, gesunde Leberzellen und zwar unabhängig davon, ob sie von gesunden Kontrollen oder Harnstoffzyklus-Patientinnen und -Patienten stammen.» Den Forschenden gelang es, den Grund für dieses Verhalten zu ermitteln. Die technologisch hergestellten Stammzellen zeichneten sich durch einen vollständigen Mangel an Aquaporin 9, einem Transport-Eiweiss in der Zellmembran, aus. Grund für dieses Fehlen ist der noch unreife Charakter der künstlichen Leberzellen.

Aquaporin 9: der Schlüssel zur funktionierenden, künstlichen Leberzelle
Aquaporine organisieren den Transport von Wasser und bestimmter Stoffe durch die Zellmembran. Aquaporin 9 ist zuständig für den Transport von Harnstoff. Die Forscher haben in einem nächsten Schritt ein Verfahren entwickelt, bei dem die Bildung von Aquaporin 9 in den Stammzellen forciert wird. Dadurch ändern die technologisch hergestellten Leberzellen ihr Verhalten. Sie bauen Ammoniak zu Harnstoff ab und scheiden den Harnstoff aus – genauso, wie es gesunde Zellen tun. Damit ist die Grundlage für ein funktionierendes Testverfahren mit künstlichen Leberzellen geschaffen.

Einsatz der künstlichen Zellen: Medikamente testen
Bei einem OTC-Defekt funktionieren die komplexen OTC-Eiweissgebilde nicht richtig. Sie brauchen – wie die meisten grossen Eiweisse – Gehilfen oder Aufpasser, sogenannte Chaperone, damit sie richtig zusammengebaut werden und funktionieren können. Prof. Dr. med. Johannes Häberle vom Universitäts-Kinderspital Zürich – Eleonorenstiftung erläutert: «Die Chaperone sorgen dafür, dass die Faltung der Enzymmoleküle korrekt erfolgt und dass das Enzym korrekt für seinen Einsatz vorbereitet wird. Das neue Testmodell wird nun eingesetzt, um OTC-Chaperone zu testen und auf diese Weise mehr über den OTC-Defekt und über mögliche Therapien herauszufinden.»

Wissenschaftliche Ansprechpartner:
Dr. med. Alexander Laemmle, Universitätsklinik für Kinderheilkunde, Inselspital, Universitätsspital Bern und Universitätsinstitut für Klinische Chemie, Universität Bern.
Prof. Dr. med. Johannes Häberle, Leitender Arzt, Leiter Stoffwechsellabor, Universitäts-Kinderspital Zürich – Eleonorenstiftung und Zurich Center for Integrative Human Physiology (ZIHP)
Prof. Holger Willenbring, M.D., Ph.D., Professor of Surgery, Eli and Edythe Broad Center of Regeneration Medicine and Stem Cell Research, Associate Director, Liver Center, University of California, San Francisco

Originalpublikation:
Laemmle, A., Poms, M., Hsu, B., Borsuk et al. (2021): Aquaporin 9 Induction in Human iPSC-derived Hepatocytes Facilitates Modeling of Ornithine Transcarbamylase Deficiency. Hepatology. Accepted Author Manuscript
DOI: https://doi.org/10.1002/hep.32247

Anhang
Medienmitteilung DE

(nach oben)


Müllschlucker: Korallen filtern Mikroplastik aus Meerwasser

Caroline Link Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Riffbildende Korallen bauen kleine Kunststoffpartikel dauerhaft in ihr Kalkskelett ein – Studie in Gießener Meerwasser-Aquarien erbringt ersten Nachweis für Lebewesen, die langfristig Mikroplastik aus der Umwelt entfernen

In den Weltmeeren findet man immer mehr winzige Partikel aus Kunststoff, das sogenannte Mikroplastik. Wo sich diese Abfallteilchen aus Autoreifen, Windeln, zerfallenden Plastiktüten und anderen Produkten langfristig einlagern, ist nicht abschließend erforscht. Bislang standen vor allem unbelebte Speicherorte im Fokus wie das arktische Eis, Sedimente in küstennahen Bereichen und die Tiefsee. Doch auch Lebewesen können Mikroplastik dauerhaft einlagern, wie eine Untersuchung der Justus-Liebig-Universität Gießen (JLU) in Meerwasser-Aquarien zeigt. Demnach nehmen Korallen aktiv Mikroplastik auf und bauen die Teilchen in ihr Kalkskelett ein. Die riffbildenden Tiere tragen so zur Reinigung des Meerwassers bei. Die Studie hat das Fachmagazin Global Change Biology veröffentlicht.

„Korallen sind die ersten Organismen, die als lebende Senke für Mikroplastik im Meer entdeckt wurden“, sagt Dr. Jessica Reichert, JLU-Korallenforscherin und Studienleiterin. Die Tiere könnten in Riffen weltweit bis zu 20.000 Tonnen Mikroplastik im Jahr binden, schätzen sie und ihr Team. Das entspricht etwa einem Prozent des Mikroplastiks im Riffwasser – allein für diese eine Tiergruppe. Dr. Reichert: „Unsere Studie lässt Korallenriffe in neuem Licht erscheinen. Sie können nicht nur dabei helfen, das ökologische Gleichgewicht der Ozeane zu erhalten, sondern auch als Langzeitspeicher für Mikroplastik dienen.“

Für die Studie untersuchten Reichert und ihr Team vier Korallenarten, die im Indopazifik beheimatet sind, wo rund 90 Prozent aller Korallenriffe liegen: Geweihkorallen, Pfötchenkorallen, kleinpolypige Steinkorallen und blaue Korallen. In den Gießener Meerwasser-Aquarien simulierten sie über 18 Monate eine starke Mikroplastik-Belastung. Wie die Tiere die etwa 100 Mikrometer kleinen Teilchen in ihre Körper aufnehmen, beobachtete das Team live durchs Mikroskop. Genaue Mengen lieferten Gewebe- und Skelettanalysen von 54 Korallen. Demnach lagern Korallen bis zu 84 Mikroplastikpartikel pro Kubikzentimeter in ihre Körper ein – vor allem im Skelett, aber auch im Gewebe. Ein Beispiel: Eine Koralle im Versuch nahm bis zu 600 Mikroplastikpartikel auf, während sie ihre Körpergröße von fünf auf zehn Zentimeter verdoppelte.

Doch wie genau gelangen die winzigen Kunststoffteilchen in die Koralle? Korallen ernähren sich von Plankton, das sie mit speziellen Zellen aus dem Wasser filtern. Dabei kann es passieren, dass auch andere kleine Teilchen aufgenommen werden. „Solche ungenießbaren Teilchen scheidet die Koralle normalerweise wieder aus“, sagt Dr. Reichert. „Manchmal aber läuft bei der Selbstreinigung etwas schief. Die Koralle verschluckt sich sozusagen und der Partikel bleibt im Körper.“

Auch wenn die permanente Aufnahme von Mikroplastik zunächst einen positiven Effekt auf marine Ökosysteme zu haben scheint, so kann es für die Koralle und ganze Riffsysteme gefährlich werden. Bereits 2019 hat das Gießener Team zusammen mit Forschenden aus Australien gezeigt, dass einige Korallenarten bei Mikroplastik-Belastung schlechter wachsen oder gar krank werden, z.B. Korallenbleiche oder Nekrosen zeigen. Mit der aktuellen Studie kommt ein neues Puzzlestück hinzu.

„Wir wissen nicht, welche langfristigen Folgen die Einlagerung von Mikroplastik für die Korallen haben wird, „, sagt die Gießener Forscherin. „Aber es könnte die Stabilität und Widerstandsfähigkeit der Riffe beeinträchtigen. Mikroplastik wäre dann eine zusätzliche Bedrohung für die ohnehin durch den Klimawandel gefährdeten Korallenriffe auf der ganzen Welt.“

Die Studie wurde im Rahmen des Projektes „Ocean 2100“ des deutsch-kolumbianischen Exzellenzzentrums für Meeresforschung CEMarin (Center of Excellence in Marine Sciences) durchgeführt und vom Deutschen Akademischen Austauschdienst (DAAD) gefördert. In der Gießener Meerwasser-Aquarienanlage von „Ocean 2100“ simulieren Forschende die Zukunft der Ozeane, etwa im Hinblick auf Klimawandel oder Mikroplastik-Belastung. Ziel ist es, besser einschätzen zu können, wie sich der globale Wandel in der Zukunft auf riffbildende Korallen auswirkt.

Wissenschaftliche Ansprechpartner:
Dr. Jessica Reichert
Spezielle Zoologie und Biodiversitätsforschung
Heinrich-Buff-Ring 26-32 (iFZ), 35392 Gießen
Telefon: 0641 99-35728

Originalpublikation:
Jessica Reichert, Angelina L. Arnold, Nils Hammer, Ingo B. Miller, Marvin Rades, Patrick Schubert, Maren Ziegler, Thomas Wilke: Reef-building corals act as long-term sink for microplastic. Global Change Biology, Oktober 2021, DOI: https://doi.org/10.1111/gcb.15920

Weitere Informationen:
https://doi.org/10.1111/gcb.15920

(nach oben)


Die Zukunft der Blutdruckmessung: Kontinuierlich. In Echtzeit. In-Ear.

Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Die Deutsche Hochdruckliga ist an der Entwicklung einer neuartigen Blutdruck-Messmethode beteiligt. Die Messung des Blutdrucks erfolgt dann sensorbasiert und kontinuierlich über ein Hörgerät oder einen in-ear-Kopfhörer. Die Vorteile? Oft kommt es im Alltag oder in der Nacht zu gefährlichen Blutdruckspitzen, die bei der herkömmlichen Messung nicht erkannt werden. Darüber hinaus erlaubt das System ein echtes Monitoring von Hochrisikopatientinnen und -patienten – Smartwatches hingegen messen den Blutdruck nicht, sondern schätzen ihn lediglich ab.

Die Deutsche Hochdruckliga ist zusammen mit dem Hörgerätehersteller Kind assoziierter Partner des Projekts „Mikroelektronik für permanente, nichtinvasive Blutdruckmessung im Ohr“ im Rahmen der BMBF-geförderten Forschungsinitiative „Neue Elektroniksysteme für intelligente Medizintechnik (Smart Health)“. Herr Hartmut Richter (audiofon hearing system) koordiniert die Entwicklungsarbeit der Verbundpartner (Bartels mikrotechnik, Bosch, FZI Forschungszentrum Informatik, Hahn Schickard).

Ziel des Vorhabens ist die Entwicklung eines Mikrosystems zur permanenten, nichtinvasiven Blutdruckmessung im Ohr, inklusive der dafür benötigten Sensor-Aktor-Komponenten sowie der Steuerungsplattform. Ein solches System würde belastungsfreie Langzeitmessungen ermöglichen und einen enormen Fortschritt für die Diagnose und Therapie von Herz-Kreislauf-Erkrankungen bedeuten. Die unmittelbaren, medizinischen Informationen durch belastungsfreie Langzeitmessungen über akute Veränderungen, mögliche Auslöser oder postoperative Verläufe, welche ein solches Systems ohne die Risiken invasiver Verfahren liefern könnte, würde die Diagnose und Therapie von Herz-Kreislauf-Erkrankungen revolutionieren. So würde detailliertes Wissen über kardiopulmonale Verläufe von Patienten dazu führten, individualisierte Therapiekonzepte mit denkbarer Unterstützung durch technische Patient-The-Loop-Systeme zu ermöglichen. Auch gibt es Krankheiten, wie z.B. Ohnmachtsanfälle (Synkopen), orthotostische Dysregulationen, ungeklärte Herzrhythmusstörungen, bei denen das Wissen über den Blutdruckverlauf eine wertvolle Information sein kann. Die zusätzlich gewonnenen Informationen könnten darüber hinaus neue medizinische Forschungsfelder eröffnen, wie die Blutdruckentwicklung während körperlicher Aktivitäten/Sport.

In Vorarbeiten konnte bereits gezeigt werden, dass sich mittels passiver Messung des Drucksignals im Ohr Vitalparameter wie Puls und Atmung extrahieren lassen. Zudem wurde ein Verfahren erarbeitet und patentiert (Az. 10 2016 002 596.4), welches basierend auf einer aktiven Druckbeaufschlagung in einer abgedichteten Luftkammer im äußeren Gehörgang bei gleichzeitiger Erfassung des Drucksignals die kontinuierliche Bestimmung des absoluten Blutdrucks im Ohr ermöglicht. Die kontinuierlich erhobenen Werte lassen sich dann in einer App auf dem Smartphone ablesen und archivieren.

„Im Vergleich zur Blutdrucküberwachung mit einer SmartWatch, die den Blutdruck anhand von Pulswellen oder Änderungen der Blutfülle von Hautarealen nur mehr oder weniger abschätzen und relative Blutdruckänderungen messen, handelt es sich bei dem neuen System um eine medizinisch genaue kontinuierliche Messung in Echtzeit mit absoluten Blutdruckwerten“, erklärt Dr. Siegfried Eckert, Bad Oeynhausen, der das Projekt seitens der Deutschen Hochdruckliga begleitet und betreut.

Durch die Unterstützung der assoziierten Partner deutschen Hochdruckliga und KIND können schon im Entwicklungsprozess Standards und Normen eingehalten werden, um eine nachhaltige Entwicklung für eine zukünftige Produktentwicklung nach Projektende zu gewährleisten. „Wir sind optimistisch, das System binnen der nächsten zwei Jahre zur Produktreife zu führen“, so Dr. Eckert abschließend heute auf der Pressekonferenz der Deutschen Hochdruckliga.

Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423

Weitere Informationen:
https://www.hypertoniekongress.de/

(nach oben)


Vitamin D-angereicherte Lebensmittel könnten Krebssterblichkeit senken

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Wissenschaftler im Deutschen Krebsforschungszentrum (DKFZ) zeigen mit einer Modellrechnung, dass eine Anreicherung von Lebensmitteln mit Vitamin D die Krebssterblichkeit ähnlich effektiv senken könnte wie eine Substitution in Form von Vitaminpräparaten.

Milch und Joghurt, Orangensaft oder Frühstücksflocken mit einer Extraportion Vitamin D? In Kanada, Schweden, Finnland oder Australien ist das längst Alltag in jedem Supermarkt. Staatliche Programme regeln in diesen Ländern, welche Lebensmittel mit welcher Vitamindosis angereichert werden.

Eine ausreichende Versorgung mit Vitamin D galt immer schon als Voraussetzung für gesunde Knochen. Daneben wird heute außerdem die Rolle von Vitamin D in der Prävention einer Vielzahl von chronischen Erkrankungen untersucht, unter anderem von Krebs. Zur Frage, wie sich die Vitamin D-Versorgung auf die Krebs-Sterberaten auswirkt, sind in den vergangenen Jahren drei Metaanalysen großer randomisierter klinischer Studien erschienen. Die Untersuchungen* kamen zu einem übereinstimmenden Ergebnis: Bei einer Vitamin D-Supplementierung sinkt die Krebssterblichkeit um rund 13 Prozent – über alle Krebsarten hinweg.

Könnte dieser Effekt auch erreicht werden, wenn Menschen das Vitamin nicht mit der täglichen Pille, sondern über angereicherte Lebensmittel zu sich nehmen? Mit dieser Frage hat sich Hermann Brenner vom DKFZ beschäftigt. „Es ist nahezu unmöglich, den Effekt von Vitamin D-angereicherten Lebensmitteln auf die Krebssterblichkeit mit einer klassischen klinischen Studie direkt zu untersuchen“, erklärt der Epidemiologe. „Deshalb haben wir einen indirekten Weg gewählt, um diese Frage mithilfe sorgfältiger Modellrechnungen bestmöglich zu beantworten.“

Mit einer systematischen Recherche der wissenschaftlichen Fachliteratur untersuchten Brenner und sein Team zunächst, welche Steigerung des Vitamin-D-Spiegels sich durch angereicherte Lebensmittel erreichen lässt. Dabei ermittelten sie einen durchschnittlichen Anstieg, der einer Einnahme von 400 internationalen Einheiten (IU) des Vitamins entspricht. „Damit liegen wir in einen Dosisbereich, der sich in den Substitutionsstudien als wirksam erwiesen hat: Die Einnahme von 400 Einheiten pro Tag ging mit einer um 11 Prozent geringeren Krebssterblichkeit einher“, erklärt Brenner.

Die Kosten für eine Anreicherung mit Vitamin D schätzen die Wissenschaftler auf nur etwa fünf Prozent der Summe, die erforderlich wäre, die Bevölkerung ab einem Alter von 50 Jahren mit Vitamin D-Tabletten zu versorgen. „Im Vergleich zu den eingesparten Krebsbehandlungskosten wären die Kosten vernachlässigbar gering. Und wir würden weitaus größere Kreise erreichen, etwa Menschen mit einem geringeren Gesundheitsbewusstsein, die häufig besonders niedrige Vitamin-D- Spiegel haben“, ergänzt Tobias Niedermaier, der Erstautor der Studie.

„Natürlich gibt es wie bei allen Modellrechnungen noch Unsicherheiten darüber, wie stark den Lebensmitteln zugesetztes Vitamin D die Krebssterblichkeit tatsächlich senken kann“, resümiert Hermann Brenner. „Wir beobachten jedoch in Studien zur Lebensmittelanreicherung einen Anstieg des Vitaminspiegels in einer Größenordnung, die in den Supplementierungsstudien mit einem deutlichen Rückgang der Krebssterblichkeit verbunden war. Daher halten wir es für plausibel, dass sich die Ergebnisse übertragen lassen.“ Brenner und seine Kollegen schlagen daher vor, das Potenzial dieses kostengünstigen und möglicherweise sehr effektiven Ansatzes, Krebstodesfälle zu vermeiden, in weiteren Studien sorgfältig zu prüfen.

Neben der Zufuhr von Vitamin D über die Nahrung kann eine ausreichende Versorgung auch durch Sonnenbestrahlung sichergestellt werden: Der Krebsinformationsdienst des DKFZ empfiehlt, sich bei Sonnenschein im Freien zwei- bis dreimal pro Woche für etwa zwölf Minuten aufzuhalten. Gesicht, Hände und Teile von Armen und Beinen sollten für diese Zeitspanne unbedeckt und ohne Sonnenschutz sein.

Tobias Niedermaier, Thomas Gredner, Sabine Kuznia, Ben Schöttker, Ute Mons, and Hermann Brenner: Potential of vitamin D food fortification in prevention of cancer deaths – a modelling study
Nutrients 2021, DOI: https://doi.org/10.3390/nu13113986

*Substitutionsstudien:
• Keum N, Lee DH, Greenwood DC, Manson JE, Giovannucci E. Vitamin D supplementation and total cancer incidence and mortality: a meta-analysis of randomized controlled trials. Ann Oncol. 2019;30(5):733-43.
• Haykal T, Samji V, Zayed Y, Gakhal I, Dhillon H, Kheiri B, et al. The role of vitamin D supplementation for primary prevention of cancer: meta-analysis of randomized controlled trials. J Community Hosp Intern Med Perspect. 2019;9(6):480-8.
• Zhang X, Niu W. Meta-analysis of randomized controlled trials on vitamin D supplement and cancer incidence and mortality. Biosci Rep. 2019;39(11)

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

Originalpublikation:
Tobias Niedermaier, Thomas Gredner, Sabine Kuznia, Ben Schöttker, Ute Mons, and Hermann Brenner: Potential of vitamin D food fortification in prevention of cancer deaths – a modelling study
Nutrients 2021, DOI: https://doi.org/10.3390/nu13113986

(nach oben)


Booster-Impfung mit mRNA-Impfstoffen auch für Schwangere und Stillende geeignet?

Sara Schönborn Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Gynäkologie und Geburtshilfe e.V.
Warum die Deutschen Fachgesellschaften für Schwangerschaft, Geburt und Stillzeit keinen Grund dafür, sehen schwangere und stillende Frauen von einer Booster-Impfung auszugrenzen, erläutern sie in einer neuen wissenschaftlichen Empfehlung.

Die Ständige Impfkommission (STIKO) hat sich für bestimmte Gruppen am 07.10.2021 für eine Booster-Impfung gegen COVID-19 mit einem mRNA-Impfstoff ausgesprochen1 . Es ist zu erwarten, dass diese Empfehlung zukünftig uneingeschränkt für alle BürgerInnen gelten wird. Dies vorwegnehmend und vor dem Hintergrund aktuell rasch steigender Infektionszahlen sowie analog zur Stellungnahme der Österreichischen Gesellschaft für Gynäkologie und Geburtshilfe (OEGGG) vom 08.11.20212 sehen die Deutschen Fachgesellschaften für Schwangerschaft, Geburt und Stillzeit keinen Grund dafür, schwangere und stillende Frauen von einer Booster-Impfung auszugrenzen. Mit Verweis auf den ausführlichen Bericht zur Nutzen-Risiko-Bewertung einer Impfung mit einem mRNA-Impfstoff in der Schwangerschaft und Stillzeit im Epidemiologischen Bulletin Nr. 38 vom 23.09.20213 schließen sich die aufgeführten Fachgesellschaften dem Wortlaut der OEGGG an.

Die Empfehlung zur Boosterung ist durch die derzeit rapide steigenden Infektionszahlen sowie den nachweislich nach sechs Monaten sinkenden Antikörperspiegel in der allgemeinen Population mit parallel steigenden Impfdurchbruchsinfektionen begründet4 . In den Ausführungen der STIKO wird ab sechs Monaten nach der 2. Impfung die Verabreichung einer 3. Impfung mit einem mRNA-Impfstoff empfohlen. Insbesondere Personen mit höherem Erkrankungsrisiko sind angesprochen. Für die spezifische Booster-Impfung in der Schwangerschaft stehen aufgrund der relativ kurzen Verfügbarkeit bzw. Anwendung einer 3. Verabreichung der Impfung noch keine abrufbaren Daten zur Verfügung. Die amerikanische Gesellschaft für Gynäkologie und Geburtshilfe (ACOG) sowie die amerikanische Society for Maternal-Fetal Medicine (SMFM) und das britische Royal College of Obstetricians and Gynaecologists (RCOG) empfehlen jedoch für alle schwangeren Frauen, inklusive MitarbeiterInnen im medizinischen Bereich, die Verabreichung einer 3. Dosis mittels dem mRNA-Impfstoff Comirnaty® von BioNTech/ Pfizer ab sechs Monaten nach der ersten Impfserie mittels diesem Impfstoff5,6,7. Die 3. Impfung – die sogenannte Boosterung – kann laut dem amerikanischen Expertenkonsensus zu jeder Zeit in der Schwangerschaft bzw. nach der Geburt verabreicht werden.

In Anbetracht des derzeitigen Infektionsgeschehens, dem größeren Risiko für einen schweren Verlauf in der Schwangerschaft sowie der Unbedenklichkeit der Impfung für das Ungeborene (basierend auf den derzeitig verfügbaren Daten für die ersten zwei Impfdosen), wird eine Booster-Impfung mit Comirnaty® in der Schwangerschaft empfohlen. Bezüglich des optimalen Zeitpunkts der Verabreichung der 3. Impfung in der Schwangerschaft gibt es noch keine belastbaren Daten – somit ist dieser, je nach Intervall zur 2. Impfung bzw. ab dem 2. Trimenon (analog zu den ersten 2 Impfdosen), möglich.

Originalpublikation:
https://www.dggg.de/stellungnahmen

Weitere Informationen:
https://www.dggg.de/

(nach oben)


Internationaler Männertag: Mehrheit der Männer scheut Krebsfrüherkennung

Dr. Marita Völker-Albert Pressestelle
Bundeszentrale für gesundheitliche Aufklärung
Krebserkrankungen sind die zweithäufigste Todesursache in Deutschland: Nach Angaben des Statistischen Bundesamtes starben im vergangenen Jahr rund 231.270 Menschen an Krebs, Männer waren mit 54 Prozent häufiger betroffen als Frauen. Je früher eine Krebserkrankung erkannt wird, desto größer ist in der Regel die Chance, sie zu heilen, so die Deutsche Krebsgesellschaft. Doch nur rund 40 Prozent der Männer nehmen regelmäßig die gesetzlich geregelten Krebsfrüherkennungsuntersuchungen in Anspruch.

Krebserkrankungen sind die zweithäufigste Todesursache in Deutschland: Nach Angaben des Statistischen Bundesamtes starben im vergangenen Jahr rund 231.270 Menschen an Krebs, Männer waren mit 54 Prozent häufiger betroffen als Frauen. Je früher eine Krebserkrankung erkannt wird, desto größer ist in der Regel die Chance, sie zu heilen, so die Deutsche Krebsgesellschaft. Doch nur rund 40 Prozent der Männer nehmen regelmäßig die gesetzlich geregelten Krebsfrüherkennungsuntersuchungen in Anspruch. Zum Internationalen Männertag am 19. November 2021 weist die Bundeszentrale für gesundheitliche Aufklärung (BZgA) in ihrem Portal http://www.maennergesundheitsportal.de auf die Bedeutung von Früherkennungsuntersuchungen für die Männergesundheit hin. Zudem empfiehlt sie, auch in Zeiten der Corona-Pandemie Früherkennungsuntersuchungen konsequent wahrzunehmen.

Untersuchungen zur Früherkennung dienen dazu, mögliche Erkrankungen in einem frühen Stadium zu entdecken. Die Kosten für die gesetzlich geregelte Krebsfrüherkennung tragen die gesetzlichen und privaten Krankenkassen.
Bestimmte Krebsarten führen erst relativ spät zu Symptomen. Dies ist beispielsweise bei Prostatakrebs der Fall, der bei Männern häufigsten Krebserkrankung. Ab einem Alter von 45 Jahren haben Männer einmal pro Jahr Anspruch auf eine Untersuchung zur Früherkennung von Prostatakrebs.

Auch bei Darmkrebs treten Beschwerden meist erst spät auf, zudem erkranken Männer früher und häufiger an Darmkrebs als Frauen. Umso wichtiger ist die Teilnahme an Früherkennungsuntersuchungen, denn wird der Krebs früh erkannt, steigen die Heilungschancen. Ab 50 Jahren haben Männer alle zehn Jahre Anspruch auf eine Darmspiegelung.

Zwischen 18 und 34 Jahren können Krankenversicherte zudem einmalig einen Gesundheits-Check-up durchführen lassen. Ab dem 35. Lebensjahr ist die ärztliche Gesundheitsuntersuchung alle drei Jahre möglich. Der Check-up dient der Früherkennung insbesondere von Herz-Kreislauf-Erkrankungen wie Bluthochdruck, von Diabetes mellitus sowie von Nierenerkrankungen. Werden diese Krankheiten frühzeitig erkannt, kann man(n) rechtzeitig gegensteuern.

Weiterführende Informationen zu den Möglichkeiten der Vorsorge und Früherkennung unter: http://www.maennergesundheitsportal.de

Ein Faktenblatt zum Thema Männergesundheit finden Sie unter:
http://www.bzga.de/presse/daten-und-fakten/maennergesundheit/

Die Bundeszentrale für gesundheitliche Aufklärung (BZgA) spricht mit ihren Internetseiten http://www.frauengesundheitsportal.de und http://www.maennergesundheitsportal.de gezielt Frauen und Männer an, um sie über die Möglichkeiten einer geschlechtsspezifischen Gesundheitsvorsorge zu informieren. Die Inhalte dienen der allgemeinen Information und können die persönliche Beratung durch eine Ärztin, einen Arzt oder qualifiziertes medizinisches Fachpersonal nicht ersetzen.

(nach oben)


Neue Studie: Regenfälle verursachen Mikroplastik-Transport in die Atmosphäre

Christian Wißler Pressestelle
Universität Bayreuth
Ozeane, Seen und Flüsse enthalten an ihrer Oberfläche oft eine große Zahl von Mikroplastik-Partikeln. Einschlagende Regentropfen bewirken, dass viele Tröpfchen mit einer fast ebenso hohen Mikroplastik-Konzentration in die Luft geschleudert werden. Verdunsten sie in der Luft, gelangen die Partikel in die Atmosphäre. Diese Prozesse beschreiben Forscher*innen der Universität Bayreuth in einer neuen, in „Microplastics and Nanoplastics“ veröffentlichten Studie. In einer ersten, in mehrfacher Hinsicht noch mit Unsicherheiten behafteten Abschätzung kommen sie zu dem Ergebnis: Weltweit könnten infolge von Regenfällen jährlich bis zu 100 Billionen Mikroplastik-Partikel in die Atmosphäre gelangen.

Die Untersuchungen zeigen: Schlägt ein Regentropfen auf eine Wasseroberfläche auf, werden Tröpfchen aus einem kleinen ringförmigen Bereich um die Einschlagsstelle in die Luft geschleudert. Sie stammen aus einer Tiefe von wenigen Millimetern unterhalb der Wasseroberfläche. Die in den Tröpfchen enthaltenen Mikroplastik-Partikel haben fast die gleiche Konzentration wie in dieser schmalen Wasserschicht. Auch ihre Flugbahnen in der Luft sowie ihre Flugdauer haben die Bayreuther Wissenschaftler*innen berechnet. Daraus ergibt sich ein klares Bild: Das Wasser von Regentropfen, das frei von Mikroplastik ist, landet in den Ozeanen, während plastikhaltiges Wasser aus den Ozeanen in die Luft gelangt. Wenn die Tröpfchen so lange in der Luft fliegen, bis sie verdunsten, entlassen sie die Mikroplastik-Partikel in die Atmosphäre. Dies geschieht besonders häufig oberhalb der Wasseroberflächen von Ozeanen, wo Windverhältnisse und Temperaturen eine vergleichsweise lange Flugdauer und eine rasche Verdunstung begünstigen. Die meisten der in die Luft geschleuderten Mikroplastik-Partikel fallen allerdings aufgrund einer kurzen Flugdauer wieder zurück ins Wasser.

„Es war eine riesige Herausforderung festzustellen, wie viele Tröpfchen durch einen einzigen einschlagenden Regentropfen hochgeschleudert werden, wie groß und wie schnell diese Tröpfchen sind und wie viele Mikroplastik-Partikel sie möglicherweise enthalten. Experimente allein hätten zu wenige Informationen geliefert. Deshalb haben wir für Simulationen dieser Prozesse einen völlig neuen Code erarbeitet und ein Computermodell entwickelt, das es erlaubt, diese Fragen mit hoher Genauigkeit und in einer noch nie dagewesenen Detailtiefe zu beantworten“, sagt der Koordinator der Studie, Prof. Dr. Stephan Gekle, Professor für die Simulation und Modellierung von Biofluiden an der Universität Bayreuth. „Wie realistisch unsere Simulationen sind, zeigt sich beim Vergleich mit technisch anspruchsvollen Experimenten: Hochgeschwindigkeitsaufnahmen von einschlagenden Regentropfen bestätigen die auf unserem Modell basierenden Berechnungen“, sagt Erstautor Moritz Lehmann, Physik-Doktorand an der Universität Bayreuth.

Um herauszufinden, wie viele Mikroplastik-Partikel durch diese Prozesse letztlich in der Atmosphäre landen, haben die Bayreuther Forscher*innen eine Vielzahl empirisch verfügbarer Daten zusammengeführt und in ihre Berechnungen einbezogen. Diese Daten betreffen unter anderem die Mikroplastik-Konzentrationen an Meeresoberflächen, die jährlichen Niederschlagsmengen, die von der Regenintensität abhängige Größe der Regentropfen und die zeitliche Verteilung der Regenintensität. Eine erste Abschätzung führt zu dem Ergebnis, dass durch die Einschläge von Regentropfen auf Wasseroberflächen weltweit bis zu 100 Billionen Mikroplastik-Partikel pro Jahr in die Atmosphäre gelangen könnten.

Die Autor*innen betonen, dass diese Abschätzung noch mit zahlreichen Unsicherheiten und Ungenauigkeiten behaftet ist: Turbulenzen im Wind, welche die Einschlagskraft von Regentropfen beeinflussen können, wurden in die Berechnungen noch nicht einbezogen. Zudem weisen die Meeresoberflächen auf der Erde nicht überall eine gleich hohe Konzentration von Mikroplastik-Partikeln auf – im Gegenteil, die Unterschiede sind sehr groß. Satellitenmessungen in Verbindung mit Wettermodellen könnten aber schon bald genaueren Aufschluss über die „Hotspots“ geben, an denen besonders viele Mikroplastik-Partikel aus dem Ozean in die Atmosphäre transportiert werden.

Forschungsförderung und Kooperation:
Die in der Fachzeitschrift „Mikroplastics and Nanoplastics“ veröffentlichte Studie ist aus einem Forschungsprojekt des von der DFG geförderten Sonderforschungsbereichs „Mikroplastik“ an der Universität Bayreuth hervorgegangen. Das Bayreuther Forschungsteam unter der Leitung von Prof. Dr. Stephan Gekle hat dabei mit Prof. Dr. Andreas Held, Professor für Umweltchemie und Luftreinhaltung an der TU Berlin, zusammengearbeitet.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stephan Gekle
Biofluid Simulation and Modeling
Universität Bayreuth
Telefon: +49 (0)921 55-4462
E-Mail: stephan.gekle@uni-bayreuth.de

Originalpublikation:
Moritz Lehmann, Lisa Marie Oehlschlägel, Fabian P. Häusl, Andreas Held, Stephan Gekle: Ejection of marine microplastics by raindrops: a computational and experimental study. Microplastics and Nanoplastics (2021), DOI: https://doi.org/10.1186/s43591-021-00018-8

(nach oben)


Studien weisen gute Wirkung von Boosterimpfung nach Johnson&Johnson-Impfung sowie Kreuzimpfungen nach

Thorsten Mohr Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Die Ständige Impfkommission des Bundes empfiehlt nach einer einmaligen Corona-Impfung mit Johnson&Johnson eine zweite Impfung mit dem Impfstoff von Biontech oder Moderna. Bisher gab es allerdings nur Hinweise darauf, dass die zweite Impfung den Impfschutz erhöht. Ein Team um die Professorin für Immunologie, Martina Sester, hat nun nachweisen können, dass sich der Impfschutz durch die freiwillige zweite Impfung tatsächlich signifikant erhöht. Zudem legte ihre Arbeitsgruppe die erste Studie weltweit vor, die alle fünf in Deutschland zugelassenen Impfschemata direkt miteinander vergleicht.

Der Impfstoff des Herstellers Johnson&Johnson ist der einzige zugelassene Impfstoff in Europa, der nach nur einer Gabe seine schützende Wirkung voll entfaltet. Diese Schutzwirkung ist allerdings geringer als bei den Impfstoffen, die doppelt verimpft werden. Zudem gibt es die meisten Impfdurchbrüche, also Corona-Infektionen von geimpften Personen, bei denjenigen, die mit Johnson&Johnson geimpft wurden. Die Ständige Impfkommission des Bundes empfiehlt daher, dass sich mit Johnson&Johnson Geimpfte freiwillig nach der obligatorischen Einfachimpfung nochmals mit einem mRNA-Impfstoff von Biontech oder Moderna impfen lassen. „Daten zur Immunogenität dieser Boosterimpfung gibt es aber bisher nicht“, erläutert Martina Sester, Professorin für Transplantations- und Infektionsimmunologie an der Universität des Saarlandes. Die Stiko empfiehlt diese Boosterimpfung aufgrund der Annahme, dass es tatsächlich eine verbesserte Impfschutzwirkung nach einer Auffrischung mit einem mRNA-Impfstoff gibt.

„Wir haben nun anhand einer kleineren Probandengruppe in Zusammenarbeit mit der Sportmedizin (Prof. Tim Meyer) nachweisen können, dass eine Zweitimpfung mit dem Vakzin von Biontech-Pfizer nach Johnson&Johnson tatsächlich die Immunantwort signifikant erhöht“, sagt die Expertin für Immunologie, die bereits mehrere hochrangig publizierte Studien zur Wirksamkeit der Covid-Impfstoffe publiziert hat (Links s.u.). „Wir konnten nach einer Booster-Impfung mit Biontech einen deutlichen Anstieg der Antikörper-Konzentration feststellen, die das so genannte Spike-Protein der Viren blockieren.“ Mit diesem „Schlüssel“ gelingt es den Viren, in die menschlichen Zellen einzudringen und sich zu vermehren. Durch die erhöhte Anzahl der Antikörper wird den Viren diese Möglichkeit genommen. Außerdem erhöht sich durch die Zweitimpfung durch Biontech die Zahl der so genannten T-Zellen im Immunsystem der Johnson&Johnson-Geimpften, welche das Virus direkt angreifen. „In der Studie haben wir zwar nur 15 Probandinnen und Probanden untersucht. Aber wir haben bei ausnahmslos allen eine deutlich messbare Steigerung der Impfwirkung feststellen können, so dass wir mit dieser Studie die Empfehlung der Stiko klar bestätigen können: Eine Booster-Impfung mit Biontech nach Johnson&Johnson ist absolut empfehlenswert. Gut verträglich ist sie außerdem, wie uns die Teilnehmenden bestätigen konnten, die ihre Impfreaktionen in einem Fragebogen festgehalten haben“, so Martina Sester.

Die Studie wurde in Zusammenarbeit mit dem Institut für Sport- und Präventivmedizin (Prof. Tim Meyer) durchgeführt und wurde bereits vor einer endgültigen Veröffentlichung in einem Fachjournal auf einem so genannten Preprint-Server veröffentlicht (Erläuterungen s.u.): https://www.researchsquare.com/article/rs-1056375/v1

In einer zweiten Studie, die ebenfalls als Preprint erschienen ist, vergleichen Martina Sester und ihre Kolleginnen und Kollegen in der weltweit ersten Studie die Impfwirkungen aller fünf in Deutschland zugelassenen Impfschemata direkt miteinander: Zum einen die der so genannten „homologen“ Impfungen (Biontech-Biontech, Moderna-Moderna, AstraZeneca-AstraZeneca), zum anderen die zugelassenen „heterologen“ Impfschemata (AstraZeneca-Biontech, AstraZeneca-Moderna). „Wir konnten unsere Beobachtungen einer vorangegangenen Studie bestätigen, dass die zweifache Astra-Impfung die geringste Immunogenität aufweist; bei den anderen Kombinationen sehen wir sehr eindrücklich, dass die Varianten mit Moderna eine stärkere Immunantwort induzieren als die jeweiligen Kombinationen mit Biontech. Dies deckt sich mit den Effektivitätsdaten zur Wirkung der Impfstoffe, geht aber bei Moderna-Kombis auch mit etwas mehr Nebenwirkungen einher“, fasst Martina Sester die zentralen Beobachtungen dieser Studie zusammen. Kurz gesagt: Die heterologe Kombination aus AstraZeneca und Moderna hat die deutlichste Immunantwort aufgebaut, gefolgt von der heterologen Kombination AstraZeneca-Biontech. Danach folgt die doppelte Moderna-Impfung, die derjenigen mit Biontech etwas überlegen ist. Die homologe Kombination aus einer zweifachen AstraZeneca-Impfung erzielte insgesamt die schwächste Wirkung der fünf verglichenen.

Die Datengrundlage dieser Studie ist größer als die der vorangenannten. Hier flossen die Daten von insgesamt rund 550 gesunden Personen ein, so dass die Aussagekraft der Daten sehr valide ist. Die Kenntnis zur unterschiedlichen Wirkung der Impfstoffkombinationen könnten auch bei der Optimierung der Impfreaktionen durch Folgeimpfungen bei Risikopatienten relevant sein.

Link zur Studie, die ebenfalls auf einem Preprint-Server erschienen ist: https://www.researchsquare.com/article/rs-1034243/v1

Die Veröffentlichung auf Preprint-Servern wird grundsätzlich nur in Ausnahmefällen als Möglichkeit in Betracht gezogen. Üblicherweise warten Wissenschaftlerinnen und Wissenschaftler nach dem Einreichen einer wissenschaftlichen Arbeit, bis ein Gremium aus Fachleuten die Arbeit geprüft und für schlüssig befunden hat, so dass die Arbeit in einem anerkannten Fachmagazin (wie beispielsweise Science oder Nature) erscheinen kann. Aufgrund der Dringlichkeit, anderen Forschungsteams auf der Welt Daten bei der Suche nach einem Ausweg aus der Corona-Pandemie einen möglichst umfassenden Zugang zu wissenschaftlichen Erkenntnissen zu geben, hat sich die Gruppe um Martina Sester dazu entschieden, die Studien bereits vorab zu veröffentlichen. Sie sind derzeit auch zur Begutachtung bei hochrangigen Peer-Review-Journalen eingereicht.

Weitere Covid-Impfstudien der Arbeitsgruppe um Prof. Sester:
Wie Covid-19-Impfungen bei Organtransplantierten die Immunantwort mobilisieren: https://idw-online.de/de/news774835 (American Journal of Transplantation)

Forschungsergebnisse zur ersten Daten der heterologen Impfstoffkombination wurden im Fachjournal Nature Medicine veröffentlicht: https://idw-online.de/de/news773322 (Nature Medicine)

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martina Sester
Transplantations- und Infektionsimmunologie
Tel.: (06841) 1623557
E-Mail: martina.sester@uks.eu

Originalpublikation:
Immunogenicity and reactogenicity of heterologous Ad26.COV.2 and BNT162b2 vaccination

Head-to-head analysis of immunogenicity and reactogenicity of heterologous ChAdOx1 nCoV-19-priming and BNT162b2 or mRNA-1273-boosting with homologous COVID-19 vaccine regimens

Weitere Informationen:
https://www.researchsquare.com/article/rs-1056375/v1
https://www.researchsquare.com/article/rs-1034243/v1

(nach oben)


Altern im Wandel – zwischen gesellschaftlicher und persönlicher Wahrnehmung

Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Unser Älterwerden scheint über die letzten Jahrzehnte unkomplizierter und insgesamt positiver geworden zu sein. Viele Studien zur Lebensqualität der heutigen Älteren belegen dies. Aus Sicht älterer Menschen selbst ist das eigene Älterwerden aber nicht wirklich besser geworden.

Viele Studien zeigen, dass die heutigen Älteren gesünder, funktionstüchtiger, schlauer, selbstbewusster, zufriedener und weniger einsam sind als Gleichaltrige vor 20 oder 30 Jahren. Dies hat sich international und auch in Deutschland gezeigt. Forscher*innen an unterschiedlichen wissenschaftlichen Einrichtungen in Deutschland und den USA haben nun anhand einer Auswertung von deutschen und amerikanischen Daten – erhoben zu unterschiedlichen historischen Zeitpunkten –untersucht, ob sich diese Verbesserungen auch in positiveren Sichtweisen dem eigenen Alter und Altern gegenüber niedergeschlagen haben.

Dazu wurden verschiedene Facetten von Alterssichtweisen älterer Menschen Anfang/Mitte der 1990er Jahre mit denen von Gleichaltrigen Mitte/Ende der 2010er Jahre verglichen. Eine dieser Facetten war die Frage nach dem subjektiven Alter „Wie alt fühlen Sie sich?”. Einbezogen wurden Daten aus international hochanerkannten deutschen und nordamerikanische Studien: den Berliner Altersstudien und der Studie „Mittleres Lebensalter in den USA“ (MIDUS). Das auch für die Forscher*innen überraschende Hauptergebnis war, dass in keinem der einbezogenen Indikatoren und in keinem der beiden Länder Hinweise auf Verbesserungen in den Alterssichtweisen von älteren Menschen über 15 bis 20 Jahre hinweg beobachtet werden konnten. „Die Vielzahl von historischen Verbesserungen im Älterwerden sind demzufolge nicht im Erleben des eigenen Älterwerdens angekommen“, sagt Denis Gerstorf, Professor für Entwicklungspsychologie an der Humboldt-Universität zu Berlin und einer der Autoren der Studie.

Ist das eine schlechte Botschaft? Die Forscherinnen und Forscher des Papiers plädieren für eine differenzierte Interpretation dieser Befunde. „Es gibt Hinweise, dass sich gesellschaftliche Altersbilder im Laufe der letzten Jahrzehnte vielfach verschlechtert haben. Demzufolge wäre dann Stabilität in den Sichtweisen des eigenen Alters ja durchaus eine Art Leistung im Sinne einer Abgrenzung“, betont Hans-Werner Wahl, Senior-Professor an der Universität Heidelberg und Erstautor der Studie. Vielleicht – so eine mögliche zweite Interpretation – koppeln sich generell Bewertungen des eigenen Lebens (Stichwort „Individualisierung“) immer mehr von allgemein beobachtbaren Veränderungen ab? Und drittens überlagern sich immer mehr ein „junges Alter“ als einer Erfolgsgeschichte der Moderne mit einem immer länger werdenden „alten Alter“ und damit einhergehenden Befürchtungen von Demenz und Autonomieverlust. Im Ergebnis könnte diese komplexe Mélange von Faktoren zu nivellierenden Effekten geführt hat.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Werner Wahl, Universität Heidelberg, wahl@nar.uni-heidelberg.de
Prof. Dr. Denis Gerstorf, Humboldt Universität zu Berlin, denis.gerstorf@hu-berlin.de

Originalpublikation:
Wahl, H.-W., Drewelies, J., Duezel, S., Lachman, M. E., Smith,
J., Eibich, P., Steinhagen-Thiessen, E., Demuth, I.,
Lindenberger, U., Wagner, G. G., Ram, N., & Gerstorf, D.
(2021). Subjective age and attitudes toward own aging across
two decades of historical time. Psychology and Aging. Advance
online publication
https://doi.org/10.1037/pag0000649

Anhang
PM HU: Altern im Wandel

(nach oben)


Ungehobene Datenschätze: Eintauchen in das Geoportal der Bundesanstalt für Gewässerkunde

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Der Bedarf von Wissenschaft, Behörden und Wirtschaft an Geodaten wächst. Mit dem Geoportal, dem gewässerkundlichen, geografischen Informations- und Analysesystem der BfG, können Datenbestände des Bundes und der Länder kostenfrei recherchiert und heruntergeladen werden. Verbesserte Funktionalitäten erleichtern den Zugang für die Nutzer/-innen.

Fast alle Umweltinformationen besitzen heute einen direkten oder indirekten Raumbezug. Damit gewinnen sogenannte Geodaten zunehmend an Bedeutung für Forschung, Behörden und die Wirtschaft. Daten spielen aber auch im Journalismus eine zunehmend wichtige Rolle. Mit dem Geoportal der BfG, können Sie selbst die Geodaten der BfG erkunden. Ein Großteil der Informationen und Daten sind unmittelbar über die Metadaten-Recherche, sowie über Fach- und Kartenanwendungen zugänglich.

Die BfG hat ihr Geoportal rundherum erneuert. Die Fachleute der BfG haben dabei insbesondere die Suchfunktionen weiter optimiert. Auch die Ergebnisanzeige wurde modernisiert und neu gestaltet. Eine weitere wichtige Verbesserung ist die Einführung des Facetten-Filters, über welchen Nutzer/-innen die Trefferanzeige jetzt genauer eingrenzen können.

Die letzte umfassende Überarbeitung fand im Juni 2020 statt. Damals wurde die Startseite grundlegend erneuert, mit einem besonderen Augenmerk auf eine einfache und intuitive Nutzung. Als zentrales Element erhielt die Metadatensuche ein Update und die Fach- und Kartenanwendungen werden den Nutzer/-innen nun über eine moderne Kacheloptik übersichtlich präsentiert. Einen Überblick zu den Leistungen des Portals und zwei ausgewählten Anwendungen finden Sie in drei Produkt-Steckbriefen.

„Durch unsere langjährige hydrologische und ökologische Praxis sowie die Tätigkeiten an den Wasserstraßen des Bundes und auch in den Einzugsgebieten ist ein umfangreicher Bestand an gewässerkundlichen Informationen entstanden. Darin stecken unsere Erfahrung und unser Wissen. Mit dem Geoportal leisten wir einen substanziellen Beitrag zur Verfügbarkeit umweltbezogener Daten im Dienst der Allgemeinheit. Das haben nicht zuletzt die vergangenen Monate gezeigt. Es freut mich, dass z. B. die auf Landesdaten basierenden Hochwassergefahren- und Hochwasserrisikokarten im Kontext der Sturzflutereignisse an Ahr und Erft von unterschiedlichsten Anwenderkreisen sehr stark gefragt waren“, sagt Birgit Esser, Leiterin der Bundesanstalt für Gewässerkunde.

Ohne Metadaten haben Geodaten wenig Wert
Metadaten, auch Metainformationen genannt, sind „Daten über Daten“. Sie stellen eine strukturierte Beschreibung der eigentlichen Geodaten und Geodienste dar und erlauben es den Nutzer/-innen, die eigentlichen Ressourcen aufzufinden, zu beurteilen, einzuordnen und schlussendlich abzurufen und zu verwenden. Zudem sind Metadaten ein elementarer Baustein einer funktionierenden Geodateninfrastruktur, in der Geodaten vernetzt über das Internet zur Verfügung gestellt werden. Das Geoportal der BfG ist ein aktiver Knoten im Netz der nationalen und internationalen Geodateninfrastruktur, wodurch die Metadaten der BfG auch in anderen Portalen (z. B. Geoportal-DE) auffindbar sind.

Neben der Metadatenrecherche werden über das Geoportal der BfG webbasierte und zum Teil kartengestützte Anwendung präsentiert und zugänglich gemacht, die ganz konkrete Fragestellungen aus der Gewässerkunde adressieren, etwa Hochwassergefahren- und Hochwasserrisikokarten in Deutschland.

Die BfG betreibt das Geoportal seit dem Jahr 2005. Seither haben sich die Messtechnik, die Menge an verfügbaren Daten, aber auch die Möglichkeiten zur Informationsverarbeitung drastisch verbessert. Auch in Zukunft arbeiten die BfG-Fachleute an neuen Diensten sowie einer kontinuierlichen Weiterentwicklung des Portals.

Wissenschaftliche Ansprechpartner:
Dr. Ralf Busskamp, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5255, Email: busskamp@bafg.de

Weitere Informationen:
https://www.bafg.de/DE/Service/presse/2021-11-05_Geoportal.html?nn=168662

(nach oben)


Bewertung und Monitoring von Moorflächen – Forschung für den Klimaschutz

Tassilo Frhr. v. Leoprechting Pressestelle
Bundesanstalt für Landwirtschaft und Ernährung (BLE)
Moorböden sind die effektivsten Kohlenstoffspeicher aller Landlebensräume. In dem von der Bundesanstalt für Landwirtschaft und Ernährung (BLE) betreuten Verbundprojekt BEWAMO* werden derzeit wichtige Grundlagen für einen effektiven Moorbodenschutz gelegt.

Mit seiner Entwicklungsarbeit ermöglicht das Konsortium aus der Humboldt-Universität Berlin, der Christian-Albrechts-Universität Kiel, der Universität Potsdam, dem Thünen-Institut sowie der EFTAS Fernerkundung Technologietransfer GmbH, dass Moorbodenschutz künftig auf eine hohe Klimawirksamkeit ausgerichtet und der Maßnahmenerfolg fernerkundungsbasiert per Satellit erfasst werden kann.

Berliner und Kieler Forschende entwickeln derzeit ein Tool, mit dem Moorflächen hinsichtlich ihrer Fähigkeit, Kohlenstoff zu speichern und ihres Potenzials, CO2-Emissionen zu reduzieren, bewertet werden können. Das Tool soll zudem passende Agrarumweltmaßnahmen benennen und Methoden für ein anschließendes Monitoring aufzeigen. Dazu arbeiten die Forschenden mit 15 landwirtschaftlichen Betrieben, Wasser- und Bodenverbänden sowie Behörden in Brandenburg und Schleswig-Holstein zusammen.

Welche Moore eignen sich für eine Wiedervernässung? Kohlenstoffdynamik als Bewertungskriterium
Um die Kohlenstoffvorräte und mögliche Verluste sowie das Emissionsminderungspotenzial in Moorböden zu bewerten, kombinieren die Wissenschaftlerinnen und Wissenschaftler Bodenparameter mit historischen und aktuellen Messdaten zu Klima und Landnutzung. Auf dieser Grundlage erarbeiten sie Bewertungskriterien, um geeignete Gebiete für die Wiedervernässung entwässerter Moorböden zu priorisieren.

Am Thünen-Institut werden die betrieblichen Kosten möglicher künftiger Moorbodenschutzmaßnahmen berechnet. Abhängig vom Moorflächenanteil, der aktuellen Produktionsausrichtung und der betrieblichen Anpassungsfähigkeit, zum Beispiel durch die Kompensation der Futtermengenverluste, können diese sehr unterschiedlich ausfallen: So sind die Kosten auf intensiv genutzten Milchviehbetrieben deutlich höher als auf Betrieben mit Mutterkuhhaltung.

Monitoring mittels Bodenfeuchte
Für den Schutz entwässerter Moorböden ist eine Erhöhung der Grundwasserstände notwendig. Die Kontrolle dieser Maßnahmen erfolgt durch ein im Projekt entwickeltes Monitoring, bei dem der Feuchtezustand der Moorböden flächenhaft mit Mitteln der Satellitenfernerkundung beobachtet und bewertet wird. Die Wissenschaftlerinnen und Wissenschaftler nutzen dafür zeitlich und räumlich hochauflösende Radardaten der Sentinel-Satelliten.

Mehr Informationen unter http://www.unter-2-grad.de/projekte/bewamo/

Hintergrund
Bund und Länder haben am 20. Oktober 2021 eine Zielvereinbarung zum Klimaschutz durch Moorbodenschutz unterzeichnet: Bis 2030 sollen die jährlichen Treibhausgasemissionen aus entwässerten Moorböden um fünf Millionen Tonnen CO2-Äquivalent gemindert werden. Die Vereinba-rung schafft die Grundlage für einen Ausbau des flächenwirksamen Moorbodenschutzes.
Das Projekt BEWAMO ist Teil einer Forschungsinitiative des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) zu Klimaschutz und Klimaanpassung in der Landwirtschaft. Seit 2018 werden 32 Verbundvorhaben, in denen Wissenschaft, Wirtschaft und Praxis gemeinsam an Lösungen für eine klimagerechte Landwirtschaft arbeiten, im BMEL-Innovationsprogramm gefördert. Die Bundesanstalt für Landwirtschaft und Ernährung (BLE) betreut die Forschungsinitiative als Projektträger.

Weitere Informationen:
http://* BEWAMO steht für „Ein Bewertungstool für Kategorien der Schutzwürdigkeit und für ein fernerkundungsbasiertes Monitoring landwirtschaftlich genutzter Moore“
http://www.unter-2-grad.de/projekte/bewamo/

(nach oben)


Möglicher Zusammenhang mit COVID-19-Infektionen: Veränderungen im Darmmikrobiom nachgewiesen

Birte Vierjahn Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Personen mit einer COVID-19-Infektion haben eine weniger vielfältige Darmflora. Das hat ein Forschungsteam der Medizinischen Fakultät der Universität Duisburg-Essen (UDE) festgestellt. Bei COVID-19-Erkrankten häufen sich Bakterien, die mit verschiedenen entzündlichen Erkrankungen in Verbindung stehen – gleichzeitig gibt es weniger entzündungshemmende Bakterien. Die kürzlich in „Frontiers in Cellular and Infection Microbiology“ veröffentlichte Studie wurde von der Stiftung Universitätsmedizin Essen gefördert.

Insgesamt wurden für die Studie 212 Personen untersucht, davon 117 mit einer COVID-19-Infektion und 95 negativ getestete, die sich wegen anderer Beschwerden in der Universitätsmedizin Essen vorgestellt haben.

Das Team konnten zwei Effekte beobachten: Zum einen war die Zahl der Enterobakterien, die bei vielen entzündlichen Erkrankungen in der Darmflora auftreten, auch bei COVID-19-Infizierten erhöht. Gleichzeitig war die Zahl der Bifidobakterien verringert, die zu den für den Darm nützlichen Milchsäureproduzenten gehören. Zum anderen kamen bei schweren COVID-Verläufen Bakterien seltener vor, die eine wichtige kurzkettige Fettsäure produzieren, von der positive Wirkungen auf das Immunsystem bekannt sind. Das Forschungsteam hält es für möglich, dass Stoffwechselprodukte der Darmbakterien über das Blut die Immunantwort in der Lunge beeinflussen.

In der Literatur gibt es bereits bei anderen Erkrankungen Hinweise darauf, dass das Darmmikrobiom die Immunantworten in entfernten Organen wie der Lunge beeinflusst, man spricht hier von der sogenannten „gut-lung axis“ (etwa: Darm-Lungen-Achse).

Redaktion: Dr. Milena Hänisch, Tel. 0201/723 1615, milena.haenisch@uk-essen.de

Wissenschaftliche Ansprechpartner:
PD Dr. Jan Kehrmann, Klinische Mikrobiomforschung und Immunregulation, Tel. 0201 / 723-85913, jan.kehrmann@uk-essen.de

Originalpublikation:
https://www.frontiersin.org/articles/10.3389/fcimb.2021.747816/full

(nach oben)


Mikrolabor auf einem Chip: Wasser gerne, aber bitte sauber

Dr. Stefan Kiesewalter Kommunikation
Fraunhofer-Institut für Mikrotechnik und Mikrosysteme IMM
Ein mikrofluidischer Chip nimmt eine Wasserprobe auf, versetzt ihn mit den erforderlichen Chemikalien und befördert ihm zum Ort der Detektion. Wozu das Ganze? Auf diese Weise soll das Wasser vollautomatisiert und mit verschiedenen Parametern analysiert werden und das auch möglichst kostengünstig. Im Projekt MICROCHIP ist aus diesem Vorhaben ein weiterentwickelter Chipprototyp für Wasseranalysegeräte entstanden.

Ob im Wasserwerk, Labor, in einem Schwimmbecken oder aus dem Wasserhahn – wer möchte da nicht eine schnelle und einfache Wasseranalyse zur Hand haben. Mit dem im Projekt MICROCHIP entwickelten mikrofluidischen Lab-on-a-Chip lassen sich Proben aus wenigen Tropfen in kurzer Zeit vollautomatisiert analysieren. Wenn dann auch noch Personal ohne Schulung in die Lage versetzt wird, sechs für die Wasseranalytik relevante Parameter parallel mit einem kostengünstigen Messgerät zu detektieren, spart das zusätzlich Zeit und Kosten. Zudem sind bei dieser Methodik Anwenderfehler ausgeschlossen. Reagenzien können nicht verwechselt werden und die zu dem Verfahren passende Wassermenge ist durch den Chip fest vorgegeben.

Spiegel statt Durchsicht
Der Chip erreicht eine hohe Messgenauigkeit. Dazu verhelfen ihm unter anderem eine verlängerte sogenannte Pfadlänge und ein angepasstes Design, die den Chip kompakt halten. An Stelle einer ursprünglich geplanten Durchsichtlösung setzten die Projektpartner auf eine sogenannte Spiegellösung. Das Re-Design der Hardware mit verschiedenfarbigen LEDs ermöglicht letztlich eine Analytik für das auf Photometrie basierende Messverfahren, bei dem gefärbte Wasserproben ausgewertet werden.

Kreditkartenformat voll mit Technik
Der Chip erreicht letztlich ungefähr die Größe einer Kreditkarte, verbunden mit einer Menge Technik wie eine Elektronikplatine mit photometrischen Sensoren, Ultraschallmischer, Druckreservoirs sowie eine Schlauchpumpe Einschub für den Chip nebst Andruckmechanismus im kleinen Gehäuse untergebracht werden mussten. Im Vergleich zu bisherigen Lösungen ist diese wesentlich kostengünstiger. Die Projektpartner zeigen, dass es möglich ist, multi-Parameter Wasseranalysen in einem Kunststoffchip durchzuführen. Sie verzichten auf aufwendige und teure Technologien wie Blister und Gefriertrocknung. Sie trocknen die Reagenzien stattdessen direkt in Kammern im Kunststoffchip. Mit einer einfachen Schlauchpumpe wird die Messflüssigkeit gezielt durch den Chip dirigiert. Dadurch messen die Sensoren die durch die Reagenzien gefärbte Flüssigkeit in derselben Messkammer wie die zuvor farblose Vergleichsprobe. Hergestellt wird der Chip im Spritzgussverfahren. Damit der Chip nach außen hin auch druckdicht ist, werden die Kanäle im einer schwarzen Ober- und einer transparenten Unterschale mittels Laserstrahlverfahren verschweißt.

Bisherige vergleichbare Systeme für die automatisierte Wasseranalyse nach Zugabe der Wasserprobe in Polymerchips sind entweder zu voluminös, analysieren weniger Parameter parallel. Bereit für eine Massenfertigung ist der im Konsortium entwickelte und umgesetzte Demonstrator zwar noch nicht. Die Ergebnisse der Entwicklung und Tests fließen allerdings bereits bei einem der Projektpartner, der Water-i.d. GmbH, bei der Herstellung von weiteren Wasseranalysegeräten und –Reagenzien mit ein.

Projektinformation
Das Projekt wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (Förderkennzeichen: 01QE1721C) gefördert. Die Arbeiten wurden als EUROSTARS-Verbundvorhaben durchgeführt, welches aus dem deutschen Konsortium unter Führung der WATER-i.d GmbH, mit Beteiligung der Firma 420nm UG, dem Fraunhofer-Institut für Mikrotechnik und Mikrosysteme IMM sowie der britischen Firma Water Treatment Products Ltd und dem türkischen Partner ENELSA Endüstriyel Elektronik Ins bestand.

Wissenschaftliche Ansprechpartner:
Fraunhofer-Institut für Mikrotechnik und Mikrosysteme IMM
Rainer Gransee
Carl-Zeiss-Straße 18-20
55129 Mainz
Telefon +49 6131 990-219
rainer.gransee@imm.fraunhofer.de

Anhang
Mikrolabor auf einem Chip: Wasser gerne, aber bitte sauber

(nach oben)


Corona und Gesellschaft: Nur rund zwölf Prozent haben Verständnis für Querdenker

Florian Klebs Hochschulkommunikation
Universität HohenheimRepräsentative Online-Befragung der Universität Hohenheim zu Querdenker-Sympathisant:innen: Pessimistisch, systemkritisch und orientierungslos

Weitere Ergebnisse und Expert:innen zum Thema Corona-Krise und ihre Folgen unter https://www.uni-hohenheim.de/expertenliste-corona-krise
Nur eine Minderheit von zwölf Prozent der deutschen Internetnutzer:innen hat Verständnis für die so genannten Querdenker, rund drei Viertel stehen der Protestbewegung eher ablehnend gegenüber. Das zeigt eine repräsentative Online-Befragung der Universität Hohenheim in Stuttgart unter etwas mehr als 2.000 Internetnutzer:innen. Diejenigen, die mit den Querdenkern sympathisieren, ordnen sich stärker dem rechten politischen Spektrum zu und halten das deutsche gesellschaftliche und politische System für ungerecht. Zudem glauben sie, wenig politischen Einfluss ausüben zu können, haben geringes Vertrauen in Politik, Journalismus und Wissenschaft, und sie sehen ihre wirtschaftliche Zukunft bedroht. Sie informieren sich stärker in sozialen Medien als andere Internetnutzer:innen. Nachzulesen sind die Ergebnisse der Studie unter: https://www.db-thueringen.de/receive/dbt_mods_00049284

Viele Menschen, die die Corona-Maßnahmen kritisieren, sammeln sich in so genannten „Querdenker“-Gruppen. Sie fühlen sich in ihrer Freiheit eingeschränkt und protestieren bundesweit gegen die ergriffenen Mittel zur Eindämmung der Pandemie. Dabei fordern sie nicht nur die sofortige Aufhebung sämtlicher Maßnahmen, sondern kritisieren auch das politische System an sich.

Wer sind die Menschen, die mit diesen Gruppen sympathisieren, und was sind ihre Einstellungen und Überzeugungen? Mit dieser Frage haben sich Tilman Klawier und Dr. Fabian Prochazka an der Universität Hohenheim beschäftigt. Herausgekommen ist eine Studie, welche die politischen und gesellschaftlichen Einstellungen von Sympathisant:innen der „Querdenker“-Bewegung erfasst. In der repräsentativen Online-Befragung im Frühjahr 2021 äußerten sich etwas mehr als 2.000 Internetnutzer:innen zu ihren Einstellungen und ihrem Verständnis für die Proteste der „Querdenker“.

Pessimistische Sicht der wirtschaftlichen Situation, systemkritisch und orientierungslos
Insgesamt gehören zu denjenigen, die mit den Querdenkern sympathisieren, ähnlich viele Männer wie Frauen. Auch hinsichtlich des Alters gibt es kaum Unterschiede zum Durchschnitt der Bevölkerung. „Unter ihnen finden wir überproportional viele Menschen, die sowohl ihre eigene als auch die wirtschaftliche Zukunft Deutschland eher pessimistisch sehen“, fasst Tilman Klawier ein Ergebnis der Studie zusammen. „So gehen 40 Prozent davon aus, dass sich ihre wirtschaftliche Situation verschlechtern werde. Bei allen Befragten sind dies nur 28 Prozent.“

Die Forscher interessierten sich auch dafür, inwiefern die Menschen die deutsche Politik und Gesellschaft als gerecht empfinden und wie groß das Gefühl der Orientierungslosigkeit und Undurchschaubarkeit gesellschaftlicher Entwicklungen bei den Befragten ist. Im Durchschnitt sehen alle Befragten das politische und gesellschaftliche System eher kritisch, bei den Querdenker-Sympathisant:innen ist diese Einstellung allerdings besonders ausgeprägt. Dazu kommt bei ihnen noch ein etwas stärkeres Gefühl der Orientierungslosigkeit.

„So hat es uns auch nicht überrascht, dass diese Menschen tendenziell weniger Vertrauen in Wissenschaft, Politik und Journalismus haben,“ sagt Dr. Fabian Prochazka, der vor Kurzem auf eine Juniorprofessur an die Universität Erfurt gewechselt ist. „Wobei das Vertrauen in Politikerinnen und Politiker besonders niedrig ist. Querdenker-Sympathisantinnen und -Sympathisanten glauben zwar häufiger, politische Prozesse zu verstehen, aber sie sehen sich weniger in der Lage, auch Einfluss zu nehmen.“

Menschen, die mit Querdenkern sympathisieren, ordnen sich selbst deutlich häufiger rechts der politischen Mitte ein als die Gesamtheit der befragten Internetnutzer:innen. Dagegen ist der linke Rand des politischen Spektrums unter den Querdenker-Sympathisant:innen etwas geringer ausgeprägt. Das spiegelt sich auch im Wahlverhalten wider: AfD-Wählende sind unter ihnen am stärksten vertreten, während Wählerinnen und Wähler der Unionsparteien, der SPD und der Grünen unterrepräsentiert sind. „Interessant für uns war aber auch, dass sich fast jede vierte Person, die mit den Querdenkern sympathisiert, nicht im Links-Rechts-Spektrum einordnen kann oder will“, sagt Tilman Klawier.

Die Sicht der Querdenker-Sympathisant:innen auf Corona
Querdenker-Sympathisant:innen sind deutlich weniger bereit sich gegen COVID-19 impfen zu lassen. Umgekehrt lehnen aber auch nicht alle Menschen, die Verständnis für die Querdenker zeigen, eine Impfung ab. Immerhin 15 Prozent von ihnen hatten Anfang 2021 eine hohe Impfbereitschaft, weitere 14 Prozent waren unentschlossen. Ebenso äußern nicht alle Personen mit mangelnder Impfbereitschaft auch Verständnis für die Querdenker.

Besonders ausgeprägt bei den Sympathisant:innen von Querdenkern im Vergleich zu allen Internet-Nutzer:innen ist die Überzeugung, dass Corona nicht schlimmer als eine Grippe und Mund-Nasen-Masken schädlich für die Menschen seien. Aussagen wie „Mit der Corona-Impfung sollen den Menschen Mikrochips implantiert werden“ und „5G-Masten verbreiten das Coronavirus“ finden aber auch bei ihnen wenig Zustimmung. Allerdings ist unter Querdenker-Sympathisant:innen der Glaube an übernatürliche Kräfte und spirituelle Erfahrungen etwas stärker ausgeprägt als im Mittel bei allen Befragten.

Die Rolle der Medien
Querdenker-Sympathisant:innen nutzen seltener Fernsehen, Zeitungen und Nachrichtenwebsites als alle befragten Internetnutzer:innen. Über das politische Geschehen informieren sie sich hingegen häufiger in den sozialen Medien. Insbesondere der Instant-Messaging-Dienst Telegram dient hier als Nachrichtenkanal. Andere Medienangebote, die während der Corona-Pandemie kritisch über die Schutzmaßnahmen der Regierung berichteten, sind unter Querdenker-Sympathisant:innen im Vergleich zur Gesamtbevölkerung zwar deutlich bekannter, aber der Anteil der Nutzer:innen ist dennoch relativ gering. Ebenso folgt in den sozialen Medien nur eine Minderheit Personen, die öffentlich fundamentale Kritik an den Corona-Schutzmaßnahmen der Bundesregierung üben.

Weitere Informationen:
Link zur Studie: Klawier, Tilman / Prochazka, Fabian (2021): Wer hat Verständnis für die „Querdenker“? Ergebnisse einer repräsentativen Befragung. Online unter: https://www.db-thueringen.de/receive/dbt_mods_00049284

Expertenliste: Corona-Krise und ihre Folgen
Die weltweite Corona-Pandemie hat bereits jetzt einschneidende Folgen: der Bildungssektor, die Wirtschaft, die Arbeitswelt allgemein, aber auch das menschliche Miteinander werden voraussichtlich auch nach der Krise anders sein als vorher. Um damit sinnvoll umgehen zu können, sind sowohl in der Krise selbst als auch für die Zeit danach wissenschaftliche Fakten wichtiger denn je. Expertinnen und Experten der Universität Hohenheim informieren über die verschiedenen Aspekte der Corona-Krise und ihre Folgen. Ergebnisse und Experten: https://www.uni-hohenheim.de/expertenliste-corona-krise.
Text: Stuhlemmer

Wissenschaftliche Ansprechpartner:
M.A. Tilman Klawier, Universität Hohenheim, Fachgebiet Kommunikationswissenschaft, insbesondere interaktive Medien- und Onlinekommunikation
T +49 (0)711 459-24478, E tilman.klawier@uni-hohenheim.de

(nach oben)


Kohlendioxidausstoß bei der Zementproduktion kann langfristig drastisch reduziert werden

Kathrin Voigt Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Mainzer Chemiker entwickeln Methode zur Herstellung von Zement durch Vermahlen anstelle des umweltschädlichen Brennens von Kalk / Überführung vom Labormaßstab auf industrielles Niveau denkbar

Globale Erwärmung und bezahlbares Wohnen sind zwei dominierende Themen der öffentlichen Debatte. Klimaschutz erreicht man durch Reduktion des Treibhausgases Kohlendioxid (CO₂). Wohnraum schafft man durch verstärkten Wohnungsbau. Dazu braucht es Beton, den wichtigsten Baustoff unserer modernen Welt. Beton erscheint auf den ersten Blick unproblematisch: Er enthält keinerlei fossile Brennstoffe, er ist ungiftig und schwimmt nicht als Plastikmüll in den Ozeanen. Aber der Eindruck täuscht, denn die Zementherstellung ist derzeit mit einem Anteil von rund 8 Prozent beziehungsweise 2,7 Milliarden Tonnen jährlich der größte industrielle Emittent an den weltweiten CO₂-Emissionen, die durch die Verbrennung fossiler Brennstoffe – meist Kohle – beim Brennen mit Temperaturen um 1.000 Grad Celsius und Sintern bei etwa 1.450 Grad Celsius entstehen.

Beton ist vielseitig einsetzbar, preiswert, sprichwörtlich hart und er lässt sich in fast jede beliebige Form gießen. Er besteht im Prinzip nur aus Sand, Kies, Wasser und dem Bindemittel Zement, der wiederum aus Kalk, Ton und einigen anderen Komponenten gebrannt wird und beim Aushärten stabile Kalziumsilikat-Hydrate bildet, die für die Eigenschaften des Betons verantwortlich sind.

Im Brennen des Kalks (CaCO₃) liegt jedoch genau das Problem, denn hier wird für jedes produzierte Molekül Kalziumoxid (CaO), den sogenannten „gebrannten Kalk“, ein Molekül des Treibhausgases CO₂ freigesetzt. Bei einer Weltjahresproduktion von rund 4,5 Milliarden Tonnen Zement sind das immerhin rund 2,7 Milliarden Tonnen CO₂. Dies entspricht etwa der Hälfte der CO₂-Emissionen aus dem Verkehr. China ist für etwa 50 Prozent, Deutschland für circa 1,5 Prozent der Emissionen durch die Zementproduktion verantwortlich.

Klimaschädliches Kalkbrennen wird durch Vermahlen des Rohkalks mit Natriumsilikat umgangen
Chemiker der Johannes Gutenberg-Universität Mainz (JGU) haben nun eine Methode entwickelt, die den CO₂-Ausstoß der Zementproduktion langfristig drastisch reduzieren könnte. Dabei wird der Rohkalk (CaCO₃) nicht mehr in kohlenbefeuerten Brennöfen in gebrannten Kalk überführt, sondern lediglich mit festem Natriumsilikat (Na₂SiO₃) vermahlen. Durch diesen Mahlschritt wird ein „aktiviertes“ Zwischenprodukt hergestellt, das die Bestandteile des Zements in gleichmäßiger Verteilung enthält. Bei der Umsetzung mit Natronlauge bildet sich ein Produkt, das in seiner Struktur den Kalziumsilikat-Hydraten gleicht. Die Bildung der Zementpaste und das Abbinden mit Wasser laufen über eine komplexe Reaktionskaskade ab, deren Elementarschritte mit Hightechmethoden analytisch aufgeklärt werden konnten.

Während das Brennen des Kalks Temperaturen von 1.000 bis 1.500 Grad Celsius erfordert, läuft der Mahlschritt bei Raumtemperatur ab. Der mechanische Energieeintrag zur Mahlung konventionellen Zements beträgt mit 120 Kilowattstunden pro Tonne lediglich etwa 10 Prozent der Energie, die für den Brennprozess aufgebracht wird. Dies entspricht jedoch nur der Energieeinsparung – und dem damit verbundenen Ausstoß von CO₂ – durch Verbrennung fossiler Brennstoffe bei der Zementherstellung. Viel wichtiger aber ist, dass durch Umgehung des Kalkbrennens im Idealfall CO₂-Emissionen im Milliarden-Tonnen-Bereich umgangen werden könnten. Da das Mahlen ein Standardverfahren in der Zementindustrie ist, wäre die Umsetzung des Verfahrens vom Labormaßstab in industrielle Größenordnung denkbar.

Verfahren ist potenziell für großtechnische Herstellung geeignet
Die Mainzer Chemiker räumen allerdings ein, dass die Kosten- und Energieabschätzung lediglich grobe Näherungen sind und Laboruntersuchungen nicht mit einem industriellen Prozess verglichen werden können, bei dem Entwicklung, Design, Durchführbarkeit, Wartung und andere Parameter berücksichtigt werden müssen. Doch dafür sei viel Entwicklungsarbeit nötig. „Es kann sich hier um einen ersten Schritt für eine nicht-konventionelle Art der Zementherstellung, aber nicht die voll entwickelte Lösung handeln“, betont Erstautor Marcel Maslyk.

Ähnlich sehen dies auch Prof. Dr. Wolfgang Tremel und Dr. Ute Kolb von der JGU: „Das Verfahren ist potenziell geeignet, Zement für großtechnische Prozesse herzustellen“, so die beiden Gruppenleiter. „Eine Durchführung im technischen Maßstab würde aber viele Jahre benötigen und damit weder kurz- noch mittelfristig Abhilfe bei den CO₂-Emissionen schaffen können.“

Bildmaterial:
https://download.uni-mainz.de/presse/09_chemie_zementproduktion_konventionell.jp…
Konventionelle Herstellung von Zement durch Brennen von Kalk (CaCO₃) und Sand (SiO₂): Bei der Reaktion wird Kohlendioxid (CO₂) freigesetzt.

https://download.uni-mainz.de/presse/09_chemie_zementproduktion_alternativ.jpg
Neue alternative Herstellung von Zement durch Mahlen von Kalk (CaCO₃) und Sand (SiO₂): Kohlendioxid (CO₂) bleibt gebunden.

Weiterführende Links:
https://www.ak-tremel.chemie.uni-mainz.de/ – AK Wolfgang Tremel ;
https://www.ak-kolb.chemistry.uni-mainz.de/ – AK Ute Kolb ;
https://www.fb09.uni-mainz.de/department-chemie/ – Department Chemie an der JGU

Lesen Sie mehr:
https://www.uni-mainz.de/presse/77344.php – Pressemitteilung „Abwehrmechanismus von Algen schützt zuverlässig vor marinem Fouling“ (21.12.2016) ;
https://www.uni-mainz.de/presse/60990.php – Pressemitteilung „Künstliches Enzym kann natürlichen Entgiftungsmechanismus in Leberzellen imitieren“ (04.06.2014) ;
https://www.uni-mainz.de/presse/55401.php – Pressemitteilung „Mainzer Wissenschaftler erzeugen neuartiges flexibles Mineral inspiriert von Tiefseeschwämmen“ (15.03.2013) ;
https://www.uni-mainz.de/presse/52490.php – Pressemitteilung „Von der Natur inspiriert: Lacke mit bakteriziden Nanopartikeln gegen marines Fouling“ (02.07.2012)

Wissenschaftliche Ansprechpartner:
Prof. Dr. Wolfgang Tremel
Anorganische Nanomaterialien und Biomaterialien, Heterogene Katalyse
Department Chemie
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-25135 oder 39-25333
Fax: +49 6131 39-25605
E-Mail: tremel@uni-mainz.de
https://www.ak-tremel.chemie.uni-mainz.de/head-of-the-group/

Originalpublikation:
M. Maslyk et al., Multistep Crystallization Pathways in the Ambient-Temperature Synthesis of a New Alkali-Activated Binder, Advanced Functional Materials, 1. November 2021,
DOI: 10.1002/adfm.202108126
https://onlinelibrary.wiley.com/doi/10.1002/adfm.202108126

(nach oben)


Es geht darum, Menschen mit Wasser zu versorgen – Ein Videoportrait über den Wasserbau-Experten Franz Nestmann

Jorinne Sturm Presse- und Öffentlichkeitsarbeit
Hector Fellow Academy (HFA) gGmbH
Karlsruhe: In einem neuen Videoporträt stellt die Hector Fellow Academy den Experten für Strömungsmechanik und Wasserbau, Prof. Dr.-Ing. Franz Nestmann, vor. Nestmann leitete bis 2021 das Institut für Wasser- und Gewässerdynamik am Karlsruher Institut für Technologie (KIT). 2009 erhielt er den Hector Wissenschaftspreis, seit 2013 ist er Mitglied der Hector Fellow Academy. Im Zentrum von Nestmanns wissenschaftlichen Arbeit steht Wasser – als Basis für Ernährung und Energieversorgung sowie als Transportmittel und ökologischem Lebensraum. Der Film ist seit gestern auf dem YouTube-Kanal der Academy verfügbar (https://youtu.be/Cr2TPexP1UU)

Franz Nestmann ist ein international anerkannter Experte für Wasserbau. Seine wissenschaftlichen Ergebnisse kommen beim Bau von Wasserkraftwerken ebenso zum Einsatz wie beim ökologisch verträglichen Ausbau von Flüssen als Wasserstraßen oder auch bei der Trinkwasserversorgung in entlegenen Weltregionen. Die theoretischen Erkenntnisse für die praktischen Anwendungen erarbeitet Nestmann mit seinen Institutsmitarbeiter*innen in Karlsruhe.

Zu ihnen gehört auch der Doktorand Andreas Müller, dessen Promotionsstelle mit Hilfe der Hector Fellow Academy finanziert wird. Müller erforscht, wie Flusseinbauten – so genannte Lenkbuhnen – Gewässer strukturieren und die Flussufer schützen können. „Durch eine gute Gewässerstruktur bekommen beispielsweise Fische unterschiedliche Lebensräume geboten: flaches oder tiefes Wasser, Bereiche mit schneller und solche mit langsamer Strömung“, sagt Müller: „So werden ausgebaute, monotone Fließgewässer zu ökologisch wertvollen Lebensräumen.“

Anwendung finden die Forschungsergebnisse aus Nestmanns Institut nicht nur in Deutschland, sondern weltweit. Die Erkenntnisse aus dem Kraftwerksbau überträgt der Ingenieur beispielsweise auf kleine Wasserkraftwerke in Vietnam. Sie stellen die regenerative Energie für die Trinkwasserversorgung in entlegenen Gebirgsregionen zur Verfügung. „Dank des Hector Fellow Wissenschaftspreises hat meine Arbeit auch in Asien an Bekanntheit gewonnen“, sagt Nestmann: „Das war ein wesentlicher Grundstein dafür, dass wir in diesen Ländern aktiv werden und einen Beitrag zur Wasserversorgung der Bevölkerung leisten konnten.“ Das Thema hat für Nestmann große Bedeutung, wie er sagt: „Bei einer wachsenden Weltbevölkerung wird es zu allererst darum gehen, die Menschen mit Wasser zu versorgen und mit Lebensmitteln.“

In regelmäßigen Abständen stellt die Hector Fellow Academy ihre Mitglieder in Videoportraits vor. Hierin geben die Wissenschaftler*innen einen allgemeinverständlichen Einblick in ihre Forschung und ihre Motivation. In jedem Jahr wird die oder der neue Preisträger*in portraitiert; zudem entsteht im Zusammenhang mit dem jährlich stattfindenden HFA-Symposium zu wechselnden gesellschaftspolitisch relevanten Themen jeweils ein neuer Hector Fellow-Film. Sämtliche Videos über die Hector Fellows sind auf dem YouTube-Kanal der Hector Fellow Academy unter https://www.youtube.com/channel/UCqxMrca-TYq6EzaJjtWW-kg zu finden.

Über die Hector Fellow Academy
Im Jahr 2013 hat Hans-Werner Hector, einer der Gründer des Softwareunternehmens SAP, die Hector Fellow Academy ins Leben gerufen. Sein Ziel: den Forschungs- und Wissenschaftsstandort Deutschland zu stärken, zukunftsweisende gesellschaftspolitische Diskurse in Gang zu setzen und zur Lösung globaler Herausforderungen beizutragen. Mittlerweile haben 25 herausragende Forscher*innen aus den Natur- und Ingenieurwissenschaften sowie aus Medizin und Psychologie den einmal jährlich vergebenen Hector Wissenschaftspreis erhalten. Die Preisträger*innen waren zum Zeitpunkt ihrer Ehrung an einer deutschen Universität oder Forschungseinrichtung tätig. Die Wissenschaftsakademie bietet diesen Hector Fellows nicht nur eine Plattform zum Austausch und Förderung für gemeinsame interdisziplinäre Forschungsprojekte. Sie hat es sich auch zur Aufgabe gemacht, den Erfahrungsschatz ihrer Mitglieder an die nächste Generation weiterzugeben. Dazu finanziert die Hector Fellow Academy Promotionsstellen von Absolvent*innen mit überdurchschnittlichem Master-Abschluss und hat den Hector Research Career Development Award (Hector RCD Award) ins Leben gerufen. Weitere Informationen: https://www.hector-fellow-academy.de

Weitere Informationen:
https://www.hector-fellow-academy.de/hector-fellows/profile/franz-nestmann.html

(nach oben)


Nur jeder zweite Beschäftigte sieht das eigene Unternehmen für die neue Arbeitswelt gerüstet

Hendrik Baumann Pressestelle
Bertelsmann Stiftung
Nach anderthalb Jahren Pandemie vermissen viele Arbeitnehmer:innen von ihrem
Unternehmen noch immer einen klaren Plan für die Zukunft. Die Zufriedenheit mit dem Homeoffice bleibt auf hohem Niveau, doch es zeigen sich auch negative Folgen des flexiblen Arbeitens. Frauen beklagen häufiger als Männer eine Verschlechterung der beruflichen Situation.

Gütersloh, 12. November 2021. Nach Ansicht ihrer Beschäftigten verfügen noch immer zu wenige Unternehmen in Deutschland über eine erkennbare Strategie für die neue Arbeitswelt. Wie eine repräsentative Ipsos-Umfrage im Auftrag der Bertelsmann Stiftung ermittelte, sind mit 52 Prozent nur rund die Hälfte der Arbeitnehmer:innen der Auffassung, dass ihr Unternehmen eine klare Position zur Gestaltung der künftigen Arbeitsprozesse habe. Der Wert stimmt umso bedenklicher, da sich seit der vorangegangenen Befragung im Dezember 2020 keine Veränderungen zeigen. Damals hatten ebenfalls nur 50 Prozent ihrem Unternehmen attestiert, einen Plan für die Zukunft zu besitzen. „Offenbar sind sich viele Unternehmen auch nach anderthalb Jahren Pandemie noch immer nicht darüber im Klaren, wie das Arbeiten unter den flexiblen und digitalisierten Bedingungen erfolgen soll. Diese Unentschlossenheit verunsichert einen großen Teil der Belegschaft und kann das Fundament der Unternehmenskultur erschüttern“, sagt Jörg Habich, Experte für Führungsfragen der Bertelsmann Stiftung.

Ungeachtet der Zukunftsskepsis deuten die Ergebnisse darauf hin, dass sich die Arbeitnehmer:innen mit der „neuen Normalität“ längst arrangiert haben. Jeweils 70 Prozent der Befragten geben an, dass sich die Beziehung zu Kolleg:innen und zur Führungskraft sowie die Wahrnehmung der Unternehmenskultur seit Ausbruch der Corona-Krise nicht verändert hätten. Generell treten dabei keine großen Unterschiede zwischen den Beschäftigten vor Ort und denen im Homeoffice auf – doch im Detail gibt es auffällige Abweichungen. So empfinden Mitarbeiter:innen im Homeoffice die Situation in den Bereichen Work-Life-Balance, Wohlbefinden, Motivation, Arbeitsbelastung und Produktivität nach wie vor etwas positiver als die Kolleg:innen, die weiterhin am Arbeitsplatz beschäftigt sind. Zugleich fällt es den Beschäftigten im Homeoffice schwerer, die sozialen Beziehungen am Arbeitsplatz zu pflegen sowie den Kontakt zu anderen Teams aufrechtzuerhalten. Insgesamt ist die Zufriedenheit mit der Tätigkeit im Homeoffice seit Ende 2020 von 80 auf 88 Prozent angestiegen.

Veränderte Arbeitsbedingungen bringen Nachteile für Frauen mit sich
In den Umfragedaten zeichnen sich allerdings auch die negativen Auswirkungen ab, die mit der flexiblen Arbeitswelt einhergehen. So fällt es insgesamt knapp jedem Zweiten schwer, nach der Arbeit abzuschalten sowie Beruf und Privatleben zu trennen. Vor allem jüngere Arbeitnehmer:innen unter 35 Jahren berichten verstärkt von höherem Leistungsdruck und einer Verschlechterung der Work-Life-Balance. „Die Unternehmen sind gefordert, auf diese wachsende Entgrenzung zu reagieren. Sie können ihre Beschäftigten beispielsweise durch Informations- und Coachingangebote unterstützen. Außerdem ist es sehr wichtig, dass die Führungskräfte diese Probleme wahrnehmen und gemeinsam mit den Mitarbeitenden nach Lösungen suchen“, erklärt Ingrid Feinstein, Director für Employee Research bei der Ipsos GmbH.

Wie die Befragung zeigt, bringt der Wandel der Arbeitsbedingungen insbesondere für Frauen Schwierigkeiten mit sich. Sie geben öfter als Männer an, dass sich Arbeitsbelastung, Wohlbefinden und Produktivität verschlechtert hätten. Zudem äußern sie häufiger Zweifel, ob die Gleichbehandlung in ihrem Unternehmen weiter vorangetrieben wird. Dieses Thema ist ihnen bei der Wahl des Arbeitgebers wichtiger als Männern, während die Aspekte Weiterbildung und Karriere für sie eine geringere Rolle spielen. Bereits Ende 2020 hatte eine Befragung der Bertelsmann Stiftung ergeben, dass Frauen in der Corona-Situation in die traditionelle Aufgabenteilung zurückzufallen drohen. Die Kombination aus höherer Belastung sowie dem Zurückstellen der beruflichen Ambitionen sei für Frauen ein großes Hindernis auf dem Weg zu mehr Gleichberechtigung, warnen die Expert:innen der Bertelsmann Stiftung.

„Wettbewerbsvorteil im Kampf um Talente“
Trotz der Defizite und Anpassungsschwierigkeiten haben sich die Arbeitnehmer:innen im Großen und Ganzen an die neuen Rahmenbedingungen gewöhnt. „Die Unternehmen können die neu gewonnene Flexibilität nicht zurücknehmen. Daher müssen sie sich endlich konsequent mit der Frage beschäftigen, wie zukunftsfähige Modelle der Zusammenarbeit in ihrer jeweiligen Organisation gestaltet sein müssen und wie sie umzusetzen sind“, rät Jörg Habich. Aus Sicht des Experten sind dabei weniger die Technik und die Prozesse auschlaggebend für den Erfolg, sondern vielmehr die unternehmenskulturellen und strategischen Weichenstellungen. „Die intelligente Einbettung flexibler Arbeitszeiten und Büroraumkonzepte in die Unternehmenskultur stellt einen zunehmenden Wettbewerbsvorteil im Kampf um Talente dar. Hier wird auch das Homeoffice noch viel zu selten als strategische Option, zum Beispiel für das Personalmarketing, betrachtet“, sagt Habich. Daher sollten sich Personalabteilungen viel stärker in die Transformation einbringen und Ideen entwickeln, wo und vor allem wie der soziale Austausch der Beschäftigten künftig stattfindet. Von zentraler Bedeutung sei es auch, Führungskräfte gezielt für die veränderten Aufgaben in einer mobilen und digitalen Arbeitswelt sowie für ihre wichtiger werdende Rolle als Moderator:innen zu befähigen.

Zusatzinformationen
Für die Studie hat das Markt- und Meinungsforschungsunternehmen Ipsos im Juni 2021 insgesamt 1.250 Arbeitnehmer:innen zwischen 18 und 65 Jahren aus unterschiedlichen Branchen befragt. 48 Prozent der Befragten waren männlich, der Altersdurchschnitt lag bei 49 Jahren. 18 Prozent haben gemäß eigenen Angaben eine Führungsverantwortung inne. 22 Prozent sind in Teilzeit beschäftigt. 38 Prozent gaben an, dass sie zumindest teilweise im Home-Office arbeiten. Die Verteilungen können als repräsentativ für die Unternehmenslandschaft in Deutschland angesehen werden.

Unser Experte:
Jörg Habich, Telefon: 0 52 41 81 81 277
E-Mail: joerg.habich@bertelsmann-stiftung.de

Weitere Informationen:
http://www.bertelsmann-stiftung.de

(nach oben)


Menschliche Einflüsse verändern ein ozeanweites Naturgesetz

Jana Gregor Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Mathematik in den Naturwissenschaften (MPIMIS)
Im Rahmen einer weltweiten Kooperation haben Umweltwissenschaftler erstmals in globalem
Maßstab die gleichmäßige Verteilung der Meeresbiomasse auf verschiedene Größenklassen – von Bakterien bis zu Walen – untersucht. Durch Quantifizierung des Ausmaßes menschlicher Einflüsse auf dieses Ökosystem zeigt sich eine dramatische Verschiebung einer der bedeutendsten Größenordnungen der Natur.

Zurzeit treffen sich die politischen Entscheidungsträger in Glasgow zur 26. UN-Klimakonferenz, und vor wenigen Wochen fand die UN-Konferenz zur biologischen Vielfalt statt. Das weltweite Interesse an diesen internationalen Konferenzen unterstreicht den dringenden Handlungsbedarf, wenn es um die menschlichen Einflüsse auf das Klima und die biologische Vielfalt geht. Der Zusammenhang zur Biomasse, also der Gesamtmasse aller Organismen, und den anthropogenen Einflüssen auf sie ist jedoch noch weitgehend unerforscht, insbesondere im Zusammenhang mit den Ozeanen, die den größten Teil unseres Planeten bedecken. Wissenschaftler des Max-Planck-Instituts für Mathematik in den Naturwissenschaften (Deutschland), des Institut de Ciència i Tecnologia Ambientals (Spanien), der Queensland University of Technology (Australien), des Weizmann Institute of Science (Israel) und der McGill University (Kanada) haben aktuelle wissenschaftliche Daten in der Ozeanbeobachtung und Meta-Analysen genutzt, um aufzuzeigen, dass das menschliche Handeln bereits einen massiven Einfluss auf die größeren Arten im Ozean hat und eines der größten Muster des Lebens grundlegend verändert hat – ein Muster, das die gesamte biologische Vielfalt des Ozeans umfasst, von Bakterien bis zu Walen. Ihre aktuellen Forschungsergebnisse wurden in der aktuellen Ausgabe der Science Advances veröffentlicht.

Messungen der Menge an Meeresplankton in den 1970er Jahren veranlassten die Forscher damals zu der Annahme, dass die Biomasse in allen Größenordnungen in etwa gleich groß ist: Bakterien sind zwar 23 Größenordnungen kleiner als ein Blauwal, aber sie sind auch 23 Größenordnungen zahlreicher. Diese Hypothese des Größenspektrums ist seither unbeanstandet geblieben, auch wenn sie nie in einem globalen Maßstab verifiziert wurde. Die Autoren nahmen sich vor, diese seit langem bestehende Hypothese zum ersten Mal für alle Meeresbewohner zu untersuchen. Sie verwendeten historische Rekonstruktionen und Modelle des marinen Ökosystems, um die Biomasse vor industriellen Aktivitäten (vor 1850) einzuschätzen, und verglichen diese Daten mit der heutigen Zeit. „Es war eine Herausforderung, diese Messungen über einen so großen Maßstab hinweg angemessen zu vergleichen“, erinnert sich der Alexander von Humboldt-Forschungsstipendiat Dr. Ian Hatton, Hauptautor der Studie. „Während kleine Wasserorganismen anhand von mehr als 200.000 weltweit gesammelten Wasserproben ermittelt werden, können größere Meereslebewesen ganze Ozeanbecken durchqueren und müssen mit vollkommen anderen Methoden erfasst werden.“

Ihr Vorgehen ermöglichte es den Forschenden, 12 Hauptgruppen von Wasserlebewesen über etwa 33000 1°-Gitterpunkte des gesamten Ozeans zu identifizieren. Die Auswertung der „unberührten“ Ozeanbedingungen (vor 1850) bestätigte im Wesentlichen die ursprüngliche Hypothese: Es gibt eine bemerkenswert konstante Biomasse von etwa 1 Gigatonne in jeder der 23 Größenklassen, die sich über eine Größenordnung erstrecken. Allerdings existieren in beiden Extrembereichen auch Abweichungen. Während Bakterien in den kalten und dunklen Teilen des Ozeans reichlich vorhanden sind, sind die größten Wale relativ selten, was eine Abgrenzung zur ursprünglichen Hypothese darstellt.

Im Gegensatz zu einem weitgehend konstanten Biomasse-Spektrum im unberührten Ozean ergab eine Untersuchung des Spektrums in der heutigen Zeit eine neue Perspektive auf die Auswirkungen des Menschen auf die Biomasse des Ozeans. Obwohl Fischerei und Walfang nur weniger als 3 Prozent des menschlichen Nahrungsbedarfs ausmachen, sind ihre Auswirkungen auf das Biomasse-Spektrum verheerend: Große Fische und Meeressäuger wie Delfine haben einen Verlust an Biomasse von 2 Gt (60 % Rückgang) erlitten, wobei die größten Wale eine beunruhigende Dezimierung von fast 90 % erfahren haben. Die Autoren schätzen, dass diese Verluste bereits jetzt die potenziellen Rückgänge der Biomasse selbst unter extremen Klimawandelszenarien übersteigen.

„Der Mensch ist zweifellos zum größten Raubtier des Meeresökosystems geworden, aber es scheint wahrscheinlich, dass wir das System weit mehr beeinflusst haben, als nur die größten Fische zu entfernen. Unser Gesamtverhalten in den letzten 200 Jahren hat möglicherweise bis zu zwei Größenordnungen mehr Energie entzogen als die eliminierten Fische“, so Dr. Hatton. Daraus lässt sich schließen, dass der Mensch nicht nur die größten Raubtiere im Meer ersetzt hat, sondern auch den Energiefluss im Meeresökosystem erheblich verändert hat. Die von den Wissenschaftlern vorgelegten Ergebnisse haben den bedeutenden Einfluss des Menschen auf die Verteilung der Biomasse über die verschiedenen Größenbereiche quantifiziert und verdeutlichen das Ausmaß, in dem anthropogene Aktivitäten das Leben auf globaler Ebene verändert haben.

Wissenschaftliche Ansprechpartner:
Dr. Ian Hatton
mailto:i.a.hatton@gmail.com

Originalpublikation:
Ian A. Hatton, Ryan F. Heneghan, Yinon M. Bar-On, and Eric D. Galbraith
The global ocean size-spectrum from bacteria to whales
Science Advances • 10 Nov 2021 • Vol 7, Issue 46 •
DOI: 10.1126/sciadv.abh3732

(nach oben)


Vulkane sind mitschuldig am Zusammenbruch chinesischer Dynastien

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Vulkanausbrüche haben in den letzten 2000 Jahren regelmässig zum Sturz chinesischer Dynastien beigetragen. Eine interdisziplinäre Studie unter Beteiligung der Universität Bern hat erstmals vulkanische Klimaschocks eindeutig als eine der Ursachen für die Zusammenbrüche identifiziert.

Wenn Vulkane ausbrechen, hat das einschneidende Folgen fürs Klima – und damit für die Gesellschaft. Grosse Eruptionen erzeugen eine Schwefelsäurewolke, die ein oder zwei Jahre lang einen Teil des Sonnenlichts blockiert. In Asien kann das unter anderem zu kalten Sommern im Norden und einem schwächeren Monsun und damit zu weniger Niederschlag im Süden führen, was beides die Ernteerträge verringert.

Welch dramatische Folgen die vorübergehende Abkühlung und die schlechten Ernten in China während den beiden letzten Jahrtausenden hatten, zeigt eine internationale Studie, die soeben in der Fachzeitschrift «Communications Earth & Environment» erschienen ist. Erarbeitet wurde sie von Forschenden aus den Bereichen Geschichte, Klimaforschung, Vulkanologie sowie von Eiskernspezialistinnen und -spezialisten. Von der Universität Bern war Michael Sigl, Assistenzprofessor für Klima- und Umweltphysik und Mitglied des Oeschger-Zentrums für Klimaforschung an der Untersuchung beteiligt. Er sagt: «Wir konnten zum ersten Mal zeigen, dass es in China nach Vulkanausbrüchen deutlich wahrscheinlicher war, dass Dynastien zusammenbrachen. Diese Ursache hat System.»

Allerdings, so gibt Umweltchemiker Michael Sigl zu bedenken, seien die Zusammenhänge und Wechselwirkungen komplex: Einerseits sind Dynastien anfälliger für einen Zusammenbruch, wenn es bereits Kriege und Konflikte gibt. Andererseits werden Konflikte wahrscheinlicher, wenn eine klimatische Abkühlung zu Missernten führt. Kommt dazu: «Grössere Eruptionen können zu einer doppelten Gefährdung der Ernte durch ausgeprägte Kälte und Trockenheit während der Wachstumsperiode führen.» Die Auswirkungen könnten durch Folgen wie Viehsterben, beschleunigte Bodendegradation und höhere Ernteschäden durch Schädlinge noch verschlimmert werden.

Rekonstruktion mit Hilfe von Eisbohrkernen
Die Forschenden rekonstruierten insgesamt 156 explosive Vulkanausbrüche von 1 n. Chr. bis 1915. Sie stützen sich dabei auf Eisbohrkerne aus Grönland und der Antarktis, in denen sie erhöhte Schwefelkonzentrationen nachwiesen und datierten. Parallel dazu wurden historische Dokumente aus China zu 68 Dynastien analysiert. Bis vor wenigen Jahren konnten Eiskerne aus den Polarregionen noch nicht mit der nötigen Genauigkeit datiert werden, um den Zusammenhang zwischen Eruptionen und den gesellschaftlichen Umbrüchen klar zu erkennen. Heute aber lassen sich erhöhte Schwefelkonzentrationen für die letzten 2000 Jahre auf zwei Jahre genau bestimmen.

Der Vergleich von Daten aus historischen Quellen und Umweltarchiven führte zu differenzierten Resultaten. Die Forschenden zeigen, dass kleinere, von Vulkanen ausgelöste Klimaschocks zum Zusammenbruch von Dynastien führen können, falls der politische und sozioökonomische Druck auf ein politisches Regime bereits hoch ist. Grössere Schocks hingegen können zu Untergang führen, auch wenn zuvor kein erheblicher Stress vorhanden ist. Weitere Faktoren, die zum Zusammenbruch einer Dynastie beitragen, sind schlechte Führung, Korruption in der Verwaltung und demografischer Druck.

Klimawandel verstärkt gesellschaftlich Folgen von Vulkanausbrüchen
Was lässt sich aus der Rolle, die vergangene Vulkanausbrüche für gesellschaftliche Umwälzungen gespielt haben, für die Gegenwart lernen? «Die Eruptionen im 20. und 21. Jahrhundert waren viel kleiner und seltener als viele der Ausbrüche im kaiserlichen China», erklärt Michael Sigl, «aber auch solche Vulkanereignisse können grosse Folgen haben.» So könnten etwa die lediglich mässigen Eruptionen in den 1970er bis 1990er Jahren zusammen mit menschlichen industriellen Schwefelemissionen zu Dürren in der Sahelzone beigetragen haben. Sie forderten in dieser wirtschaftlich marginalisierten Region rund 250’000 Todesopfer und trieben 10 Millionen Menschen in die Flucht. Entsprechend gehen die Autorinnen und Autoren der Studie davon aus, dass künftige grössere Eruptionen in Verbindung mit dem Klimawandel in einigen der bevölkerungsreichsten und am stärksten marginalisierten Regionen der Erde tiefgreifende Auswirkungen auf die Landwirtschaft haben könnten.

Das Oeschger-Zentrum für Klimaforschung (OCCR)
Das Oeschger-Zentrum ist eines der strategischen Zentren der Universität Bern. Es ist ein führendes Klimaforschungszentrum und bringt Forscherinnen und Forscher aus 14 Instituten und vier Fakultäten zusammen. Das OCCR forscht interdisziplinär an vorderster Front der Klimawissenschaften. Das Oeschger-Zentrum wurde 2007 gegründet und trägt den Namen von Hans Oeschger (1927-1998), einem Pionier der modernen Klimaforschung, der in Bern tätig war.

Wissenschaftliche Ansprechpartner:
PROF. DR. MICHAEL SIGL
Physikalisches Institut, Klima- und Umweltphysik (KUP) / Oeschger-Zentrum für Klimaforschung (OCCR), Universität Bern
Telefon: +41 31 684 86 52 / + 41 31 536 59 44 (Homeoffice)
E-Mail-Adresse: michael.sigl@climate.unibe.ch

Originalpublikation:
Chaochao Gao, Francis Ludlow et al: Volcanic climate impacts can act as ultimate and proximate causes of Chinese dynastic collapse, 11.11.21, Nature Communications Earth & Environment, doi:10.1038/s43247-021-00284-7

Weitere Informationen:
https://tinyurl.com/KlimaVulkanausbrueche
https://www.nature.com/articles/s43247-021-00284-7
https://www.oeschger.unibe.ch/index_ger.html

Anhang
Medienmitteilung als PDF

(nach oben)


Studie: Zentrale Umwelt- und Wirtschaftsakteure fordern ambitioniertere Klimapolitik der nächsten Bundesregierung

Alina Zurmühlen Pressestelle
Hertie School
Laut einer Umfrage des Centres for Sustainability der Berliner Hertie School und des Oeschger-Zentrums für Klimaforschung der Universität Bern wünschen sich die wichtigsten Akteure der deutschen Umwelt- und Wirtschaftspolitik eine deutlich ambitioniertere Klimapolitik von der nächsten Bundesregierung. In der Studie befragten die Forschenden 47 Bundesministerien, Nichtregierungsorganisationen, Verbände und weitere Organisationen, die Einfluss auf die bundesdeutsche Klimapolitik nehmen. Es bestehe ein breiter Konsens, etwa zur Verschärfung klimapolitischer Maßnahmen, zu höheren CO2-Preisen und zu institutionellen Reformen der bundesdeutschen Klimagovernance.

Prof. Dr. Christian Flachsland, Direktor des Centres for Sustainability und Co-Autor der Studie sagt: «Die Ergebnisse weisen darauf hin, dass sich über 80 Prozent der führenden Organisationen aus Wirtschaft, Verwaltung, Zivilgesellschaft und Wissenschaft einen strategischeren Planungsprozess wünschen. Dazu zählt auch, dass das Kanzleramt eine verstärkt koordinierende Rolle in der regierungsübergreifenden Klimapolitik einnehmen sollte. 70 Prozent der Befragten fordern dies.»

Prof. Dr. Karin Ingold, Politikwissenschaftlerin und Projektverantwortliche der Universität Bern, sagt: „Die große Zustimmung der deutschen Organisationen zu ambitionierter Klimapolitik und höheren CO2-Preisen auf europäischer Ebene kann ein wichtiger Faktor für einen umfassenderen Klimaschutz im gesamten europäischen Wirtschaftsraum haben.»

Dr. Lukas Fesenfeld, Politikwissenschaftler und Erstautor der Studie von der Universität Bern, sagt: «Besonders überraschend waren für uns die Befragungsergebnisse zur CO2-Bepreisung. Circa 90 Prozent der Befragten wünschen sich, dass die Bundesregierung vor allem auf CO2-Preise als Klimaschutzinstrument setzt und eine deutliche Mehrheit wünscht sich einen Mindestpreis.»

Dr. Sebastian Levi, Politikwissenschaftler und Co-Autor der Studie der Hertie-School, sagt: «Aus den gesammelten Daten können wir deutlich ablesen, dass sich die Mehrzahl der großen deutschen Verbände, Nichtregierungsorganisation und Ministerien von der nächsten Bundesregierung eine ökologisch wirksame und sozial gerechte Klimapolitik wünscht. SPD, Grüne und FDP sollten dies während der Koalitionsverhandlungen im Blick behalten. Einnahmen der CO2-Bepreisung könnten beispielsweise für eine pauschale Pro-Kopf-Rückerstattung für private Haushalte sowie zur Förderung von Klimaschutzmaßnahmen verwendet werden. Der Rest der Einnahmen könnte Geringverdienern und Unternehmen zur Entlastung zur Verfügung stehen.»

Weitere wichtige Kennzahlen der Studie im Überblick:

– Über 80% der befragen Organisationen wünschen sich, dass die nächste Bundesregierung einen strategischen, regierungsübergreifenden Planungsprozess anstößt.

– Über 95% der Befragten fordern, dass die nächste Bundesregierung zur Umsetzung der Klimaziele umfassende Politikpakete verabschiedet.

– Mehr als 90% fordern, dass ökologische Wirksamkeit zur Erreichung der Pariser Klimaziele sowie soziale Gerechtigkeit die zentralen Entscheidungskriterien für diese Klimaprogramme werden.

– Mehr als 90% der Befragten wünschen sich, dass die Bundesregierung vor allem auf CO2-Preise als Klimaschutzinstrument setzt.

– Mehr als 60% der Befragten befürworten, dass die Bundesregierung vor allem auf regulatorische Maßnahmen (z.B. strengere Emissionsstandards und Verbote) setzt.

– Eine deutliche Mehrheit (75%) aller befragten Organisationen fordert, dass grundsätzlich ein Mindestpreis pro Tonne CO2 im Rahmen des Emissionshandels festgelegt wird.

– Im Durchschnitt fordern diejenigen Befragten, die ihre Präferenz angaben, dass die nächste Bundesregierung möglichst rasch den CO2-Preis auf mindestens 50 Euro (derzeit 25 Euro) pro Tonne CO2 erhöht. Ab 2025 sollte er bei mindestens 88 Euro, ab 2030 bei mindestens 126 Euro liegen.

Die Studie basiert auf Ergebnissen einer repräsentativen Zielgruppenumfrage unter den 47 wichtigsten deutschen Akteuren, die Einfluss auf Deutschlands Klimapolitik nehmen. In einem nächsten Schritt wollen die Forschenden herausarbeiten, welche Koalitionsmuster es unter den Stakeholdern aus Wirtschaft, Wissenschaft, Politik und Zivilgesellschaft gibt.

Hier finden Sie alle Studienergebnisse:
Fesenfeld, L.P., Maier, M., Montfort S., Ingold, K., Flachsland, C. and Levi, S., Akteursbefragung zur deutschen Klimaschutzpolitik (2021). Available at SSRN:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3961307

Die Hertie School in Berlin bereitet herausragend qualifizierte junge Menschen auf Führungsaufgaben im öffentlichen Bereich, in der Privatwirtschaft und der Zivilgesellschaft vor. Sie bietet Masterstudiengänge, Executive Education und Doktorandenprogramme an. Als universitäre Hochschule mit interdisziplinärer und praxisorientierter Lehre, hochklassiger Forschung und einem weltweiten Netzwerk setzt sich die Hertie School auch in der öffentlichen Debatte für „Good Governance“ und moderne Staatlichkeit ein. Die Hertie School wurde 2003 von der Gemeinnützigen Hertie-Stiftung gegründet und wird seither maßgeblich von ihr getragen. Sie ist staatlich anerkannt und vom Wissenschaftsrat akkreditiert. www.hertie-school.org

Das Oeschger-Zentrum für Klimaforschung (OCCR) ist eines der strategischen Zentren der Universität Bern. Es bringt Forscherinnen und Forscher aus 14 Instituten und vier Fakultäten zusammen. Das OCCR forscht interdisziplinär an vorderster Front der Klimawissenschaften. Das Oeschger-Zentrum wurde 2007 gegründet und trägt den Namen von Hans Oeschger (1927-1998), einem Pionier der modernen Klimaforschung, der in Bern tätig war. www.oeschger.unibe.ch

Pressekontakt
Alina Zurmühlen, Pressereferentin, Hertie School
+49 (0) 30 259 219 – 246
zurmuehlen@hertie-school.org

(nach oben)


Wenn Algorithmen kreativ werden

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Ein besseres Verständnis von Lernmechanismen trägt dazu bei, die Funktionsweise unseres Gehirns besser zu verstehen und intelligente, anpassungsfähige Maschinen zu bauen. Um dies zu erreichen, schlagen Forscher der Universität Bern einen neuen Ansatz vor, in dem Algorithmen die biologische Evolution nachahmen und durch kreative Weiterentwicklung besser lernen.

Unsere Gehirne sind unglaublich anpassungsfähig. Jeden Tag bilden wir Erinnerungen, erwerben neues Wissen oder verfeinern bestehende Fähigkeiten. Dies steht im Gegensatz zu unseren heutigen Computern, die in der Regel nur vorprogrammierte Aktionen ausführen können. Unsere eigene Anpassungsfähigkeit ist das Ergebnis der sogenannten synaptischen Plastizität. Die Synapsen sind die Verbindungsstellen zwischen Nervenzellen. Sie können sich auf verschiedene Weise verändern, abhängig davon, wie sie verwendet werden.

Diese Plastizität der Synapsen ist ein wichtiger Forschungsgegenstand der Neurowissenschaften, da sie zentral ist für Lernprozesse und das Gedächtnis. Um diese Prozesse des Gehirns besser zu verstehen und anpassungsfähige Maschinen zu bauen, erstellen Forschende aus den Gebieten der Neurowissenschaften und der künstlichen Intelligenz (KI) Modelle der Mechanismen, die diesen Prozessen zugrunde liegen. Solche Lern- und Plastizitätsmodelle tragen dazu bei, die biologische Informationsverarbeitung zu verstehen sollen es zusätzlich Maschinen ermöglichen, schneller zu lernen.

Algorithmen ahmen die biologische Evolution nach
Im Rahmen des Human Brain Project der EU haben nun Forscher des Instituts für Physiologie der Universität Bern einen neuen Ansatz entwickelt, der auf sogenannten evolutionären Algorithmen basiert. Diese Computerprogramme suchen nach Lösungen für Probleme, indem sie den Prozess der biologischen Evolution nachahmen, wie etwa das Konzept der natürlichen Selektion. So wird die biologische Fitness, die den Grad der Anpassung eines Organismus an seine Umgebung beschreibt, ein Vorbild für evolutionäre Algorithmen. Bei den evolutionären Algorithmen besteht die «Fitness» eines Lösungskandidaten darin, wie gut er das zugrunde liegende Problem löst.

Überraschende Kreativität
Der neu entwickelte Ansatz wird als «evolving-to-learn» (E2L-Ansatz) oder «lernfähig werden» bezeichnet. Das Forschungsteam um Dr. Mihai Petrovici vom Institut für Physiologie der Universität Bern und Kirchhoff-Institute for Physics der Universität Heidelberg, konfrontierte dabei die evolutionären Algorithmen mit drei typischen Lernszenarien. Im ersten musste der Computer ein sich wiederholendes Muster in einem kontinuierlichen Strom von Eingaben erkennen, ohne dass er eine Rückmeldung darüber erhielt, wie gut er dabei war. Im zweiten Szenario erhielt der Computer virtuelle Belohnungen, wenn er sich in der gewünschten Weise verhielt. Im dritten Szenario des «geführten Lernens» schliesslich wurde dem Computer genau mitgeteilt, wie stark sein Verhalten vom gewünschten Verhalten abweicht.

«Für jedes dieser Szenarien waren die evolutionären Algorithmen in der Lage, Mechanismen der synaptischen Plastizität zu entdecken, und dadurch eine neue Aufgabe erfolgreich zu lösen», sagt Dr. Jakob Jordan, der Ko-Erstautor vom Institut für Physiologie der Universität Bern. Dabei zeigten die Algorithmen überraschende Kreativität: «Beispielsweise hat der Algorithmus ein neues Plastizitätsmodell gefunden, in dem von uns definierte Signale zu einem neuen Signal kombiniert werden. Tatsächlich beobachten wir, dass Netzwerke, die dieses neue Signal benutzen, schneller lernen als mit bisher bekannten Regeln», betont Dr. Maximilian Schmidt vom RIKEN Center for Brain Science in Tokyo, Ko-Erstautor der Studie. Die Ergebnisse wurden im Journal eLife publiziert.

«Wir sehen E2L als vielversprechenden Ansatz, um Einblicke in biologische Lernprinzipien zu gewinnen und den Fortschritt hin zu leistungsstarken Maschinen zu beschleunigen», sagt Mihai Petrovici. «Wir hoffen, dadurch die Forschung zur synaptischen Plastizität im Nervensystem voranzutreiben», ergänzt Jakob Jordan. Die neu gewonnenen Erkenntnisse ermöglichen neue Einblicke in die Funktionsweise von gesunden und erkrankten Gehirnen. Sie können auch den Weg für die Entwicklung intelligenter Maschinen ebnen, die sich besser an die Bedürfnisse ihrer Nutzer anpassen können.

Diese Arbeit wurde von der Europäischen Union (Human Brain Project) und der Manfred Stärk Stiftung unterstützt. Das Gauss Center for Supercomputing e.V. kofinanzierte dieses Projekt durch die Bereitstellung von Rechenzeit durch das John von Neumann Institute for Computing (NIC) auf dem GCS Supercomputer JUWELS am Jülich Supercomputing Center (JSC). Die Ressourcen von Fenix ​​Infrastructure wurden verwendet und teilweise aus dem Forschungs- und Innovationsprogramm Horizon 2020 der Europäischen Union durch das ICEI-Projekt finanziert. Alle Netzwerksimulationen wurden mit NEST durchgeführt.

Berner Beitrag am Human Brain Project
Das Human Brain Project (HBP) ist das grösste Projekt für Hirnforschung in Europa und gehört zu den umfangreichsten Forschungsprojekten, die jemals von der Europäischen Union finanziert wurden. An der Schnittstelle von Neurowissenschaften und Informationstechnologie erforscht das HBP das Gehirn und seine Krankheiten mit Hilfe hochmoderner Methoden der Informatik, Neuroinformatik und künstlichen Intelligenz und treibt damit Innovationen in Bereichen wie Brain-Inspired Computing und Neurorobotik voran. Langfristiges Ziel des Human Brain Projects ist die Schaffung von EBRAINS, einer dauerhaften gemeinsamen Plattform für Neurowissenschaften und Computing in Form einer europäischen Forschungsinfrastruktur, die über den Projektzeitraum 2023 hinaus bestehen bleibt.

Das Institut für Physiologie der Universität Bern ist am HBP mit den Gruppen von Dr. Mihai Petrovici und Prof. Dr. Walter Senn beteiligt. 2020 erhielt es dafür einen Förderbeitrag von 2.5 Mio Euro. Die Gruppen entwickeln theoretische Modelle von Nervenzellen und Netzwerken im Hirn, welche eine Verbindung zwischen Verhalten, Lernen, und den entsprechenden Vorgängen und Veränderungen im Hirn herstellen. Die Theorien sind auf biophysikalischen Begriffen aufgebaut und erlauben eine Rekonstruktion der biologischen Vorgänge in sogenannter neuromorpher Hardware, also in Computer-Chips, die ähnlich funktionieren wie das Gehirn selbst.

Wissenschaftliche Ansprechpartner:
DR. JAKOB JORDAN
Institut für Physiologie, Universität Bern
Telefon: +41 31 684 8718
E-Mail-Adresse: jakob.jordan@unibe.ch

Originalpublikation:
Jakob Jordan, Maximilian Schmidt, Walter Senn und Mihai A. Petrovici: Evolving interpretable plasticity for spiking networks, eLife, 28. Oktober 2021, doi: 10.7554/eLife.66273, https://elifesciences.org/articles/66273

Weitere Informationen:
https://tinyurl.com/unibe-kreative-Algorithmen
https://ebrains.eu/services/brain-inspired-technologies/
https://physio.unibe.ch/~petrovici/group/
https://physio.unibe.ch/~senn/group/

Anhang
Medienmitteilung als PDF

(nach oben)


Orientierung im Gesundheitssystem ist für viele schwierig

Sandra Sieraad Medien und News
Universität Bielefeld
Internationale Studie zur Gesundheitskompetenz in 17 Ländern veröffentlicht

Für die Bevölkerung wird es immer schwieriger, sich im Gesundheitssystem zu orientieren und sich in der Vielfalt der unterschiedlichen Gesundheitsinformationen zurecht zu finden. Das ergibt die neue europäische Studie “European Health Literacy Population Survey 2019-2021 (HLS₁₉)“. 17 Länder haben an der Studie teilgenommen, darunter auch Deutschland mit der Universität Bielefeld und der Hertie School Berlin. Die Studie wurde unter anderem durch die World Health Organisation (WHO) Europa initiiert.

Noch nie zuvor wurde die Gesundheitskompetenz in so vielen Ländern erhoben und gleichzeitig so differenziert betrachtet. Denn neben allgemeiner Gesundheitskompetenz wurden erstmals auch neue Themen aufgenommen. Die Fähigkeit, sich im Gesundheitssystem zurechtzufinden (navigatioale Gesundheitskompetenz), die digitale Gesundheitskompetenz, die kommunikative Gesundheitskompetenz, die impfbezogene Gesundheitskompetenz sowie ökonomische Folgen von Gesundheitskompetenz sind in die Studie einbezogen worden. Seit 2019 haben die beteiligten Länder daran gearbeitet, zu einem gemeinsamen konzeptionellen und methodischen Ansatz sowie neuen Messinstrumenten für die Erhebung und Auswertung zu kommen.

Die Ergebnisse der durch die WHO Europa und das Netzwerk zur Messung der Gesundheitskompetenz der Bevölkerung und von Organisationen (M-POHL) initiierten Studie wurden am 8. November vorgestellt – dies unter anderem unter Beteiligung von Hans Henri P. Kluge (WHO Regional Director for Europe), Ruediger Krech (Director of the Department of Ethics and Social Determinants of Health der WHO) und Prof. Dr. Ilona Kickbusch (Graduate Institute for International and Development Studies, Genf) sowie Prof Dr. Jürgen Pelikan, dem Koordinator des HLS₁₉. Regionaldirektor Dr. Henri P. Kluge erläuterte: “Gesundheitskompetenz ist eine Kernkompetenz. Die HLS₁₉ Studie gibt wichtige Hinweise für eine evidenzbasierte Gesundheitspolitik, die darauf zielt, zu einer besseren Gesundheitskompetenz zu kommen und Menschen zu motivieren, ihr Gesundheitsverhalten entsprechend zu verändern.“

Umgang mit Gesundheitsinformationen in Deutschland besonders schwierig
Im internationalen Vergleich gaben die Befragten in Deutschland besonders häufig Schwierigkeiten im Umgang mit Gesundheitsinformationen an – dies vor allem mit Blick auf die Navigation im Gesundheitssystem und den dazu nötigen Informationen: Rund 70 Prozent finden es sehr schwierig, herauszufinden welche Unterstützungsmöglichkeiten es gibt, die ihnen helfen können, sich im Gesundheitssystem zurechtzufinden. Nahezu 50 Prozent haben Schwierigkeiten, zu beurteilen, welche Art der Gesundheitsversorgung sie im Falle eines Gesundheitsproblems benötigen.

Die Leiterin der deutschen Studie, Professorin Dr. Doris Schaeffer von der Universität Bielefeld, führt dieses Ergebnis in erster Linie auf die Strukturen des deutschen Gesundheitssystems mit seinen abgegrenzten Sektoren und zahlreichen Schnittstellen zurück: „Im Unterschied zu den meisten anderen in die Untersuchung einbezogenen Ländern ist das Gesundheitssystem in Deutschland sehr komplex und instanzenreich. Für die Nutzer*innen ist es daher schwer überschaubar. Dadurch ist es nicht einfach, sich im Gesundheitssystem zu orientieren und direkt, ohne große Umwege, die richtige Stelle für das eigene Anliegen zu finden. Durch die Sektorierung und die Zersplitterung entstehen zudem zahlreiche Versorgungsbrüche. Sie sind besonders häufig bei den Versorgungsverläufen von Menschen mit langandauernden Gesundheits- und Krankheitsproblemen zu beobachten. Die neue Regierung steht damit vor einer großen Aufgabe und muss vor allem darauf achten, die Navigation zu erleichtern und zu einem nutzerfreundlichen Gesundheitssystem zu gelangen, in dem hoher Wert auf Gesundheitsinformation und die Förderung von Gesundheitskompetenz gelegt wird.“

Wie wichtig das ist, zeigen auch die neuen Daten zur allgemeinen Gesundheitskompetenz: Im Schnitt verfügt nahezu die Hälfte (46 Prozent) der Befragten in den beteiligten 17 Ländern über eine geringe Gesundheitskompetenz. Auch hier fallen die Werte für Deutschland schlechter aus. Eine Förderung der Gesundheitskompetenz ist hier deshalb besonders notwendig.

Ansatzpunkte dazu lassen sich ebenfalls aus den Ergebnissen der internationalen Studie ableiten; denn länderübergreifend fällt die Beurteilung gesundheitsrelevanter Informationen am schwersten. So hat rund jede*r zweite Befragte der internationalen Studie Probleme damit, die Vor- und Nachteile verschiedener Behandlungsmöglichkeiten einzuschätzen. Auch der Nutzen der Gesundheitsinformationen in den Medien wird als wenig hilfreich eingeschätzt: Rund 40 Prozent haben Schwierigkeiten, aufgrund von Informationen in den Medien zu entscheiden, wie man sich vor Krankheiten schützen kann – ein mit Blick auf die Corona-Pandemie alarmierendes Ergebnis. Besorgniserregend ist auch, dass ein verhältnismäßig hoher Anteil der Befragten – rund ein Drittel – Probleme hat, Informationen über den Umgang mit psychischen Gesundheitsproblemen zu finden. In Deutschland trifft dies sogar auf über die Hälfte der Bevölkerung zu. Dies ist umso problematischer, weil der Anteil psychischer Belastungen in letzter Zeit zugenommen hat.

Gesundheitskompetenz ist sozial ungleich verteilt
Doch nicht nur der hohe Anteil geringer Gesundheitskompetenz in der Gesamtbevölkerung ist alarmierend, sondern auch die Tatsache, dass Gesundheitskompetenz sozial ungleich verteilt ist. So bestätigt sich in der internationalen Studie, was bereits die deutschlandweite Befragung ergab: Einige Bevölkerungsgruppen haben größere Schwierigkeiten im Umgang mit Gesundheitsinformationen als andere. Dazu zählen insbesondere Menschen mit geringen finanziellen Ressourcen, niedrigem sozialen Status und niedrigem Bildungsniveau. Doch auch die Gesundheitskompetenz von Menschen im höheren Lebensalter ist geringer als die des Durchschnitts der Befragten. Dies ist deshalb heikel, weil sie besonders auf Gesundheitsinformationen angewiesen sind.

Geringe Gesundheitskompetenz ist – wie die neue internationale Studie zeigt – folgenreich für die Gesundheit und auch für das Gesundheitssystem. Sie geht mit einem ungesünderen Gesundheitsverhalten, schlechterem subjektiven Gesundheitszustand und einer intensiveren Inanspruchnahme des Gesundheitssystems, etwa von Hausärzten, der Krankenhaus- oder Notfallversorgung einher. Damit unterstreichen die Ergebnisse einmal mehr die Bedeutung von Gesundheitskompetenz als wichtige Einflussgröße auf die Gesundheit und als Stellschraube für die Kosten im Gesundheitssystem. Gerade die Corona-Pandemie hat die Notwendigkeit eines kompetenten Umgangs mit Gesundheits- und Krankheitsinformation gezeigt. Umso wichtiger ist es, dass die Förderung von Gesundheitskompetenz in der Bevölkerung aber auch im Gesundheits- und Bildungssystem stärker in den Fokus der Politik genommen wird.

Mit dem Internationalen Health Literacy Survey (HLS₁₉) wurde von bis 2019 bis 2020 eine neue international Erhebung der Gesundheitskompetenz der Bevölkerung in Ländern der WHO Region Europa vorbereitet und durchgeführt. Dabei sind Österreich, Belgien, Bulgarien, Tschechische Republik, Dänemark, Frankreich, Deutschland, Ungarn, Irland, Israel, Italien, Norwegen, Portugal, Russland, Slowakei, Slowenien und die Schweiz. Ziel ist es zur Weiterentwicklung der Forschung über Gesundheitskompetenz in Europa beizutragen, eine Datenbasis für eine evidenzbasierte Gesundheitskompetenzpolitik zu schaffen, eine Grundlage für die Interventionsentwicklung bereitzustellen sowie die Bedeutung von Gesundheitskompetenz auf der politischen Ebene zu stärken.

Kontakt:
Prof’in Dr. Doris Schaeffer
Fakultät für Gesundheitswissenschaft
Telefon: 0521 106-4669
E-Mail: doris.schaeffer@uni-bielefeld.de

Wissenschaftliche Ansprechpartner:
Prof’in Dr. Doris Schaeffer
Fakultät für Gesundheitswissenschaft
Telefon: 0521 106-4669
E-Mail: doris.schaeffer@uni-bielefeld.de

(nach oben)


Altern im Wandel – zwischen gesellschaftlicher und persönlicher Wahrnehmung

Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Unser Älterwerden scheint über die letzten Jahrzehnte unkomplizierter und insgesamt positiver geworden zu sein. Viele Studien zur Lebensqualität der heutigen Älteren belegen dies. Aus Sicht älterer Menschen selbst ist das eigene Älterwerden aber nicht wirklich besser geworden.

Viele Studien zeigen, dass die heutigen Älteren gesünder, funktionstüchtiger, schlauer, selbstbewusster, zufriedener und weniger einsam sind als Gleichaltrige vor 20 oder 30 Jahren. Dies hat sich international und auch in Deutschland gezeigt. Forscher*innen an unterschiedlichen wissenschaftlichen Einrichtungen in Deutschland und den USA haben nun anhand einer Auswertung von deutschen und amerikanischen Daten – erhoben zu unterschiedlichen historischen Zeitpunkten –untersucht, ob sich diese Verbesserungen auch in positiveren Sichtweisen dem eigenen Alter und Altern gegenüber niedergeschlagen haben.

Dazu wurden verschiedene Facetten von Alterssichtweisen älterer Menschen Anfang/Mitte der 1990er Jahre mit denen von Gleichaltrigen Mitte/Ende der 2010er Jahre verglichen. Eine dieser Facetten war die Frage nach dem subjektiven Alter „Wie alt fühlen Sie sich?”. Einbezogen wurden Daten aus international hochanerkannten deutschen und nordamerikanische Studien: den Berliner Altersstudien und der Studie „Mittleres Lebensalter in den USA“ (MIDUS). Das auch für die Forscher*innen überraschende Hauptergebnis war, dass in keinem der einbezogenen Indikatoren und in keinem der beiden Länder Hinweise auf Verbesserungen in den Alterssichtweisen von älteren Menschen über 15 bis 20 Jahre hinweg beobachtet werden konnten. „Die Vielzahl von historischen Verbesserungen im Älterwerden sind demzufolge nicht im Erleben des eigenen Älterwerdens angekommen“, sagt Denis Gerstorf, Professor für Entwicklungspsychologie an der Humboldt-Universität zu Berlin und einer der Autoren der Studie.

Ist das eine schlechte Botschaft? Die Forscherinnen und Forscher des Papiers plädieren für eine differenzierte Interpretation dieser Befunde. „Es gibt Hinweise, dass sich gesellschaftliche Altersbilder im Laufe der letzten Jahrzehnte vielfach verschlechtert haben. Demzufolge wäre dann Stabilität in den Sichtweisen des eigenen Alters ja durchaus eine Art Leistung im Sinne einer Abgrenzung“, betont Hans-Werner Wahl, Senior-Professor an der Universität Heidelberg und Erstautor der Studie. Vielleicht – so eine mögliche zweite Interpretation – koppeln sich generell Bewertungen des eigenen Lebens (Stichwort „Individualisierung“) immer mehr von allgemein beobachtbaren Veränderungen ab? Und drittens überlagern sich immer mehr ein „junges Alter“ als einer Erfolgsgeschichte der Moderne mit einem immer länger werdenden „alten Alter“ und damit einhergehenden Befürchtungen von Demenz und Autonomieverlust. Im Ergebnis könnte diese komplexe Mélange von Faktoren zu nivellierenden Effekten geführt hat.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Werner Wahl, Universität Heidelberg, wahl@nar.uni-heidelberg.de
Prof. Dr. Denis Gerstorf, Humboldt Universität zu Berlin, denis.gerstorf@hu-berlin.de

Originalpublikation:
Wahl, H.-W., Drewelies, J., Duezel, S., Lachman, M. E., Smith,
J., Eibich, P., Steinhagen-Thiessen, E., Demuth, I.,
Lindenberger, U., Wagner, G. G., Ram, N., & Gerstorf, D.
(2021). Subjective age and attitudes toward own aging across
two decades of historical time. Psychology and Aging. Advance
online publication
https://doi.org/10.1037/pag0000649

Anhang
PM HU: Altern im Wandel

(nach oben)


Mit duktilen Gussrohren und Steinwolle zu einem besseren Stadtklima

Beatrice Liebeheim-Wotruba Referat Hochschulmarketing & Kommunikation
Hochschule Ruhr West
Hitzewellen, lange Trockenzeit, Starkregen und Überschwemmungen – extreme Wetterereignisse als Folge des Klimawandels zeigen die hohe Vulnerabilität der Städte. Das Projekt BoRSiS (Boden-Rohr-System als innovatives Element der klimaangepassten Stadtentwässerung) setzt sich mit Anpassungsstrategien an den Klimawandel auseinander und entwickelt ein marktfähiges und praxisnahes Speicherkonzept aus Steinwolle und duktilen Gussrohren. Neben Professoren der HRW sind die Hochschule Bochum, Industrievertreter, ein Baumökologe sowie die Stadt Detmold in das Projekt eingebunden.

Mülheim an der Ruhr, 5. November 2021: Schattenspendende Bäume spielen für ein besseres und (kühleres) Mikroklima in Städten bei zunehmender Sommerhitze eine wichtige Rolle. Um sie zu wässern werden immer mehr Baumrigolen eingesetzt. Rigolen sind (unterirdische) Speicherkörper z. B. aus Kies, wo das Wasser im Porenvolumen gespeichert wird, Mulden sind Vertiefungen auf der Oberfläche, welche für die Speicherung des Wassers dienen. Dort kann das (Stark-)Regenwasser aber nur kurz gespeichert werden, da das Speichervolumen auf den Baumstandort begrenzt ist. Das Ziel von BoRSiS ist es, im Leitungsgraben von Rohren unter den Gehwegen oder Straßen Wasser zu speichern und zeitverzögert zur Bewässerung von Stadtbäumen abzugeben. Durch die Nutzung des Leitungsgrabens steht ein erweiterter Speicher für Niederschlagswasser und für den Wurzelraum zur Verfügung, ohne dass ein zusätzlicher Platzbedarf auf der Oberfläche (gegenüber Versickerungsmulden) erforderlich ist.
Um den bisher ungenutzten Leitungsgraben überhaupt als Speicher für Niederschlagswasser und Wurzelraum nutzen zu können, ist eine Abkehr von der bisherigen Praxis erforderlich. Derzeit werden Leitungsgräben hoch verdichtet, um eine stabile Bettung der Rohre zu gewährleisten. Wurzeln sollen soweit möglich vom Leitungsgraben ferngehalten werden. Rohre aus duktilem Gusseisen, wie sie von den Mitgliedern des Industriepartners EADIPS®/FGR® e. V. hergestellt werden, können in porenreiche, grobe Schottermaterialien gebettet werden. Sie gelten als wurzelfest, sodass Baumwurzeln in den Leitungsgraben dieses Boden-Rohr-Systems einwachsen können ohne das Rohr zu schädigen. Außerdem wird ein neuartiges Material für den Leitungsgraben getestet. Der Industriepartner Rockflow hat einen Leitungsgraben aus Steinwolle entwickelt, der gegenüber Kieskörpern mit 95 Prozent ein höheres Speichervermögen besitzt.
Neben wasserwirtschaftlichen Fragestellungen werden auch geotechnische (Lastabtrag der Verkehrslasten, Kontakterosion) ökonomische (Kosten-Nutzen-Analysen, Fragestellungen zur Abwassergebühr bei gemeinsamer öffentlicher und privater Nutzung) und ökologische (Anforderungen durch die Bäume, Analyse der Wirksamkeit) Aspekte berücksichtigt. Durch die

interdisziplinäre Zusammenarbeit wird ein ganzheitlicher, innovativer Lösungsansatz entwickelt, dessen praxisnahe Umsetzung durch die Praxispartner noch erhöht wird.
Der besondere Mehrwert im Projekt liegt somit insbesondere in der interdisziplinären, ganzheitlichen Herangehensweise zur Lösung wichtiger gesellschaftlicher Problemstellungen als Folge des Klimawandels. Es werden grundlegende offene sowie praxisrelevante Fragen zur Umsetzung des Boden-Rohr-Systems untersucht. Das Projekt ist prädestiniert für ein Promotionsvorhaben zum ganzheitlichen Starkregen- und Klimaanpassungskonzept sowie zum Regenwassermanagement inklusive eines Monitoringkonzeptes.
Beteiligt an diesem Verbundprojekt sind neben den HRW Instituten Bauingenieurwesen und Wirtschaft die Hochschule Bochum (Wasserbau und Hydromechanik), die Fachgemeinschaft Euopean Association for Ductile Iron Pipe Systems (EADIPS), das Unternehmen Rockflow und auch die Stadt Detmold. Die geplante kooperative Promotion wird durch das Institut für Wasserbau und Wasserwirtschaft an der Universität Duisburg-Essen begleitet. Konsortialführer ist Prof. Dr. Markus Quirmbach vom Institut Bauingenieurwesen. Das Projekt ist geplant bis September 2024. Finanziert wird das Projekt neben Eigenanteilen der Industriepartner durch eine Förderung des Bundesministeriums für Bildung und Forschung (BMBF) im Förderprogramm „Forschung an Fachhochschulen“ unter dem Förderkennzeichen 13FH002KA0.

Medienkontakt
Hochschule Ruhr West
Beatrice Liebeheim | Kommunikation
Telefon: 0208/ 882 54 251
Mobil: 0151/ 55 11 74 50
E-Mail: beatrice.liebeheim@hs-ruhrwest.de

Wissenschaftliche Ansprechpartner:
Wissenschaftlicher Kontakt
Hochschule Ruhr West
Prof. Dr. Markus Quirmbach | Institut Bauingenieurwesen
Telefon: 0208/ 882 54 463
E-Mail: markus.quirmbach@hs-ruhrwest.de

(nach oben)


EU fördert zwei Forschungsprojekte mit Freiburger Beteiligung zur Unterstützung des European Green Deal

Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Projekt SUPERB unterstützt Entscheidungsträger*innen bei Maßnahmenplanungen zur Wiederherstellung von Biodiversität und Ökosystemleistungen der Wälder
• Projekt PAUL entwickelt neue Technologien zur direkten Messung von Treibhausgasemissionen in der Atmosphäre über Städten

Im Rahmen des EU-Forschungs- und Innovationsprogramms „Horizon 2020“ fördert die Europäische Union 73 Forschungsprojekte zur Unterstützung des European Green Deal – an zwei von ihnen sind Wissenschaftler*innen der Universität Freiburg beteiligt: „SUPERB – Systemic Solutions For Upscaling Urgent Ecosystem Restoration For Forest Related Biodiversity And Ecosystem Services” sowie „PAUL – Pilot Application In Urban Landscapes, Towards Integrated City Observatories For Greenhouse Gases”.

SUPERB soll ein dauerhaftes förderliches Umfeld für einen Wandel hin zu einer großflächigen Wiederherstellung von Wäldern und Waldlandschaften vor dem Hintergrund des Klimawandels schaffen. Die Wiederherstellung der Wälder zielt darauf ab, Biodiversität und die Bereitstellung von Ökosystemleistungen inklusive Klimaschutz zu fördern. Das Projekt soll Entscheidungsträger*innen in den verschiedenen Regionen Europas befähigen, auf einer wissenschaftlichen Basis und gemeinsam mit Stakeholdern möglichst rasch fundierte Entscheidungen für Wiederherstellungsmaßnahmen umzusetzen. Das European Forest Institute (EFI) in Finnland koordiniert das Vorhaben. Es beginnt im Dezember 2021 und hat eine Laufzeit von vier Jahren. Von der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg sind Prof. Dr. Jürgen Bauhus und Dr. Metodi Sotirov beteiligt. SUPERB erhält circa 20 Millionen Euro, wovon 732.500 Euro auf die Universität Freiburg entfallen.

Im Projekt PAUL wollen Forscher*innen neue Technologien zur direkten Messung von Treibhausgasemissionen und -reduktionen in Städten entwickeln. Projektkoordinator ist die Europäische Forschungsinfrastruktur „Integrated Carbon Observation System“ (ICOS) in Finnland. PAUL ist bereits im Oktober 2021 gestartet und läuft für fünf Jahre. Aus Freiburg beteiligt ist Prof. Dr. Andreas Christen vom Institut für Geo- und Umweltnaturwissenschaften. Christen koordiniert ein Arbeitspaket zur Entwicklung und zum Aufbau atmosphärischer Observatorien in verschiedenen europäischen Städten, um Emissionen und deren Reduktionen zu bestimmen. PAUL wird auch Integrationsstellen mit dem Projekt „Urbisphere“ haben, wofür Christen den ERC Synergy Grant des Europäischen Forschungsrats eingeworben hat. Beide Projekte führen Messungen in der Atmosphäre der Stadt Paris durch und stärken sich inhaltlich und logistisch. PAUL erhält 13 Millionen Euro, wovon 495.166 Euro an die Universität Freiburg gehen.

Der European Green Deal ist der Fahrplan der Europäischen Kommission für eine klimaneutrale nachhaltige EU-Wirtschaft. Dieses Ziel soll erreicht werden, indem klima- und umweltpolitische Herausforderungen als Chancen für Innovationen gesehen werden und der Übergang zu einer klimaneutralen Wirtschaft in allen Sektoren inklusiv gestaltet wird.

Weitere Informationen:
Projekt SUPERB https://cordis.europa.eu/project/id/101036849
Projekt PAUL https://www.icos-cp.eu/projects/icos-cities-project

Pressemitteilung des Ministeriums für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg
https://mwk.baden-wuerttemberg.de/de/service/presse-und-oeffentlichkeitsarbeit/p…

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jürgen Bauhus
Institut für Forstwissenschaft
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3677
E-Mail: waldbau@waldbau.uni-freiburg.de

Prof. Dr. Andreas Christen
Institut für Geo- und Umweltnaturwissenschaften
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3591
E-Mail: andreas.christen@meteo.uni-freiburg.de

Christian Jäger
Leiter EU-Büro
Freiburg Research Services
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-8845
E-Mail: christian.jaeger@zv.uni-freiburg.de

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/eu-foerdert-zwei-forschungsprojekte-mit-f…

(nach oben)


Forschende aus Paderborn und Hannover entwickeln vereinfachte Methode zum Erfassen von drei Dimensionen in Fotos

Johanna Pietsch Stabsstelle Presse, Kommunikation und Marketing
Universität Paderborn
Projektabschluss am Heinz Nixdorf Institut

Die sogenannte Tiefenschätzung dient der dreidimensionalen Wahrnehmung von Szenen in Fotoaufnahmen und spielt in Anwendungsbereichen wie der Robotik oder dem autonomen Fahren eine wichtige Rolle. Seit 2019 haben Wissenschaftler des Heinz Nixdorf Instituts der Universität Paderborn gemeinsam mit dem Forschungszentrum L3S der Leibniz Universität Hannover (Arbeitsgruppe Visual Analytics, Prof. Dr. Ralph Ewerth) an maschinellen Lernmethoden gearbeitet, die diesen Prozess universeller und kostengünstiger gestalten sollen. Nach zwei Jahren Laufzeit des Projekts „Schwach überwachtes Lernen von Tiefenschätzung in monokularen Bildern“, das von der Deutschen Forschungsgemeinschaft (DFG) mit knapp 175.000 Euro gefördert worden ist, kann die Projektgruppe nun auf Ergebnisse für diverse Anwendungsbereiche blicken.

Von der zweiten zur dritten Dimension
Mit einer herkömmlichen Kamera wird die aufgenommene dreidimensionale Welt in eine zweidimensionale Aufnahme umgeformt. Fotografiert man jedoch mit mehreren Linsen oder mit bestimmten Sensoren, die die Tiefe der dargestellten Objekte messen können, lässt sich die dritte Dimension rekonstruieren und so eine dreidimensionale Darstellung erzeugen. Für jedes Pixel wird dabei ein Wert festgelegt, der den Abstand zur Kameralinse misst. Derartige Informationen für einzelne Bilder werden auf einer sogenannten Tiefenkarte gesammelt, deren Erstellung zum Erlernen von vorhersagbaren Modellen allerdings nicht nur zeitaufwändig, sondern durch die Verwendung teurer und energie-hungriger Sensoren wie LiDAR vor allem auch sehr kostenintensiv ist. Ein breiter Einsatz in beliebigen Szenerien ist dementsprechend noch nicht umsetzbar.

„Um Methoden zur Tiefenschätzung weiter anwendbar machen zu können, haben wir uns in dem Kooperationsprojekt mit Herangehensweisen beschäftigt, bei denen schwächere Informationen zum Trainieren möglicher Modelle, mit denen Tiefenkarten vorhergesagt werden können, ausreichen. Durch Sensoren, die nur ungefähre Werte produzieren, oder durch synthetische Werte, die künstlich generiert werden, wird der Prozess deutlich kostengünstiger“, erläutert Julian Lienen, wissenschaftlicher Mitarbeiter der ehemaligen Fachgruppe „Intelligente Systeme und Maschinelles Lernen“ am Heinz Nixdorf Institut der Universität Paderborn unter der Leitung von Prof. Dr. Eyke Hüllermeier. Die Verallgemeinerung konventioneller maschineller Lernmethoden und die Konstruktion von synthetischen Trainingsdaten, die die Wissenschaftler im Rahmen ihrer Forschung mit den schwachen Informationen generiert haben, senken die Anforderungen zum Einsatz von Tiefenschätzungsmodellen. So reichen nun Toleranzbereiche oder relative Informationen über die einzelnen Pixel aus, um die jeweilige Tiefe richtig einzuschätzen und hochqualitative Tiefenkarten zu erzeugen. Durch den damit erzielten Kostenvorteil konnte der potenzielle Anwendungsbereich von Methoden zur Tiefenschätzung erweitert werden.

Weichenstellung für dreidimensionale Fotoaufnahmen mit dem Smartphone
Laut Lienen sei es durchaus denkbar, dass selbst Smartphones mit kostengünstigen Kamerasensoren in Zukunft standardmäßig mit einer hochqualitativen Tiefenschätzung ausgestattet werden könnten. Auch für den Bereich Augmented Reality bedeuten die Forschungsergebnisse einen Zugewinn. „Es ist möglich, dass sich die bisher entwickelten Methoden ausweiten und auch auf Videoaufnahmen anwenden lassen. Dadurch lassen sich weitere kostengünstige Datenquellen erschließen, die die Generalisierbarkeit der erlernten Modelle erhöhen können. Gerade im Bereich der Augmented Reality könnten dann computergenerierte Szenen optisch so an die reale Lebenswelt angepasst werden, dass sich kaum ein Unterschied zur Realität festmachen lässt“, zeigt Lienen abschließend auf.

Wissenschaftliche Ansprechpartner:
Julian Lienen, wissenschaftlicher Mitarbeiter der ehemaligen Fachgruppe „Intelligente Systeme und Maschinelles Lernen“ am Heinz Nixdorf Institut der Universität Paderborn, E-Mail: julian.lienen@upb.de

Weitere Informationen:
https://www.upb.de/

(nach oben)


Intelligente Lösungen für das „Öko Smart Home“

Michael Patrick Zeiner Bildung
Verband Deutscher Maschinen- und Anlagenbau e.V.
Erfolgreicher Abschluss des Maschinenhaus-Transferprojekts des VDMA an der Hochschule Aalen.

Die Fach- und Führungskräfte von morgen für Mechatronik und Technik begeistern – das hat sich die Hochschule Aalen zusammen mit dem Verband Deutscher Maschinen- und Anlagenbau e.V. (VDMA) zur Aufgabe gemacht. Zum Abschluss des gemeinsamen Maschinenhaus-Transferprojekt fand jetzt eine Projektwoche statt, in der Studierende interdisziplinär an Aufgabenstellungen rund um den Klimaschutz, die Ressourcenoptimierung und Digitalisierung im Smart Home arbeiteten.

Wie kann ein ökologisches, nachhaltiges Leben im eigenen Zuhause aussehen? Mit dieser Fragestellung beschäftigten sich mehr als 70 Mechatronik-Studierende der Hochschule Aalen im Maschinenhaus-Transferprojekt des VDMA. „Autonom agierende, intelligente Produktionsanlagen, Roboter, Elektromobilität, Künstliche Intelligenz oder die Sensor- und Kameraintegration in Fahrzeugen und autonomes Fahren sind nur einige Beispiele, welchen Einfluss die Digitalisierung und Vernetzung derzeit schon haben. An der Hochschule Aalen bilden wir die Fach- und Führungskräfte von morgen aus, die diese Zukunftstechnologien anwenden und weiterentwickeln“, sagt Prof. Dr. Ulrich Schmitt, der sich in seinem derzeitigen Forschungssemester u.a. mit der Vorbereitung, Durchführung und Evaluation des Projekts beschäftigt. „Studierende, die sich über derartige Lehrformate gleich zu Studienbeginn in der Rolle von Ingenieurinnen und Ingenieuren ausprobieren können, erfahren hautnah am praktischen Beispiel, welche beruflichen Anwendungsmöglichkeiten die zu lernenden theoretischen Inhalte bieten“, meint Uwe Krüger, Organisationsberater vom HIS-Institut für Hochschulentwicklung e.V..

„Das Ziel der Maschinenhaus-Initiative des VDMA, ist es, den Studienerfolg in den Ingenieurwissenschaften zu erhöhen und Hochschulen in der Lehre zu beraten und unterstützen“, erläutert Projektleiter und VDMA-Bildungsreferent Michael Patrick Zeiner die Intention der Zusammenarbeit. „Die Hochschule Aalen war sehr daran interessiert, ihre Lehre weiterzuentwickeln und hat mit der Einführung einer Projektwoche ein großartiges Angebot geschaffen, die Studierenden praxisnah, interdisziplinär und mit Spaß an die Themen der Zukunft heranzuführen.“

In der Projektwoche an der Hochschule Aalen ging es zum Beispiel unter anderem darum, wie sich die Temperatur eines Zimmers oder der gesamten Wohnung mit möglichst geringem Ressourceneinsatz regeln lässt, wie ein Gewächshaus intelligent und ressourcenschonend betrieben werden oder in welcher Weise sich ein Haus energetisch selbst versorgen und nachhaltig sein kann. „Die Studierenden erkennen bei dem Projekt ihre eigenen Stärken und Talente, den Mehrwert eines interdisziplinären Teams sowie die Möglichkeiten der Schwerpunkte ihres Studiums“, sagt Schmitt. „Die Studienangebote an der Hochschule Aalen werden ständig weiterentwickelt und an die Bedarfe der Industrie angepasst. Die neuen Berufsbilder reichen von der Entwicklung über die Produktion, die Erprobung und Inbetriebnahme bis zur Projektierung und in den Vertrieb. Das Transferprojekt mit dem VDMA setzen wir als Studiengang gezielt bei der Weiterentwicklung der mechatronischen Lehre ein“, sagt Mitinitiator Prof. Dr. Peter Eichinger.

„Die Lehrenden des Studiengangs Mechatronik haben im Rahmen des Projekts in beeindruckender Manier Absprachen miteinander und mit Partnern aus Unternehmen der Region getroffen, um für Studierende und Unternehmen ein hoch attraktives Studienangebot anbieten zu können“, hebt VDMA-Bildungsreferent Michael Patrick Zeiner hervor. Er überreichte zum Abschluss des Projekts und zur Würdigung des Engagements der Fakultät für Optik und Mechatronik das „Maschinenhaus-Zertifikat“. Die Hochschule Aalen hat damit als 59. Fachbereich in Deutschland das Maschinenhaus-Transferprojekt erfolgreich abgeschlossen.

Hintergrund
Über die VDMA-Initiative „Maschinenhaus – Plattform für innovative Lehre“
Mit der Maschinenhaus-Initiative unterstützt der VDMA seit 2013 Fakultäten und Fachbereiche des Maschinenbaus, der Elektrotechnik und der Informatik bei der Weiterentwicklung der Lehre und der Erreichung von mehr Studienerfolg. Das Maschinenhaus versteht sich dabei als „Plattform für innovative Lehre“, die Akteure aus Hochschulen, Politik und Unternehmen miteinander vernetzt. Damit soll den hohen Studienabbruchquoten in den ingenieurwissenschaftlichen Studiengängen entgegengewirkt und ein qualitativ hochwertiges Ingenieurstudium sichergestellt werden.

In aktuell 62 laufenden oder bereits abgeschlossenen Transferprojekten im gesamten Bundesgebiet gelangt die Theorie in die Praxis und in individuellen Workshops wird der Status quo der Lehre analysiert und neue Maßnahmen konzipiert. Bereits erfolgreich praktizierte Good-Practice-Beispiele innovativer Hochschullehre sammelt die Maschinenhaus-Initiative in einer Toolbox (https://maschinenhaus-toolbox.de/).

Alle weiteren Informationen zur Maschinenhaus-Initiative und dem Hochschul-Engagement des VDMA finden Sie unter https://www.vdma.org/ingenieurausbildung.

Über die Hochschule Aalen
Die Hochschule Aalen ist laut aktuellen Umfragen eine der beliebtesten Hochschulen in Deutschland. Sie zeichnet sich durch innovative Studiengänge aus, die auf die Anforderungen einer zukunftsgerichteten, digitalen und nachhaltigen Gesellschaft und Industrie ausgerichtet sind. Auf einem modernen und stetig wachsenden Campus mitten im Süden können die rund 5.600 Studierenden in top ausgestatteten Laboren und Werkstätten alle notwendigen Fähigkeiten erwerben, die sie für einen erfolgreichen Berufseinstieg benötigen.

Die Hochschule Aalen zählt bundesweit zu den forschungsstärksten Hochschulen für angewandte Wissenschaften. Forscherteams tragen zur Verbesserung der IT-Sicherheit bei, erforschen Supermagnete für Elektromobilität, verlängern die Lebensdauer von Lithiumionen-Akkus in Elektrofahrzeugen, erarbeiten ressourcenschonende Energiekonzepte und treiben autonomes Fahren, 3D-Druck und die Industrie 4.0 voran.

Dazu arbeitet die Hochschule Aalen eng mit den Unternehmen der Region zusammen, darunter auch zahlreiche Weltmarktführer. Bereits während ihres Studiums können die Studierenden durch Projektarbeiten, im Praxissemester oder bei der Abschlussarbeit wertvolle Kontakte für ihre berufliche Zukunft knüpfen. Das erweitert genau wie ein Auslandsaufenthalt schon früh den Horizont. Die Hochschule Aalen hat rund 130 Partnerhochschulen in der ganzen Welt und hilft den Studierenden bei der Organisation des Auslandsaufenthalts. Auch wer eine gute Idee hat und lieber selbst gründen will, wird unterstützt und zum Beispiel im Innovationszentrum INNO-Z gefördert.

Rückfragen zur Initiative des VDMA:
Verband Deutscher Maschinen- und Anlagenbau (VDMA) e.V.
Michael Patrick Zeiner
Referent für Bildungspolitik
Telefon +49 69 6603-1160
E-Mail michael.zeiner@vdma.org

Ansprechpartner/-in an der Hochschule:
Viktoria Kesper
Pressesprecherin
Telefon 07361/576-1050
E-Mail viktoria.kesper@hs-aalen.de
kommunikation@hs-aalen.de

Originalpublikation:
https://www.vdma.org/viewer/-/v2article/render/35436522

Anhang
21 11 02 VDMA-PI Transferabschluss_HS Aalen

(nach oben)


Ein natürlicher CO2-Speicher dank symbiotischer Bakterien

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Seegraswiesen bieten einen vielseitigen Lebensraum an vielen Küsten. Zudem speichern sie große Mengen Kohlendioxid (CO2) aus der Atmosphäre im Ökosystem. Um zu wachsen, brauchen die Seegräser Nährstoffe, vor allem Stickstoff. Bisher glaubte man, dass die Pflanzen den Stickstoff vorwiegend aus dem Wasser und Sediment aufnehme – die allerdings extrem nährstoffarm sind. Nun zeigt eine in Nature veröffentlichte Studie von Forschenden des Bremer Max-Planck-Instituts für Marine Mikrobiologie, dass Seegras im Mittelmeer in seinen Wurzeln eine Symbiose mit einem Bakterium unterhält, welches den für das Wachstum notwendigen Stickstoff liefert. Das war bisher nur von Landpflanzen bekannt.

Seegräser sind weit verbreitet in den flachen Küstenregionen gemäßigter und tropischer Meere. Sie bedecken bis zu 600.000 Quadratkilometer weltweit, was etwa der Fläche von Frankreich entspricht. Sie bilden die Grundlage für das gesamte Ökosystem, das zahlreichen Tieren, darunter auch bedrohte Arten, wie Meeresschildkröten, Seepferdchen und Seekühe, ein Zuhause ist und vielen Fischarten eine sichere Kinderstube bietet. Außerdem schützen Seegräser die dahinterliegenden Küsten vor Abtragung durch Sturmfluten und nehmen jedes Jahr Millionen von Tonnen an Kohlendioxid auf, das für lange Zeiten im Ökosystem als sogenannter „blauer Kohlenstoff“ gespeichert wird.

Üppiges Leben trotz Nährstoffarmut
Der Lebensraum vieler Seegräser ist für einen Großteil des Jahres arm an Nährstoffen, wie beispielsweise Stickstoff. Der Stickstoff ist zwar in seiner elementaren Form (N2) reichlich im Meer vorhanden, doch in dieser Form können ihn die Seegräser nicht aufnehmen. Dass die Pflanzen dennoch üppig gedeihen, liegt an ihren jetzt entdeckten kleinen Helfern: bakterielle Symbionten, die N2 innerhalb der Wurzeln fixieren und den Pflanzen in nutzbarer Form zur Verfügung stellen. Wiebke Mohr und ihre Kolleginnen und Kollegen vom Max-Planck-Institut für Marine Mikrobiologie in Bremen, Hydra Marine Sciences in Bühl und dem Schweizer Wasserforschungsinstitut Eawag beschreiben nun in ihrer Studie, wie diese innige Beziehung zwischen Seegras und Bakterium organisiert ist.

Harmonie in den Wurzeln
„Bislang vermutete man, dass der sogenannte fixierte Stickstoff für die Seegräser von Bakterien stammt, die rund um die Wurzeln der Pflanzen im Meeresboden leben“, erklärt Mohr. „Wir zeigen nun, dass die Beziehung viel enger ist: Die Bakterien leben in den Wurzeln der Seegräser. Das ist das erste Mal, dass so eine im wahrsten Sinn des Wortes innige Symbiose bei Seegräsern gezeigt wird. Bisher war sie nur von Landpflanzen bekannt, insbesondere bei landwirtschaftlich wichtigen Arten, wie den Hülsenfrüchtlern, Weizen oder auch Zuckerrohr.“ Auch diese lassen sich den Luftstickstoff von Bakterien aufbereiten, denen sie im Gegenzug Kohlenhydrate und andere Nährstoffe liefern. Einen sehr ähnlichen Austausch von Stoffwechselprodukten gibt es auch zwischen dem Seegras und seinem Symbionten.

Die Bakterien, die in den Pflanzenwurzeln leben, sind eine Neuentdeckung. Mohr und ihr Team gaben ihnen den Namen Celerinatantimonas neptuna, nach ihrem Gastgeber, dem Neptungras (Posidonia). Verwandte von C. neptuna wurden bisher auch bei Algen im Meer gefunden, etwa beim Seetang. „Als die Seegräser vor etwa 100 Millionen Jahren vom Land ins Meer gezogen sind, haben sie wohl die Bakterien von den großen Algen übernommen“, vermutet Mohr. „Sie haben das an Land höchst erfolgreiche System sozusagen kopiert und sich dann, um im nährstoffarmen Meerwasser überleben zu können, einen marinen Symbionten erworben.“ Die aktuelle Studie beschäftigte sich mit Seegras der Gattung Posidonia im Mittelmeer. Möglicherweise bewährt sich das Konzept aber auch andernorts. „Genanalysen deuten darauf hin, dass es auch an tropischen Seegräsern und in Salzwiesen solche Symbiosen gibt“, sagt Mohr. „So schaffen es diese Blütenpflanzen, verschiedenste, augenscheinlich nährstoffarme Lebensräume zu besiedeln, im Wasser ebenso wie an Land.“

Symbiose im Wandel der Jahreszeiten
Je nach Jahreszeit sind in den Küstengewässern unterschiedlich viele Nährstoffe vorhanden. Im Winter und Frühjahr reichen die im Wasser und Sediment vorhandenen Nährstoffe den Seegräsern aus. „Die Symbionten sind dann zwar vereinzelt in den Wurzeln der Pflanzen vorhanden, sind aber wahrscheinlich nicht sehr aktiv“, so Mohr. Im Sommer, wenn das Sonnenlicht zunimmt und immer mehr Algen wachsen und die wenigen vorhandenen Nährstoffen aufzehren, wird der Stickstoff schnell knapp. Dann übernehmen die Symbionten. Sie liefern den Seegräsern direkt den Stickstoff, den sie brauchen. So ist es möglich, dass die Seegräser im Sommer, wenn eigentlich karge Zeiten anbrechen, ihr größtes Wachstum aufweisen.

Viele Methoden ergeben ein klares Bild
Die nun vorliegende Studie schlägt eine Brücke über das gesamte Ökosystem, von der Produktivität des Seegrases bis hin zu den dafür verantwortlichen Symbionten im Wurzelwerk. Um das zu ermöglichen nutzten die Forschenden eine Vielzahl verschiedener Methoden und kamen der Symbiose so detailliert wie möglich auf die Spur: Sauerstoffmessungen unmittelbar vor Ort verrieten die Produktivität der Seegraswiese. Mikroskopietechniken, bei denen einzelne Bakterienarten farblich markiert werden können (das sogenannte FISH) halfen dabei, die Bakterien in und zwischen den Wurzelzellen der Seegräser zu lokalisieren. Im NanoSIMS, einem hochmodernen Massenspektrometer, zeigten sie die Aktivität der einzelnen Bakterien. Sogenannte genomische und transkriptomische Analysen ergaben, welche Gene für die Interaktion vermutlich besonders wichtig sind und dass diese stark genutzt werden. So gelang den Forschenden eine fundierte und detaillierte Beschreibung dieser erstaunlichen Zusammenarbeit. „Als nächstes wollen wir nun diese neuen Bakterien genauer untersuchen“, sagt Mohr. „Wir wollen sie im Labor isolieren um genauer zu untersuchen, wie die Symbiose funktioniert und entstanden ist. Spannend wird sicher auch die Suche nach vergleichbaren Systemen in anderen Regionen und Lebensräumen.“

Wissenschaftliche Ansprechpartner:
Dr. Wiebke Mohr
Abteilung Biogeochemie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-6300
E-Mail: wmohr@mpi-bremen.de

Dr. Fanni Aspetsberger
Pressereferentin
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9470
E-Mail: presse@mpi-bremen.de

Originalpublikation:
Wiebke Mohr, Nadine Lehnen, Soeren Ahmerkamp, Hannah K. Marchant, Jon S. Graf, Bernhard Tschitschko, Pelin Yilmaz, Sten Littmann, Harald Gruber-Vodicka, Nikolaus Leisch, Miriam Weber, Christian Lott, Carsten J. Schubert, Jana Milucka, Marcel M. M. Kuypers (2021): Terrestrial-type nitrogen-fixing symbiosis between seagrass and a marine bacterium. Nature (2021)
DOI: 10.1038/s41586-021-04063-4 (https://doi.org/10.1038/s41586-021-04063-4)

Weitere Informationen:
https://www.mpi-bremen.de/Page5462.html

Anhang
Ein Teil der Bucht von Fetovaia, wo die meisten Proben dieser Studie gesammelt wurden.

(nach oben)


MCC: Eine Tonne CO₂ aus der Luft filtern kostet tausend Kilowattstunden Energie

Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH
Das Zehntausend-Seelen-Dorf Hilwil bei Zürich ist eine Art Mekka für Klimaschutz-Bewegte: Schon seit 2017 betreibt dort die Firma Climeworks eine futuristisch anmutende Pilotanlage für „Direct Air Caputure“ – und holt mit chemischen Filtern jährlich 900 Tonnen des wichtigsten Treibhausgases Kohlendioxid (CO₂) aus der Atmosphäre. Dass dies nicht nur imposant aussieht, sondern auch in großem Umfang sinnvoll sein könnte, belegt jetzt eine neue Studie unter Mitwirkung des Berliner Klimaforschungsinstituts MCC (Mercator Research Institute on Global Commons and Climate Change). Sie wurde in der renommierten Fachzeitschrift Nature Energy veröffentlicht.

Die Studie zeigt erstmals den Ressourcenverbrauch über den gesamten Lebenszyklus solcher Filter-Anlagen hinweg. Mit im Blick sind auch die für den Filterbetrieb nötige Chemikalie („Sorbtionsmittel“) sowie der Abtransport und die Speicherung des entnommenen CO₂. Betrachtet werden die Ressourcen Energie, Materialien, Landfläche und Wasser sowie die vor allem beim Bau und schlussendlichen Abriss der Anlagen freigesetzten Feinstaub-Emissionen. Die Analyse basiert auf Daten von Climeworks für die sogenannte TSA-Filtertechnologie sowie von der kanadischen Firma Carbon Engineereing für das konkurrierende HAT-Aq-Verfahren. Die Studie untersucht auch die Folgen veränderter technischer Rahmenbedingungen, etwa eines „grüneren“ Energiemixes oder einer CO₂-ärmeren Wertschöpfungskette für das Sorbtionsmittel.

„Unser systematischer Ansatz ermöglicht es, die Luftfilter-Anlagen wirklich vergleichbar zu machen mit allen anderen Klimaschutz-Optionen“, erklärt Felix Creutzig, Leiter der MCC-Arbeitsgruppe Landnutzung, Infrastruktur und Transport und Co-Autor. In der Studie wird bereits die CO₂-Entnahme über Bioenergie-Plantagen nach dem gleichen Schema klassifiziert, ebenso die Emissionsminderung durch Elektroautos statt Verbrenner sowie durch Wärmepumpen statt Gasthermen. „Die Luftfilter schaffen viel Klimaschutz auf besonders wenig Platz, das ist angesichts der weltweit knappen Ressource Land ein großer Pluspunkt“, sagt Creutzig. „Auf kurze Sicht ist es kosteneffektiver, durch Elektrifizierung des Endverbrauchs CO₂-Ausstoß zu vermeiden – doch in ein oder zwei Jahrzehnten, mit fortschreitender Dekarbonisierung der Wirtschaft, kann auch diese Option in großem Stil einen effizienten Beitrag für den Klimaschutz leisten.“

Mit dem von Climeworks verwendeten TSA-Verfahren eine Tonne CO₂ aus der Luft zu filtern, erfordert unter heutigen Rahmenbedingungen 1000 Kilowattstunden grüner Energie – das ist viel, aber bei der Verkehrs- und Wärmewende liegt der zusätzliche Grünstrom-Bedarf in der gleichen Größenordnung. Außerdem benötigt man dann 36 Kilogramm Material, 7 Tonnen Sorbtionsmittel, 3 Kubikmeter Wasser sowie ein Jahr lang 11.000 Quadratmeter Platz; zudem werden anteilig 180 Gramm Feinstaub emittiert. Die Studie gewichtet den Ressourcenverbrauch auch nach seiner Klimawirkung. Demnach sind konventionell mit Energie aus Erdgas betriebene Luftfilter derzeit CO₂-ineffizient: Unter dem Strich werden für eine Tonne herausgefiltertes CO₂ früher oder später 300 Kilogramm CO2-Äquivalente emittiert. Das von der Firma Carbon Engineering verwendeten HAT-Aq-Verfahren schneidet mit 580 Kilo im Vergleich noch schlechter ab. Dagegen liegen diese Werte in einem Szenario mit CO₂-armer Wärme- und Stromversorgung deutlich niedriger, nämlich bei 150 und 260 Kilo.

„Die Gefahr ist groß, dass die Technologie der Luftfilter noch nicht in ausreichender Größenordnung einsatzbereit ist, wenn sie in ein oder zwei Jahrzehnten gebraucht wird“, sagt Kavya Mahdu, Doktorandin an der Universität Freiburg und Leitautorin der Studie. „Denn die bisherige Unsicherheit über den genauen technischen Aufwand führt dazu, dass sich auch keine klaren Vorstellungen über Geschäftsmodelle und eine sachgerechte staatliche Förderung herausbilden können. Unsere Arbeit liefert einen Beitrag, um die eklatante Innovations- und Politiklücke in diesem Bereich zu schließen.“

Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/creutzig-felix.html

Originalpublikation:
Mahdu, K., Pauliuk, S., Dhathri, S., Creutzig, F., 2021, Understanding environmental trade-offs and resource demand of direct air capture technologies through comparative life-cycle assessment, Nature Energy
https://doi.org/10.1038/s41560-021-00922-6

Weitere Informationen:
https://www.mcc-berlin.net

Anhang
MCC: Eine Tonne CO₂ aus der Luft filtern kostet tausend Kilowattstunden Energie

Ergänzung vom 29.10.2021
KORREKTUR: Die im letzten Absatz der Pressemeldung und im Zitationshinweis genannte Leitautorin schreibt sich „Madhu“, nicht „Mahdu“.

(nach oben)


Post-COVID: Analysen zeigen mögliche gesundheitliche Auswirkungen von COVID-19 auch bei Kindern und Jugendlichen

Claudia Kallmeier Pressestelle
Technische Universität Dresden
COVID-19-Patienten erhielten mehr als drei Monate nach der akuten Infektion häufiger ärztliche Diagnosen physischer und psychischer Symptome und Erkrankungen als Menschen ohne COVID-19-Diagnose. Das ergeben Analysen von umfangreichen Krankenversicherungsdaten. Nicht nur Erwachsene, auch Kinder und Jugendliche sind demnach potenziell von Post-COVID betroffen.

Gemeinsame Pressemitteilung von Universitätsklinikum Dresden/Zentrum für Evidenz-basierte Gesundheitsversorgung (ZEGV), AOK Bayern – Die Gesundheitskasse, AOK PLUS Sachsen und Thüringen, BARMER, DAK-Gesundheit, InGef – Institut für angewandte Gesundheitsforschung Berlin und Techniker Krankenkasse

COVID-19-Patienten erhielten mehr als drei Monate nach der akuten Infektion häufiger ärztliche Diagnosen physischer und psychischer Symptome und Erkrankungen als Menschen ohne COVID-19-Diagnose. Das ergeben Analysen von umfangreichen Krankenversicherungsdaten. Nicht nur Erwachsene, auch Kinder und Jugendliche sind demnach potenziell von Post-COVID betroffen: Zu den am stärksten mit COVID-19 assoziierten dokumentierten Symptomen und Erkrankungen zählen bei Kindern und Jugendlichen unter anderem Unwohlsein und rasche Erschöpfung, Husten, Schmerzen im Hals- und Brustbereich sowie Angststörungen und Depression. Erwachsene verzeichneten insbesondere vermehrt ärztliche Diagnosen von Geschmacksstörungen, Fieber, Husten und Atembeschwerden. An der Studie sind mehrere gesetzliche Krankenkassen unter Koordination des Zentrums für Evidenzbasierte Gesundheitsversorgung (ZEGV) der Dresdner Hochschulmedizin und des Robert Koch-Instituts beteiligt.

Die Ergebnisse wurden als Preprint veröffentlicht („Post-COVID in chil-dren, adolescents, and adults: results of a matched cohort study in-cluding more than 150,000 individuals with COVID-19“, https://www.medrxiv.org/content/10.1101/2021.10.21.21265133v1).

„Dies ist international eine der ersten, großen kontrollierten Kohortenstudien zu Post-COVID. Die umfangreiche Datengrundlage unserer Partner und innovative methodische Verfahren erlauben erstmals auch belastbare Aussagen zu längerfristigen Folgen von COVID-19 bei Kindern und Jugendlichen“, sagt Prof. Dr. Jochen Schmitt vom Universitätsklinikum Dresden. Um die Zusammenhänge zwischen COVID-19 und den Erkrankungen zu verstehen, sei weitere Forschung notwendig. „Künftige Analysen sollten einen Fokus auf die Persistenz möglicher Gesundheitsprobleme in der Studienpopulation legen. Zudem ist es wichtig, die Übertragbarkeit der Ergebnisse auf spätere Phasen der Pandemie und damit einhergehende veränderte Versorgungsbedingungen zu untersuchen“, ergänzt Dr. Martin Rößler vom Universitäts-klinikum Dresden.

Unter Post-COVID werden längerfristige, mindestens drei Monate nach einer SARS-CoV-2-Infektion fortbestehende oder neu hinzukommende Krankheitssymptome und gesundheitliche Einschränkungen zusammengefasst. Bislang ist jedoch nicht klar, wodurch sich Post-COVID genau auszeichnet und wie viele Menschen davon betroffen sind. Um sich diesen Fragen zu nähern, ist man auf kontrollierte Studien angewiesen, in denen Personen nach gesicherter SARS-CoV-2-Infektion ausreichend lange und im Vergleich zu einer gut definierten Kontrollgruppe auf ihren Gesundheitszustand hin nachbeobachtet werden. Bisherige internationale Studien dieser Art weisen auf längerfristige gesundheitliche Auswirkungen bei Erwachsenen hin – die Analyse von ZEGV, RKI und Krankenkassen liefert nun erstmals auch Erkenntnisse zu Post-COVID bei jüngeren Altersgruppen auf Grundlage deutscher Krankenkassendaten. Datenbasis der Studie sind Abrechnungsdaten der Jahre 2019 und 2020 von ca. 38 Millionen gesetzlich Versicherten der AOK Bayern, der AOK PLUS Sachsen und Thüringen, der BARMER, der DAK-Gesundheit, der Techniker Krankenkasse sowie der InGef Forschungsdatenbank, über die ein wesentlicher Teil der Daten von Betriebskrankenkassen einbezogen wurde.

In die Analyse gingen Daten von mehr als 150.000 Personen mit labormedizinisch nachgewie-sener COVID-19-Erkrankung im ersten Halbjahr 2020 ein, darunter fast 12.000 Kinder und Jugendliche. Für jede infizierte Person wurden fünf nichtinfizierte Versicherte in die Studie eingeschlossen, die hinsichtlich Alter, Geschlecht, Vorerkrankungen und Nachbeobachtungszeit vergleichbar waren. Infizierte und nicht-Infizierte wurden hinsichtlich 96 vorab festgelegter Symptome und Erkrankungen verglichen, die drei Monate nach Infektions- bzw. Einschlussdatum neu dokumentiert wurden.

Die Analysen zeigen, dass bei Erwachsenen, aber auch bei Kindern und Jugendlichen mehr als drei Monate nach COVID-19-Diagnose häufiger neue Symptome und Erkrankungen diagnostiziert wurden als bei vergleichbaren Personen ohne COVID-19-Diagnose. Die neu dokumentierten Diagnosen betreffen sowohl physische als auch psychische Erkrankungen sowie eine Vielzahl unterschiedlicher Organsysteme und Symptomkomplexe. In Bezug auf alle betrachteten Symptome und Erkrankungen lag die Häufigkeit neu dokumentierter Diagnosen bei Kindern und Jugendlichen mit COVID-19 um ca. 30% höher als bei Kindern ohne COVID-19-Diagnose. Dies ergab der Vergleich von Diagnoseraten bezogen auf 1.000 Personenjahre, deren Berechnung die unterschiedlichen Nachbeobachtungszeiten der in die Studie eingeschlossenen Personen berücksichtigt. Die Diagnoserate betrug bei Kindern mit COVID-19 ca. 437 und bei Kindern ohne COVID-19-Diagnose ca. 336. Bei Erwachsenen mit COVID-19-Diagnose lag die Diagnoserate mit rund 616 um ca. 33% höher als die Diagnoserate von 464 der Kontrollgruppe ohne COVID-19. Insgesamt waren Kinder und Jugendliche seltener betroffen als Erwachsene.

Die Studie ist Teil des Projektes “Post-COVID-19 Monitoring in Routine Health Insurance Data” (POINTED). In früheren Analysen wurden bereits Risikofaktoren für schwere COVID-19-Verläufe auf Basis von Krankenkassendaten untersucht (siehe Veröffentlichung im EpidBull 19/2021:https://www.rki.de/DE/Content/Infekt/EpidBull/Archiv/2021/19/Art_02.html)

Kontakt:

Pressestelle des Universitätsklinikums Carl Gustav Carus:
E-Mail: pressestelle@uniklinikum-dresden.de
Tel.: 0351 458-4162

AOK Bayern
Michael Leonhart
Tel.: 089 62730-146
E-Mail: presse@by.aok.de

AOK PLUS
Hannelore Strobel
Tel.: 0800 10590-11144
E-Mail: presse@plus.aok.de

BARMER
Athanasios Drougias
Tel.: 0800 333004991421
E-Mail: athanasios.drougias@barmer.de

DAK-Gesundheit
Jörg Bodanowitz
Tel.: 040 2364855-9411
E-Mail: joerg.bodanowitz@dak.de

InGef – Institut für angewandte Gesundheitsforschung Berlin GmbH
Malte Harlinghausen
Unternehmenskommunikation
Tel.: 030 586945 161
E-Mail: Malte.Harlinghausen@SpectrumK.de

Techniker Krankenkasse
Gabriele Baron
Tel. 040 – 69 09-17 09
E-Mail: gabriele.baron@tk.de

Wissenschaftliche Ansprechpartner:
Zentrum für Evidenzbasierte Gesundheitsversorgung, Universitätsklinikum Carl Gustav Carus und Medizinische Fakultät der TU Dresden
Autoren der Studie:
Dr. Martin Rößler/Prof. Dr. Jochen Schmitt
E-Mail: correspondence.zegv@ukdd.de (direkte Kontaktaufnahme)
Tel.: 0351 458-89211 (Sekretariat)

(nach oben)


Anpassung an den Klimawandel: Großtechnische Umsetzung von Gemüseproduktion mit Wasserwiederverwendung

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Vom Pilotprojekt in die großtechnische Realisierung: Das im Forschungsprojekt HypoWave erfolgreich entwickelte Verfahren einer landwirtschaftlichen Lebensmittelproduktion mit recyceltem Wasser geht erstmals im großen Maßstab in die Anwendung. Im Zuge des Nachfolgeprojekts HypoWave+ hat der Forschungsverbund mit den Vorbereitungen für die hydroponische Gemüseproduktion mit aufbereitetem Bewässerungswasser auf einem Hektar Fläche begonnen.

Die landwirtschaftliche Produktion ist weltweit immer stärker auf Bewässerung angewiesen. Doch regionale Wasserknappheiten und daraus resultierende Nutzungskonflikte nehmen zu. Ertragreiche Ernten sind auch in Deutschland aufgrund von lang anhaltender Hitze und trockenen Böden keine Selbstverständlichkeit. Gesucht werden neue, wassersparende Anbauverfahren. Mit dem Forschungsprojekt HypoWave+ unter der Leitung der Technischen Universität Braunschweig fördert das Bundesministerium für Bildung und Forschung (BMBF) deshalb die Umsetzung einer alternativen landwirtschaftlichen Anbauform in Kombination mit Wasserwiederverwendung im großtechnischen Maßstab. 

HypoWave-Verfahren: Alternative für die Landwirtschaft
Das hydroponische Verfahren, bei dem Pflanzen in Gefäßen ohne Erde über eine Nährlösung unter Verwendung von recyceltem Wasser versorgt werden, war in einem Vorgängerprojekt im niedersächsischen Hattorf erfolgreich erprobt worden. „Jetzt geht es darum, die Erfahrungen mit dem wassereffizienten Verfahren auf der Basis von recyceltem Wasser in die Großproduktion zu bringen und wissenschaftlich zu begleiten“, sagt Projektleiter Thomas Dockhorn von der TU Braunschweig. Mit dem neuen HypoWave-Verfahren könne nicht nur eine Alternative zur Bewässerung mit Trink- und Grundwasser erschlossen werden. Die Anbauform bediene sich zugleich einer optimierten Nährstoffversorgung, da den Pflanzen lebenswichtige Nährstoffe wie z.B. Stickstoff und Phosphor aus dem aufbereiteten Wasser zugeführt werden. 

Trotz Wasserknappheit: Regionale Lebensmittelerzeugung in Zeiten des Klimawandels
Die Wissenschaftler*innen planen gemeinsam mit niedersächsischen Landwirten auf einem Hektar Anbaufläche die Produktion von bis zu 700 Tonnen Tomaten und Paprika unter Glas. Das Gemüse soll im regionalen Lebensmitteleinzelhandel bis auf eine kurze Winterpause ganzjährig verkauft werden. „Im Zuge der wissenschaftlichen Begleitung von HypoWave+ konzentrieren wir uns auf Fragen des Qualitätsmanagements und der Marktfähigkeit des Verfahrens“, sagt Projektkoordinatorin Martina Winker vom ISOE – Institut für sozial-ökologische Forschung in Frankfurt. Wichtig sei es, nicht nur für diesen Standort eine tragfähige Lösung zu entwickeln, sondern daraus auch Empfehlungen für andere Orte und Landwirte ableiten zu können. Der Klimawandel schreitet sichtbar voran. Der regionale wasserschonende und ganzjährig im Gewächshaus mögliche Gemüseanbau könne daher zu einer echten Option für Landwirte werden. „Dafür wollen wir die notwendigen Weichen stellen“, sagt Winker.

Das Forschungsprojekt HypoWave+
Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Verbundprojekt „HypoWave+ – Implementierung eines hydroponischen Systems als nachhaltige Innovation zur ressourceneffizienten landwirtschaftlichen Wasserwiederverwendung“ zur Fördermaßnahme „Wassertechnologien: Wasserwiederverwendung“ im Rahmen des Bundesprogramms „Wasser: N“. Wasser: N ist Teil der BMBF-Strategie Forschung für Nachhaltigkeit (FONA). Die Fördersumme beträgt 2,8 Millionen Euro. Die Projektpartner im Forschungsverbund unter der Leitung der Technischen Universität Carolo-Wilhelmina zu Braunschweig, Institut für Siedlungswasserwirtschaft (ISWW), sind das ISOE – Institut für sozial-ökologische Forschung, das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die Universität Hohenheim (UHOH), der Abwasserverband Braunschweig (AVB), der Wasserverband Gifhorn (WVGF), IseBauern GmbH & Co. KG, aquatune GmbH (a Xylem brand), Ankermann GmbH & Co. KG, Huber SE und INTEGAR – Institut für Technologien im Gartenbau GmbH.

Bildmaterial unter www.flickr.com/photos/102295333@N04/albums/72157688518183561

Wissenschaftliche Ansprechpartner:
Dr. Martina Winker
Projektkoordinatorin HypoWave+
ISOE – Institut für sozial-ökologische Forschung
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 6919-53
winker@isoe.de

Weitere Informationen:
http://www.hypowave.de

Anhang
Anpassung an den Klimawandel: Großtechnische Umsetzung von Gemüseproduktion mit Wasserwiederverwendung

(nach oben)


Wie aus chronischer Darmentzündung Krebs entstehen kann

Frederike Buhse Presse- und Öffentlichkeitsarbeit
Exzellenzcluster Präzisionsmedizin für chronische Entzündungserkrankungen
Ein Kieler Forschungsteam des Exzellenzclusters „Precision Medicine in Chronic Inflammation“ hat einen neuartigen Mechanismus gefunden, der die DNA-Reparatur bei Menschen mit chronischen Darmentzündungen stören und so zu Darmkrebs führen kann.

Chronisch-entzündliche Darmerkrankungen (CED) sind schubweise auftretende Entzündungen des Magen-Darm-Trakts, die mit blutigen Stuhlgängen, Durchfällen und starken Beeinträchtigungen der Lebensqualität einhergehen. Menschen mit einer CED haben ein erhöhtes Risiko, auch an Darmkrebs zu erkranken. Dieser wird bei CED-Patientinnen und -Patienten dadurch begünstigt, dass die DNA in den Darmschleimhautzellen durch chronische Entzündungsprozesse beschädigt wird. Wird die DNA in einer Zelle geschädigt, so schützt sich im gesunden Zustand die Zelle vor der Anreicherung eines fehlerhaften Genoms dadurch, dass sie sich nicht mehr weiter teilt. Unter Entzündungsbedingungen sind diese Schutzmechanismen jedoch aufgehoben und begünstigen die Entstehung von Darmkrebs. Warum aber bei chronischer Entzündung diese Schutzmechanismen aufgehoben sind, ist bislang nicht verstanden.

Ein Team aus dem Exzellenzcluster „Precision Medicine in Chronic Inflammation“ (PMI) hat nun gezeigt, dass das Gen XBP1, welches ein Risikogen für CED ist, ganz entscheidend darauf einwirkt, wie eine Darmschleimhautzelle mit entstandenem DNA-Schaden umgeht und sich somit vor der Entstehung von Krebs schützt. Zusätzlich konnte das Team um Professor Philip Rosenstiel und PD Dr. Konrad Aden vom Institut für klinische Molekularbiologie (IKMB) der Christian-Albrechts-Universität zu Kiel (CAU) und des Universitätsklinikums Schleswig-Holstein (UKSH), Campus Kiel, erste Hinweise auf den möglichen dahinterliegenden Mechanismus finden. Ihre Ergebnisse haben sie im renommierten Fachjournal „Gastroenterology“ veröffentlicht.

Risikogen verschlechtert DNA-Reparatur
Im gesunden, nicht-veränderten Zustand kodiert das Gen XBP1 für ein Protein, das für das molekulare Gleichgewicht in der Darmschleimhaut sorgt und vor Entzündungen schützt. Bei CED-Patientinnen und Patienten kann ein Funktionsverlust dieses Gens im Darm zu einer gestörten Barriere und ungebremster Entzündung führen. Das Kieler Forschungsteam hat in der nun erschienenen Studie gezeigt, dass das Gen auch für die Entstehung von Darmkrebs eine Rolle spielen könnte. Fehlt das Gen in den Deckzellen der Darmschleimhaut wird ein wichtiger Reparaturmechanismus des Erbgutes nicht mehr korrekt ausgeführt. „Wenn das CED-Risikogen XBP1 in Darmepithelzellen fehlt, dann kommt es zu Schäden der DNA und zu vermehrter Zellteilung. Tiere mit einem defekten XBP1 Gen entwickelten einen invasiven Darmkrebs“, berichtet die Erstautorin Lina Welz, die als Clinician Scientist des Exzellenzclusters PMI parallel am IKMB als Doktorandin forscht und am UKSH, Campus Kiel, in der Klinik für Innere Medizin I ihre Facharztweiterbildung absolviert.

Mechanismus über Tumorsuppressor p53 und mTOR Signalweg
Im nächsten Schritt wollten die Forschenden genauer verstehen, über welchen Mechanismus das Gen XBP1 die DNA-Reparatur reguliert und daher bei Fehlfunktion zu Krebs führt. Hierbei stießen die Forschenden auf den bereits bekannten molekularen Schalter p53, einen sogenannten Tumorsuppressor, welcher die Zelle vor der malignen Entartung schützt. p53 gilt als „Wächter des Genoms“ und spielt eine entscheidende Rolle bei der Kontrolle des Zellwachstums. Das Forschungsteam konnte zeigen, dass XBP1 die Aktivität des p53 Tumorsuppressors koordiniert. Darüber hinaus konnten sie einen neuen Mechanismus identifizieren, wie der Tumorsuppressor p53 das unkontrollierte Wachstum von intestinalen Epithelzellen unterdrückt. „Unsere Ergebnisse weisen darauf hin, dass XBP1 und p53 gemeinsam über den sogenannten mTOR Signalweg verhindern, dass sich eine geschädigte Darmepithelzelle unkontrolliert vermehrt und damit entarten kann“, sagt einer der Seniorautoren PD Dr. Konrad Aden, Senior Clinician Scientist des Exzellenzclusters PMI und Oberarzt in der Klinik für Innere Medizin I am UKSH, Campus Kiel.

Möglicher Therapieansatz
Der mTOR-Signalweg wird in der Medizin schon länger für andere Krankheiten als therapeutisches Ziel genutzt und könnte einen neuen frühen Zugang zur Krebstherapie bieten. Die Forschenden haben Mäuse und Zellsysteme mit erhöhten DNA-Schäden und defektem XBP1-Gen mit einem spezifischen Hemmstoff des mTOR-Wegs, dem Wirkstoff Rapamycin, behandelt. „In unseren Modellen konnten durch Rapamycin die vermehrte Zellteilung und die daraus resultierenden Folgeschäden deutlich reduziert werden“, berichtet Aden.

„Obwohl wir schon länger wissen, dass aus chronischen Darmentzündungen Krebs entstehen kann, wissen wir nur relativ wenig über die zugrundeliegenden Prozesse. Unsere Ergebnisse liefern nun eine neue Verknüpfung von Entzündung, gestörter Zellteilung und Reparatur des Erbgutes“, berichtet Seniorautor Professor Philip Rosenstiel, Direktor des IKMB. „Wir werden daher in weiteren Studien untersuchen, wie die gezielte Hemmung des mTOR-Signalweges für die Prävention von Darmentzündungen und von Darmkrebs genutzt werden kann“, so Rosenstiel.

„Dieser wissenschaftliche Erfolg einer Clinician Scientist des Clusters beweist auch die Leistungsfähigkeit des Clinician-Scientist-Programms im Exzellenzcluster PMI, welches es Ärztinnen und Ärzten ermöglicht parallel zu ihrer Facharztweiterbildung gleichberechtigt forschen zu können. Durch die so geschaffenen Forschungsfreiräume und die gute wissenschaftliche Infrastruktur gelingt es klinisch tätigen Ärztinnen und Ärzten, wie hier Lina Welz, solche herausragenden wissenschaftlichen Leistungen zu erzielen“, betont Professor Stefan Schreiber, PMI-Sprecher, Direktor des IKMB, CAU und UKSH, und Direktor der Klinik für Innere Medizin I des UKSH, Campus Kiel.

Fotos stehen zum Download bereit:
https://www.precisionmedicine.de/de/pressemitteilungen/pressebilder-2021/16-entz…
Mikroskopische Aufnahme von entzündetem Darmgewebe, rechts ist der DNA-Reparaturmechanismus gestört, was ein verstärktes, tumorbegünstigendes Wachstum bedingt.
© IKMB, Uni Kiel

Der Exzellenzcluster „Präzisionsmedizin für chronische Entzündungserkrankungen/Precision Medicine in Chronic Inflammation“ (PMI) wird von 2019 bis 2025 durch die Exzellenzstrategie des Bundes und der Länder gefördert (ExStra). Er folgt auf den Cluster Entzündungsforschung „Inflammation at Interfaces“, der bereits in zwei Förderperioden der Exzellenzinitiative (2007-2018) erfolgreich war. An dem neuen Verbund sind rund 300 Mitglieder in acht Trägereinrichtungen an vier Standorten beteiligt: Kiel (Christian-Albrechts-Universität zu Kiel, Universitätsklinikum Schleswig-Holstein, Muthesius Kunsthochschule, Institut für Weltwirtschaft und Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik), Lübeck (Universität zu Lübeck, Universitätsklinikum Schleswig-Holstein), Plön (Max-Planck-Institut für Evolutionsbiologie) und Borstel (Forschungszentrum Borstel – Leibniz Lungenzentrum).
Ziel ist es, die vielfältigen Forschungsansätze zu chronisch entzündlichen Erkrankungen von Barriereorganen in ihrer Interdisziplinarität verstärkt in die Krankenversorgung zu übertragen und die Erfüllung bisher unbefriedigter Bedürfnisse von Erkrankten voranzutreiben. Drei Punkte sind im Zusammenhang mit einer erfolgreichen Behandlung wichtig und stehen daher im Zentrum der Forschung von PMI: die Früherkennung von chronisch entzündlichen Krankheiten, die Vorhersage von Krankheitsverlauf und Komplikationen und die Vorhersage des individuellen Therapieansprechens.
Exzellenzcluster Präzisionsmedizin für chronische Entzündungserkrankungen
Wissenschaftliche Geschäftsstelle, Leitung: Dr. habil. Susanne Holstein
Postanschrift: Christian-Albrechts-Platz 4, D-24118 Kiel
Telefon: (0431) 880-4850, Telefax: (0431) 880-4894
Twitter: PMI @medinflame

Pressekontakt:
Frederike Buhse
Telefon: (0431) 880 4682
E-Mail: fbuhse@uv.uni-kiel.de
https://precisionmedicine.de

Link zur Meldung:
https://www.precisionmedicine.de/de/detailansicht/news/wie-aus-chronischer-darme…

Wissenschaftliche Ansprechpartner:
Lina Welz
Klinik für Innere Medizin I, UKSH Kiel
Institut für Klinische Molekularbiologie, CAU, UKSH
Tel.: 0431/500-62011
l.welz@ikmb.uni-kiel.de

PD Dr. Konrad Aden
Klinik für Innere Medizin I, UKSH Kiel
Institut für Klinische Molekularbiologie, CAU, UKSH
Tel.: 0431/500-15167
k.aden@ikmb.uni-kiel.de

Prof. Dr. Philip Rosenstiel
Institut für Klinische Molekularbiologie, CAU, UKSH
Tel.: 0431/500-15111
p.rosenstiel@mucosa.de

Originalpublikation:
Welz L, Kakavand N, Hang X, Laue G, Ito G, Silva MG, Plattner C, Mishra N, Tengen F, Ogris F, Jesinghaus M, Wottawa F, Arnold P, Kaikkonen L, Stengel S, Tran F, Das S, Kaser A, Trajanoski Z, Blumberg R, Roecken C, Saur D, Tschurtschenthaler M, Schreiber S, Rosenstiel P and Aden K. Epithelial XBP1 coordinates TP 53-driven DNA damage responses and suppression of intestinal carcinogenesis. Gastroenterology (2021), https://doi.org/10.1053/j.gastro.2021.09.057

(nach oben)


Es wird heiß: Forschen bei 2000°C

Dr. Manuela Rutsatz Stabsstelle Kommunikation und Marketing
Universität Augsburg
Ein neuer Hochtemperaturofen ermöglicht es, im KI-Produktionsnetzwerk an der Universität Augsburg faserverstärkte keramische Verbundwerkstoffen für Luft- und Raumfahrt zu erforschen.

Rot glühen Hitzeschilde von Raumfähren beim Wiedereintritt in die Atmosphäre. Obwohl enorme Kräfte und Temperaturen wirken, geschieht nichts, denn: Sie bestehen aus keramischen Verbundwerkstoffen. Wissenschaftlerinnen und Wissenschaftler der Universität Augsburg forschen im Rahmen des KI-Produktionsnetzwerks im Bereich „Generative Designmethoden und Werkstoffentwicklung“, wie diese Materialien entstehen und verbessern sie. Seit kurzem ergänzt ein besonderer Hochtemperaturofen die Laborausstattung. Er ermöglicht einzigartige Einblicke in die Herstellung keramischer Verbundwerkstoffe.

Der Ofen
Der Hochtemperaturofen, der das Team rund um Prof. Dr. Dietmar Koch (Leiter des Lehrstuhls für Materials Engineering an der Universität Augsburg, Direktoriumsmitglied KI-Produktionsnetzwerk) unterstützt, erlaubt den Forschenden im Bereich der keramischen Verbundwerkstoffe den dafür nötigen Vorgang der thermischen Hochtemperaturbehandlung genau zu untersuchen. Im Unterschied zu handelsüblichen Backöfen wird das Gerät bis zu 2000°C heiß. Bei einem Hochtemperaturvorgang ist er mit Schutzgasen wie Stickstoff oder Argon gefüllt, damit Sauerstoff – ein hoch reaktives Gas – nicht Teil der chemischen Reaktion wird. Was ihn zudem besonders macht, sind seine Messsysteme, die es ermöglichen, jeden Schritt der Herstellung keramischer Verbundwerkstoffe mitzuverfolgen:

Keramische Verbundwerkstoffe
„Unser Ausgangsmaterial sind polymere Faserverbundwerkstoffe“, erklärt Professor Koch. Dabei handelt es sich um Verstärkungsfasern aus Kohlenstoff oder um keramische SiC Fasern, die in einer Matrix – in diesem Fall ein Polymer, also einem Kunststoff − eingebettet und damit verbunden sind. Diese werden in dem Hochtemperaturofen mit Wärme behandelt, von dem Polymer bleibt eine poröse Kohlenstoffstruktur zurück. „Im Ofen schmelzen wir anschließend Silicium und geben die poröse Kohlenstoffstruktur hinein. Diesen Prozess nennt man Silicierung“, erläutert Koch. Dabei entsteht Siliciumcarbid, eine keramische Matrix, die gemeinsam mit den Verstärkungsfasern einen keramischen Verbundwerkstoff bildet. Er hält extrem hohen Temperaturen stand, ist leicht und weist hervorragende mechanische Eigenschaften auf – zum Beispiel ein schadenstolerantes Verhalten. Das bedeutet, dass keramische Verbundwerkstoffe nicht so leicht zerspringen wie der Porzellanteller zuhause. Grund hierfür sind die enthaltenen Fasern, die die Energie eines Schlages auffangen. Insgesamt macht all dies die Verbundkeramiken interessant für Luft- und Raumfahrt.

„Wir wollen verstehen, wie sich das Material verändert und welche Parameter wichtig sind, um gute Bauteileigenschaften zu erhalten“, erklärt Koch weiter. Deshalb ist beispielsweise eine Wärmebildkamera integriert, welche die Temperaturverteilung auf der gesamten Oberfläche des Werkstücks anzeigt sowie ein Pyrometer, das punktuell und exakt die Temperatur feststellt. Ein Infrarotspektrometer erlaubt es, austretende Gase zu erkennen und zu analysieren, während eine Waage Masseänderungen – sei es Abnahme durch entweichende Gase oder Zunahme bei der Silicierung – im Auge behält. Und auch die Änderung der Probengeometrie, also grob gesagt des „Aussehens“ eines Werkstücks, wird mitverfolgt.

Digitaler Zwilling
Um die entscheidenden Parameter aus der Datenmenge herauszufiltern, erhalten die Forschenden Unterstützung von einer KI, denn: „Wenn ein Experiment eine hohe Festigkeit zum Ergebnis hat und man diesen Zustand wünschenswert findet, dann interessiert uns, welche Umstände hierzu geführt haben. Die Temperatur? Die Länge des Hochtemperaturvorgangs? Die Möglichkeiten sind vielfältig“, konkretisiert Koch. Deshalb werden alle Daten aus dem Prozess sowie aus der Überwachung des Werkstückes dazu verwendet, im Bereich „Digitale Zwillinge für Produkt, Werkstoff, Prozess und Produktionsnetzwerk“ des KI-Produktionsnetzwerks einen „digitalen Zwilling“ von ihm abzubilden. Dieser „virtuelle Ofen“ kann alle Möglichkeiten durchprobieren und entsprechende Zusammenhänge finden. „Die Forschung um und mit dem Hochtemperaturofen zeigen, wie eng verzahnt die einzelnen Forschungsaspekte des KI-Produktionsnetzwerk sind und wie sie sich gegenseitig bereichern“, kommentiert der Direktor des KI-Produktionsnetzwerks, Prof. Dr. Markus Sause, den Neuerwerb.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Dietmar Koch
Lehrstuhlinhaber
Materials Engineering
Telefon: +49 821 598 – 69220
Mail: dietmar.koch@mrm.uni-augsburg.de

(nach oben)


Zäh und trotzdem abbaubar

Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
Chemikern der Universität Konstanz gelingt die Herstellung einer neuen Art von Polyethylen

Polyethylen ist der am häufigsten hergestellte Kunststoff der Welt. Er wird aufgrund seiner Eigenschaften wie Zähigkeit in sehr vielen verschiedenen, auch langlebigen Anwendungen eingesetzt. Die Arbeitsgruppe von Prof. Dr. Stefan Mecking im Fachbereich Chemie der Universität Konstanz kann nun durch die Einführung polarer Gruppen in die Molekülketten von Polyethylen dazu beitragen, die Eigenschaften des neuen Materials zu erweitern und gleichzeitig die problematische Umweltbeständigkeit des Kunststoffs zu verringern. Die erwünschten vorteilhaften Eigenschaften von Polyethylen bleiben dabei erhalten. Die Ergebnisse der Laborstudie sind im Wissenschaftsjournal Science vom 29. Oktober 2021 nachzulesen.

Bei Polyethylen handelt es sich um ein unpolares hydrophobes Material, das – ähnlich wie Wachs – sehr wasserabweisend ist. Um die Materialeigenschaften zu erweitern und beispielsweise die Haftung auf Metalloberflächen zu verbessern, besteht seit langem das Anliegen, bei der Herstellung von Polyethylen einen kleinen Anteil polarer Gruppen einzubauen. Das erwies sich in der Vergangenheit als schwierig, da die herkömmlichen Katalysatoren, die bei der Herstellung von Polyethylen bislang verwendet werden, durch polare Reagenzien zerstört werden.

Kleine Mengen Kohlenmonoxid und ein geeigneter Katalysator
Den Doktoranden Maximilian Baur, Tobias O. Morgen und Lukas Odenwald sowie dem Postdoktoranden und Humboldt-Stipendiaten Fei Lin ist es am Lehrstuhl für Chemische Materialwissenschaft gelungen, in die Molekülketten, aus denen die Kunststoffe bestehen, Ketogruppen einzubauen. Dies gelingt durch Verwendung eines Katalysators, welcher aufgrund seiner Position im Periodensystem der Elemente mit dem Kohlenmonoxid, das als Reagenz zur Erzeugung der Ketogruppen dient, verträglich ist.

Entscheidend ist dabei auch, dass nur eine begrenzte Menge an Ketogruppen erzeugt wird, um die typischen und vorteilhaften mechanischen Eigenschaften von Polyethylen wie seine Zähigkeit zu bewahren. „Es ist ein lange verfolgtes Ziel der Wissenschaft und Technik, solche Gruppen in die Polyethylenkette einzubauen. Das dieses nun gelungen ist, eröffnet neue Perspektiven“, fasst Stefan Mecking zusammen.

Der neue Kunststoff ist besser abbaubar
Eine weitere Besonderheit des neuen Kunststoffes ist, dass die kleinen Mengen an Ketogruppen die Abbaubarkeit verbessern können. Im Labormaßstab konnte gezeigt werden, dass unter simuliertem Sonnenlicht ein langsamer Abbau der Ketten einsetzt, was für Polyethylene nicht der Fall ist. „Das Material bietet Ansätze, nicht-persistentes Polyethylen zu entwickeln. Dazu sind aber sicherlich weitergehende Studien nötig, auch um das Langzeitverhalten zu verstehen“, äußert sich Stefan Mecking vorsichtig.

Die Arbeitsgruppe konnte indes in ihren Laborversuchen zeigen, dass das neue Material bezüglich seiner Mechanik und Verarbeitbarkeit dieselben wünschenswerten Eigenschaften besitzt wie herkömmliches Polyethylen.

Faktenübersicht:
• Originalpublikation: Maximilian Baur, Fei Lin, Tobias O. Morgen, Lukas Odenwald & Stefan Mecking: Polyethylene materials with in-chain ketones from non-alternating catalytic copolymerization, Science 29. Oktober 2021, DOI: 10.1126/science.abi8183 (voraussichtlich ab dem 29. Oktober 2021 verfügbar)
• SPERRFRIST: 28. OKTOBER 2021, 20 UHR MEZ (14 UHR U.S. Eastern Time)
• In der Arbeitsgruppe für Chemische Materialwissenschaft von Prof. Dr. Stefan Mecking gelingt die Einführung polarer Ketogruppen in die Molekülketten von Polyethylen
• Trägt dazu bei, Polyethylen als Werkstoff zu verbessern und gleichzeitig seine problematische Persistenz in der Umwelt zu verringern.
• Finanzierung der Studie mit den Mitteln des 2019 an Stefan Mecking verliehenen Advanced Grant des Europäischen Forschungsrates (ERC).

Hinweis an die Redaktionen:
Ein Foto kann im Folgenden heruntergeladen werden:
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2021/Mecking/zaeh_und_trotzd…
Bildunterschrift: Materialproben aus neuartigem Polyethylen mit eingebauten Sollbruchstellen in den Molekülketten.
Bildnachweis: Maximilian Baur, AG Mecking, Universität Konstanz

Wissenschaftliche Ansprechpartner:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Originalpublikation:
DOI: 10.1126/science.abi8183

(nach oben)


Mikroorganismen bilden elementaren Kohlenstoff

Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Rein biologisch: Forschende identifizieren einen neuen Weg zur Bildung von reinem Kohlenstoff durch Mikroorganismen

Kohlenstoff kommt auf der Erde in verschiedenen Strukturen und Formen vor. Elementarer Kohlenstoff entsteht meist durch hohen Druck und hohe Temperaturen. Nun haben Forschende erstmals Mikroorganismen identifiziert, die elementaren Kohlenstoff bilden. Das Team, dem auch Dr. Gunter Wegener vom MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen und dem Max-Planck-Institut für Marine Mikrobiologie Bremen angehört, hat nun seine Ergebnisse dazu in der Zeitschrift Science Advances veröffentlicht.

Das Leben auf der Erde basiert auf Kohlenstoff. Im Laufe der Evolution haben Lebewesen erlernt, eine große Menge unterschiedlicher Kohlenstoffverbindungen zu bilden und verarbeiten. So ist Kohlenstoff der Angelpunkt der meisten biologisch erzeugten organischen Verbindungen wie Proteine, Kohlenhydrate, Fette und DNA. All diese Verbindungen enthalten neben Kohlenstoff viele weitere Elemente wie Wasserstoff, Stickstoff oder Sauerstoff.

Elementarer Kohlenstoff wird auf der Erde ohne das Zutun von Leben aus organischen Kohlenstoffverbindungen gebildet, wenn große Hitze und Druck alle anderen Elemente wie Wasserstoff und Stickstoff austreiben. So wird beispielsweise aus Holz tief im Boden bei erhöhten Temperaturen erst Kohle, dann bilden sich mit weiter zunehmendem Druck und steigender Temperatur reine Kohlenstoffverbindungen wie Anthrazit und Graphit. Dies sind kristalline Formen des Kohlenstoffs. Werden Holz, Gas oder Öl verbrannt, bildet sich Ruß, eine weitgehend ungeordnete Form des Kohlenstoffs. Dass Lebewesen selbst elementaren Kohlenstoff bilden, war bisher nicht bekannt.

Der Bremer Wissenschaftler Dr. Gunter Wegener kultiviert seit mehr als 15 Jahren Mikroorganismen, die Methan ohne Sauerstoff verbrauchen, um Energie zu gewinnen. Diese den Archaeen zugerechneten Mikroorganismen leben mit bakteriellen Partnern in einer Symbiose. Viel Energie ist aus diesem Prozess für beide Partner nicht herauszuholen, und so wachsen die Konsortien mit für Mikroorganismen sehr langen Verdoppelungszeiten von mehreren Monaten. Schon vor längerer Zeit haben nun Forschende festgestellt, dass die mikrobiellen Konsortien ungewöhnlich dunkel, geradezu schwarz sind. Ein Teil dieser schwarzen Masse wurde schon früh als Metallsulfide beschrieben. Diese bilden sich aus dem zum Nährmedium hinzugesetzten Eisen und dem durch die Partnerbakterien produzierten Sulfid.

Wegeners Kolleg:innen Dr. Kylie Allen und Prof. Robert White an der Virginia Tech (USA) sind ständig auf der Suche nach neuen Biomolekülen und deren Funktionen. Auf ihrer Suche extrahierten sie auch methanoxidierende Kulturen aus dem Labor von Gunter Wegener mit organischen Lösungsmitteln. Zurück blieb eine schwarze Masse, die auch durch starke Säuren und Basen nicht gelöst werden konnte. „Erst waren wir ratlos, was diese schwarze Masse wohl war“, erklärt Robert White. „Dann nutzten wir andere Methoden, um diesen Stoff als Festphase zu analysieren. Dabei fanden wir heraus, dass es sich um nahezu reinen Kohlenstoff handelte. Dieser Kohlenstoff liegt gänzlich ungeordnet vor, wir sprechen daher auch von amorphem Kohlenstoff.“ Woher stammte dieser elementare Kohlenstoff? Eine rein chemische Herkunft hatte das Team ausgeschlossen. Nun fütterten sie die Kultur mit Substraten mit isotopisch markiertem Kohlenstoff, der im Abbauprozess verfolgt werden kann, und analysierten den gebildeten Kohlenstoff. „So konnten wir nachweisen, dass tatsächlich die methanoxidierenden Archaeen für die Bildung des elementaren Kohlenstoffs verantwortlich sind“, sagt Gunter Wegener.

Als nächsten Schritt untersuchten die Forschenden die nächsten Verwandten der Methanoxidierer, die methan-bildenden Archaeen – auch Methanogene genannt. „Wenn auch nicht in dem gleichen Maße, erzeugten viele der getesteten Stämme ebenfalls elementaren Kohlenstoff“, sagt Robert White.

Die Studie erzeugt jedoch im Moment mehr neue Fragen als Antworten. Etwa: Wie wird dieser Kohlenstoff gebildet? Die Bildung von elementaren Kohlenstoff braucht normalerweise hohen Druck und hohe Temperaturen. Beides hat es in den Kulturen nicht gegeben. „Diese Bildungsweise von elementarem Kohlenstoff durch Lebewesen ist uns Wissenschaftlern komplett neu. In den Archaeen müssen bisher völlig unbekannte Reaktionen am Werk sein“, erklärt Kylie Allen, die Erstautorin der Studie. „Noch wissen wir überhaupt noch nicht, welche biochemischen Reaktionen und Enzyme hier am Werk sind.“

Auch das Warum ist noch nicht geklärt. „Elementarer Kohlenstoff ist ein guter elektrischer Leiter. Womöglich ist der Kohlenstoff der Schlüssel zur Symbiose zwischen den Archaeen und ihren Partnern“, mutmaßt Gunter Wegener. Über Kohlenstoff-basierte Verbindungen könnten elektrische Ladungen bestens transportiert werden. Auch ist gänzlich ungeklärt, wieviel elementarer Kohlenstoff durch Mikroorganismen in der Natur gebildet wird. „Weil der Kohlenstoff in Sedimenten abgelagert wird und dort über lange Zeiträume bleibt, könnten unsere Ergebnisse zudem auf eine bislang unbekannte, natürliche Kohlenstoffsenke hinweisen.“ Das Team wird den offenen Fragen auf den Grund gehen, unter anderem im Rahmen des Exzellenzclusters „Der Ozeanboden – unerforschte Schnittstelle der Erde“, der am MARUM angesiedelt ist.

Das MARUM gewinnt grundlegende wissenschaftliche Erkenntnisse über die Rolle des Ozeans und des Meeresbodens im gesamten Erdsystem. Die Dynamik des Ozeans und des Meeresbodens prägen durch Wechselwirkungen von geologischen, physikalischen, biologischen und chemischen Prozessen maßgeblich das gesamte Erdsystem. Dadurch werden das Klima sowie der globale Kohlenstoffkreislauf beeinflusst und es entstehen einzigartige biologische Systeme. Das MARUM steht für grundlagenorientierte und ergebnisoffene Forschung in Verantwortung vor der Gesellschaft, zum Wohl der Meeresumwelt und im Sinne der Nachhaltigkeitsziele der Vereinten Nationen. Es veröffentlicht seine qualitätsgeprüften, wissenschaftlichen Daten und macht diese frei zugänglich. Das MARUM informiert die Öffentlichkeit über neue Erkenntnisse der Meeresumwelt, und stellt im Dialog mit der Gesellschaft Handlungswissen bereit. Kooperationen des MARUM mit Unternehmen und Industriepartnern erfolgen unter Wahrung seines Ziels zum Schutz der Meeresumwelt.

Wissenschaftliche Ansprechpartner:
Dr. Gunter Wegener
Organische Geochemie, Projektleiter „Alkane Oxidizing Archaea“
MARUM – Zentrum für Marine Umweltwissenschaften und Max-Planck-Institut für Marine Mikrobiologie Bremen
Telefon: 0421 2028 8670
E-Mail: gwegener@marum.de

Originalpublikation:
Kylie D. Allen, Gunter Wegener, D. Matthew Sublett Jr, Robert J. Bodnar, Xu Feng, Jenny Wendt, Robert H. White: Biogenic formation of amorphous carbon by anaerobic methanotrophs and select methanogens. Science Advances 2021. DOI: 10.1126/sciadv.abg9739

Weitere Informationen:
http://www.marum.de

(nach oben)


Grüner Wasserstoff aus Neuseeland

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Um den Klimawandel zu begrenzen, sind weltweite gemeinsame Anstrengungen notwendig, und es müssen internationale Allianzen geschmiedet werden. Koordiniert von Dr. Paul Jerabek (Helmholtz-Zentrum Hereon) und Prof. Sally Brooker (University of Otago in Dunedin) nimmt nun eine bilaterale Wasserstoffallianz zwischen Neuseeland und Deutschland ihre Arbeit auf. Sie hat das Ziel, eine deutsch-neuseeländische Forschungspräsenz zur Erforschung und Weiterentwicklung grüner Wasserstofftechnologien in Neuseeland aufzubauen. Finanziert wird das Projekt vom Bundesministerium für Bildung und Forschung (BMBF) und dem neuseeländischen Ministry of Business, Innovation and Education (MBIE).

Grüner Wasserstoff stellt als Energieträger für viele stationäre und mobile Anwendungen einen der wichtigsten Eckpfeiler einer emissionsneutralen und nachhaltigen Energiewirtschaft dar. Dabei ist er gleichzeitig eine unverzichtbare Ressource für viele chemische Industrieprozesse. Klimaneutraler grüner Wasserstoff wird elektrolytisch unter Verwendung erneuerbarer Energien wie durch Wasser- oder Windkraft erzeugt und verursacht daher keine Treibhausgasemissionen. Zum Erreichen des gesteckten Ziels der deutschen Klimaneutralität bis 2045 muss ein starker Fokus auf die Erforschung und Weiterentwicklung grüner Wasserstofftechnologien von seiner Herstellung über Speicherung und Transport bis zur Anwendung gelegt werden.

Hand in Hand für ein gemeinsames Ziel
Einen Schritt hierzu stellt der Aufbau einer deutsch-neuseeländischen Forschungspräsenz mit dem Schwerpunkt „grüner Wasserstoff“ in Neuseeland dar. Das BMBF unterstützt den Forscher und Koordinator der deutschen Seite Dr. Paul Jerabek vom Hereon-Institut für Wasserstofftechnologie mit 768.000 EUR über einen Zeitraum von fünf Jahren. Damit werden die Konstruktion und Anschaffung wichtiger Gerätschaften für das an der University of Otago zu etablierende und in naher Zukunft gemeinsam betriebene Forschungslabor und Testfeld für die neuen Technologien ermöglicht sowie auch Vernetzungsaktivitäten wie gegenseitige Forschungsaufenthalte von beteiligten Wissenschaftlerinnen und Wissenschaftlern und die Organisation von regelmäßigen Workshops und Symposien in beiden Ländern.

Neuseeland will beim Übergang zu grünem Wasserstoff als künftige Hauptressource für die Dekarbonisierung nachziehen. Die weltweite Nachfrage nach Wasserstoff steigt, doch zum jetzigen Zeitpunkt werden die jährlich produzierten 45 bis 65 Millionen Tonnen Wasserstoff fast ausschließlich aus fossilen Brennstoffen generiert und verursachen damit Emissionen.

Starke Perspektiven
„Aus deutscher Sicht ist Neuseeland perfekt für die gemeinschaftliche Entwicklung, Erprobung und Etablierung grüner Wasserstofftechnologien geeignet: Das Land ist äußerst innovationsfreundlich, reich an erneuerbaren Energiequellen und hat wie Deutschland den starken Willen möglichst zeitnah komplett klimaneutral zu werden“, sagt Dr. Jerabek zu den Chancen der gemeinsamen Forschungspräsenz. Und er ergänzt: „Das Konsortium – bestehend aus zahlreichen akademischen und industriellen Partnern beider Länder – ermöglicht uns eine große Bandbreite und zahlreiche Synergieeffekte bei den geplanten Aktivitäten: Von experimenteller und theoretischer Grundlagenforschung zur optimalen Erzeugung und Speicherung von grünem Wasserstoff über anwendungsorientierte Systemintegration bis hin zu techno-ökonomischen sowie sozio-ökologischen Analysen bezüglich der entwickelten Technologien werden sehr viele Themenfelder von unserem Team abgedeckt!“

Innovationen für die Wasserstofftechnologie
Prof. Brooker beschreibt Deutschland als „idealen Kooperationspartner“, da Neuseeland seine reichhaltigen Ressourcen an erneuerbarer Elektrizität nutzen will, um rasch von fossilen Brennstoffen auf erneuerbare Energien und grüne Wasserstofftechnologien umzusteigen, mit dem Ziel zu einem weltweiten Exporteur erneuerbarer Energien zu werden. „Ich bin begeistert, dass die fünfjährige Finanzierung nun von neuseeländischer und deutscher Seite bestätigt wurde“, sagt Prof. Brooker. Und außerdem: „Paul hat sehr viel Zeit und Mühe investiert, um diese Partnerschaft aufzubauen und die BMBF-Fördermittel hierfür einzuwerben. Damit können wir jetzt gemeinsam dieses aufregende und zukunftsrelevante Vorhaben durchführen“.

Als Teil des Projekts wird auch die Etablierung eines deutsch-neuseeländischen Innovationscampus für grünen Wasserstoff auf der neuseeländischen Südinsel geplant, in dem akademische und industrielle Forschungspartner zusammenarbeiten, und das sich auf die Entwicklung, Erprobung und Vermarktung von Wasserstofftechnologien in Neuseeland konzentriert. Hierzu arbeiten die Koordinatoren mit Experten des privaten Sektors im „New Zealand Hydrogen Council“ zusammen, um ein neuseeländisches „Team Green Hydrogen“ zu bilden. Unter anderem gibt es bereits Verbindungen zum Flughafen Christchurch, zu Airbus und zu Air New Zealand. Das Projekt eröffnet den beteiligten Industriepartnern aus Neuseeland und Deutschland neue Perspektiven und liefert die Blaupause für die Implementierung der Technologie weltweit.

Wissenschaftliche Ansprechpartner:
Dr. Paul Jerabek I Helmholtz-Zentrum Hereon I Institut für Wasserstofftechnologie I T: +49 (0) 4152 87-2681 I paul.jerabek@hereon.de I www.hereon.de

Weitere Informationen:
https://www.hereon.de/institutes/hydrogen_technology/index.php.de

(nach oben)


Ariadne-Projekt zeigt: Die nächsten 10 Jahre sind für eine klimafreundliche Industriewende entscheidend

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)
Der vor kurzem veröffentlichte Ariadne-Szenarienreport von mehr als 10 Forschungsinstituten, unter anderem dem Fraunhofer ISI, zeigt verschiedene Transformationspfade zur Klimaneutralität 2045 im Modellvergleich auf. Der Zeithorizont bis 2030 ist entscheidend, um die Umstellung auf eine CO2-neutrale Industrieproduktion bis zum Jahr 2045 und das Ziel der langfristigen Treibhausgas-Neutralität zu erreichen. Bis 2030 müssen CO2-neutrale Verfahren in der Industrie vom Pilot- und Demonstrations-Maßstab auf industrielles Niveau skaliert und wirtschaftlich betrieben werden können. Die Ergebnisse dieser Studie zur Industriewende werden am 26.10.2021 in einem Webinar vorgestellt.

Das kürzlich novellierte deutsche Klimaschutzgesetz sieht auf dem Weg zur Klimaneutralität 2045 ein wichtiges Zwischenziel vor: Bis 2030 müssen sämtliche Treibhausgas-Emissionen um mindestens 65 Prozent gegenüber 1990 gesenkt werden.

Zeithorizont bis 2030 für die Industriewende entscheidend
Im Jahr 2018 betrugen die Emissionen des Industriesektors in Deutschland 190 Millionen Tonnen CO2-Äquivalente, welche mehrheitlich durch Unternehmen der energieintensiven Industriezweige verursacht wurden. Bis 2030 müssen diese Emissionen laut Sektorziel auf 118 Millionen Tonnen sinken. Das entspricht einer Reduktion von rund 57% gegenüber 1990. Eine hohe Abhängigkeit von fossilen Brennstoffen, technische Restriktionen und kaum vermeidbare Prozessemissionen stellen den Sektor vor große Herausforderungen. Diese setzten zur Erreichung von nahezu Klimaneutralität in 2045 einen tiefgreifenden Wandel in den Grundstoffindustrien voraus. Dabei ist der Zeithorizont bis 2030 entscheiden, denn bis dahin muss es gelingen, CO2-neutrale Verfahren vom Pilot- und Demonstrations-Maßstab auf industrielles Niveau zu skalieren und wirtschaftlich zu betreiben.

Transformation der Industrie durch CO2-neutrale Prozesse
Die Produktion von Grundstoffen wie Rohstahl, Zementklinker, Olefinen, Ammoniak und Methanol ist besonders emissionsintensiv. Eine Umstellung dieser Verfahren auf (nahezu) CO2-neutrale Prozesse ist eine zentrale Grundlage der Transformation des Industriesektors. Durch Signalwirkungen entlang der Wertschöpfungskette kann diese Umstellung ebenfalls die Transformation in anderen Bereichen der Industrie beschleunigen. Die Szenarien gehen davon aus, dass erste Anlagen bereits ab 2025 in Betrieb gehen, gefolgt von einer stärkeren Verbreitung bis 2030. In der Stahlindustrie entspricht dies mindestens fünf Millionen Tonnen Rohstahlproduktion über Wasserstoff-Direktreduktion bis 2030 – also fast einem Fünftel der heutigen Primärstahlproduktion. Der Einsatz von Direktreduktion über Erdgas kann hier als Brückentechnologie dienen um den Aufbau entsprechender Produktionskapazitäten voranzutreiben.

Dekarbonisierung der Industrie vorantreiben
Im Jahr 2018 entstanden etwa zwei Drittel der CO2-Emissionen der Industrie durch die Bereitstellung von Prozesswärme, hauptsächlich durch die Nutzung von Kohle und Erdgas. Eine Umstellung auf eine CO2-neutrale Prozesswärmeversorgung ist damit ein wichtiger Bestandteil der Dekarbonisierung der Industrie. Die Studie schätzt, dass so Minderungen von bis zu 30 Millionen Tonnen CO2-Äquivalente bis 2030 gegenüber 2018 erreicht werden können. Weitere wichtige Vermeidungshebel sind eine deutliche Steigerung der Energie- und Materialeffizienz, die verstärkte Nutzung von Kreislaufwirtschaft sowie der Einsatz von CO2-Abscheidung und Verwendung sowie Speicherung (CCU/S, Carbon Capture and Utilization / Storage) in der Zement- und Kalkherstellung.

Hohe Investitionen für Modernisierungen sind notwendig
In vielen Bereichen der Industrie sind Neubauten oder umfassende Modernisierungen des Bestandes notwendig. Im Zeitraum 2030 bis 2035 erreichen viele Anlagen der Chemie- und der Primärstahlindustrie das Ende ihrer rechnerischen Lebensdauer. Mögliche Re-Investitionen in fossile Anlagen sollten vermieden werden. Um den Wechsel von billigen fossilen Energieträgern auf teure CO2-neutrale Sekundärenergieträger (Strom, Wasserstoff, synthetisches Methan) zu gewährleisten, sind klare regulatorische Rahmenbedingungen sowie verlässliche Perspektiven für den wirtschaftlichen Betrieb notwendig.

Künftiger Strombedarf der Industrie wird eine große Herausforderung
In allen Szenarien werden zukünftig hohe Mengen an erneuerbarem Strom und Wasserstoff eingesetzt. Abhängig von dem gesetzten Technologie-Schwerpunkt verdoppelt sich der Stromeinsatz in der Industrie nahezu von heute 226 TWh (Terrawattstunden) auf bis zu 413 TWh in 2045. Im extremen Fall einer »Wasserstoffwelt« steigt der industrielle Einsatz von Wasserstoff auf bis zu 342 TWh in 2045, sowohl für die energetische als auch die stoffliche Nutzung. Der Einsatz von synthetischem Methan beträgt im Extremfall 347 TWh in 2045. Die Verfügbarkeit von CO2-neutralem Strom, Wasserstoff oder synthetischem Gas ist somit eine Grundvoraussetzung für das Erreichen der Klimaziele im Industriesektor. Bereits bis 2030 werden signifikante Mengen dieser klimaneutralen Sekundärenergieträger in der Industrie benötigt, um das Sektorziel des Klimaschutzgesetzes zu erreichen. Dies sollte beim Aufbau von Infrastruktur für Transport und Erzeugung berücksichtigt werden, so die Studie.

Dr. Andrea Herbst, wissenschaftliche Mitarbeiterin im Competence Center Energietechnologien und Energiesysteme am Fraunhofer ISI, stellt abschließend fest: »Ein nahezu klimaneutraler Industriesektor im Jahr 2045 ist möglich, aber mit sehr hohen Anstrengungen verbunden. Zentrale Herausforderungen sind die höheren laufenden Kosten CO2-neutraler Technologien, der Infrastrukturausbau, die effektive Umsetzung von CO2-Preis-Signalen entlang der Wertschöpfungsketten und die Reduzierung von Unsicherheiten bezüglich großer strategischer Investitionen sowie eine klare Perspektive für den wirtschaftlichen Betrieb von CO2-neutralen Verfahren. Dies muss begleitet werden von einer Erweiterung des regulatorischen Rahmens, welche deutlich über die derzeit implementierten und beschlossenen Maßnahmen hinausgeht.«

Dr. Andrea Herbst wird die Ergebnisse des Kapitels zur Industriewende am Dienstag, dem 26.10.2021 in einem Webinar von 10 bis 11.30 Uhr präsentieren.

Medienkontakt
Anne-Catherine Jung
Leiterin Presse und Kommunikation
Telefon +49 721 6809-100
presse@isi.fraunhofer.de

Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der fundierten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.

Wissenschaftliche Ansprechpartner:
Dr. Andrea Herbst, Telefon +49 721 6809-439, E-Mail andrea.herbst@isi.fraunhofer.de

Weitere Informationen:
https://eveeno.com/147983006 Webinar-Anmeldung: Ariadne-Szenarien Klimaneutralität 2045: Fokuswebinare Industrie, Wärme und Strom
https://ariadneprojekt.de/publikation/deutschland-auf-dem-weg-zur-klimaneutralit… Ariadne-Bericht: Deutschland auf dem Weg zur Klimaneutralität 2045: Szenarien und Pfade im Modellvergleich

(nach oben)


Raucherentwöhnung mittels transkranieller Magnetstimulation: Wirksamkeit erstmals in großer Studie belegt

Sandra Wilcken Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung
Jedes Jahr sterben deutschlandweit mehr als 120.000 Menschen an den gesundheitlichen Folgen des Rauchens [1]. Als Behandlungsalternative zu pharmakologischen und verhaltenstherapeutischen Ansätzen zur Raucherentwöhnung wird die repetitive transkranielle Magnetstimulation (rTMS) erforscht. In einer großen multizentrischen Studie mit 262 PatientInnen hat sich diese nicht invasive Methode der Hirnstimulation nun als wirksamer Ansatz bei der Behandlung der Tabakabhängigkeit erwiesen: Die Anwendung der rTMS führte nach 6 Wochen zu mehr als einer Verdopplung der Abstinenzraten gegenüber der Kontrollgruppe [2].

„Das ist in Ergänzung zu den bisherigen Behandlungsoptionen bei Tabakabhängigkeit ein beachtliches Ergebnis“, kommentiert Prof. Dr. Walter Paulus von der Deutschen Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung (DGKN). In den USA haben diese Ergebnisse bereits zur Zulassung der rTMS für die Behandlung von RaucherInnen geführt. Um zu beurteilen, welchen Stellenwert die Anwendung in Deutschland hat, bedarf es weiterer Forschung.

Seit Jahren mehren sich die Hinweise, dass die repetitive transkranielle Magnetstimulation (rTMS) über die Behandlung anderer psychiatrischer Leiden hinaus auch bei der Behandlung von Suchterkrankungen eine Rolle spielen könnte. Allerdings hatten die bisherigen Studien zumeist nur eine kleine Anzahl von PatientInnen eingeschlossen. An der nun in der Fachzeitschrift „World Psychiatry“ veröffentlichten Studie waren dagegen 262 PatientInnen beteiligt, die an 12 US-amerikanischen und 2 israelischen Zentren rekrutiert wurden. Hierbei wurde eine spezielle Form der rTMS, einer sogenannte deep TMS, eingesetzt, mit einer weniger fokal wirkenden Stimulationsspule (eine sog. H4 Spule). „Das randomisierte und placebokontrollierte Design dieser Studie erfüllt die höchsten Standards und macht die Ergebnisse gegenüber früheren Untersuchungen belastbarer“, so die Einschätzung von Prof. Dr. Frank Padberg von der Psychiatrischen Uniklinik München, der das vom Bundesministerium für Bildung und Forschung geförderte German Center for Brain Stimulation (GCBS) koordiniert.

Magnetstimulation mit psychotherapeutischen Kurzinterventionen
Alle PatientInnen in der aktuellen Studie hatten mindestens einen erfolglosen Versuch hinter sich, mit dem Rauchen aufzuhören. Bei zwei Dritteln der Teilnehmenden waren drei oder mehr Anläufe gescheitert. „Eine weitere Besonderheit der Studie ist, dass zusätzlich zu dieser speziellen Form der rTMS auch verhaltenstherapeutische Kurzinterventionen eingesetzt wurden“, erklärt Prof. Padberg. Unmittelbar vor der Behandlung wurden fünf Minuten lang suchtspezifische Symptome provoziert: Die StudienteilnehmerInnen sollten sich die Auslöser ihres Suchtverlangens vorstellen und wurden mit einer Audiodatei und Bildern zum Rauchen konfrontiert. Danach erfolgte die Hirnstimulation (in jeder Sitzung 60 Einheiten von je drei Sekunden Dauer mit jeweils 30 Pulsen) mittels einer Magnetspule, die über den Regionen des lateralen präfrontalen Kortex und der Inselrinde platziert wurde. Jeder oder jede zweite Teilnehmende wurde dabei aber nur zum Schein stimuliert – diese Placebogruppe diente zum Vergleich. Nach der Stimulation wurde ein Motivationsgespräch als zweiminütige Kurzintervention geführt.

Sechs Wochen Behandlung mit 18 Sitzungen
In den ersten 3 Wochen erfolgte die Behandlung werktäglich, in den folgenden 3 Wochen einmal wöchentlich. Nach 18 Wochen hatten es in der Gruppe der mit rTMS Behandelten laut Fragebogen 19,4 % geschafft, mindestens 4 Wochen durchgehend nicht zu rauchen, was die ForscherInnen mittels Urinproben auf Nikotinabbauprodukte kontrollierten. In der Vergleichsgruppe lag der Anteil bei lediglich 8,7 %. Nach den ersten 6 Wochen hatten sich sogar 28,0 % der mit rTMS Behandelten von den Zigaretten befreien können, in der Placebogruppe waren es nur 11,7 %. Durchschnittlich rauchten die PatientInnen der Verumgruppe weniger Zigaretten und hatten ein vermindertes Verlangen danach (sog. Craving).

Zulassung in den USA bereits erteilt
„Die Studie etabliert ein sicheres Behandlungsprotokoll zur Raucherentwöhnung durch die Stimulation relevanter Hirnregionen“, schreiben die AutorInnen. Es sei die erste große, multizentrische, randomisierte, kontrollierte Studie zur Hirnstimulation in der Suchtmedizin. Für die US-amerikanische Food and Drug Administration (FDA) waren die Daten hinlänglich überzeugend, um diese rTMS-Methode erstmals als Hilfe bei der Raucherentwöhnung Erwachsener zuzulassen. „Da es sich um einen ganz speziellen rTMS-Ansatz handelt, ist das Verfahren hierzulande noch nicht einfach verfügbar. Zur genauen Beurteilung des Stellenwertes bedarf es – trotz der klaren Ergebnisse dieser Studie – weiterer Forschung“, so Prof. Padberg.

Referenzen
1. Tabakatlas Deutschland 2020 https://www.dkfz.de/de/tabakkontrolle/Buecher_und_Berichte.html
2. Zangen A, Moshe H, Martinez D, Barnea-Ygael N, Vapnik T, Bystritsky A, Duffy W, Toder D, Casuto L, Grosz ML, Nunes EV, Ward H, Tendler A, Feifel D, Morales O, Roth Y, Iosifescu DV, Winston J, Wirecki T, Stein A, Deutsch F, Li X, George MS. Repetitive transcranial magnetic stimulation for smoking cessation: a pivotal multicenter double-blind randomized controlled trial. World Psychiatry. 2021 Oct;20(3):397-404. doi: 10.1002/wps.20905

Kontakt zu Prof. Dr. Walter Paulus
wpaulus@gwdg.de

Kontakt zu Prof. Dr. Frank Padberg
psychosomatik@med.uni-muenchen.de

Pressestelle der DGKN
Dipl.-Biol. Sandra Wilcken
c/o albertZWEI media GmbH
Tel.: +49 (0) 89 461486-11
E-Mail: presse@dgkn.de

Die Deutsche Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung vertritt seit 1950 die Interessen von MedizinerInnen und WissenschaftlerInnen, die auf dem Gebiet der klinischen und experimentellen Neurophysiologie tätig sind. Die wissenschaftlich-medizinische Fachgesellschaft mit rund 3800 Mitgliedern fördert die Erforschung von Gehirn und Nerven, sichert die Qualität von Diagnostik und Therapie neurologischer Krankheiten und treibt Innovationen auf diesem Gebiet voran. https://dgkn.de/

Weitere Informationen:
https://dgkn.de/ – Website der Deutschen Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung

(nach oben)


Zahl gebietsfremder Arten in Hamburg und Umgebung steigt – Portal für die Meldung von Funden erweitert

Mareen Gerisch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut zur Analyse des Biodiversitätswandels
Immer mehr gebietsfremde Insekten, Fische oder Vögel lassen sich langfristig in und um Hamburg nieder. Das Fundstellenportal www.neobiota-hamburg.de für Hamburg und Umgebung, das über gebietsfremde sowie invasive Arten informiert, erhält weitere Zuschüsse und wird ausgebaut. Auf dem Portal können Bürgerinnen und Bürgern Funde direkt melden.Mit den zusätzlichen Geldern sollen die Inhalte noch besser mit den behördlichen Datenbanken vernetzt und noch einfacher für Nutzerinnen und Nutzer zugänglich gemacht werden. Von der Beteiligung von Bürgerinnen und Bürger konnte die Forschung am Leibniz-Institut zur Analyse des Biodiversitätswandels (LIB) bereits profitieren.

Bürgerwissenschaftlerinnen und -wissenschaftler, die sich an dem Projekt beteiligen, haben bereits mehr als 500 Funde im Portal gemeldet. Es konnte so sogar eine noch bis dato unbekannte Art für Hamburg nachgewiesen werden.

Weitere Partner sind die Hamburger Behörde für Umwelt, Klima, Energie und Agrarwirtschaft (BUKEA), die Universität Hamburg sowie die BürgerStiftung Hamburg, die das Portal im Rahmen des Themenfonds „NATUR erleben – verstehen – schützen“ fördert.

Wirtschaftssenator Michael Westhagemann: „Die Wirtschaftsbehörde unterstützt den Aufbau des Neobiota-Portals finanziell und inhaltlich durch die Mitarbeiterinnen und Mitarbeiter der Pflanzengesundheitskontrolle am Großmarkt. Die Bestimmung invasiver Arten ist insbesondere für die Sicherheit unserer Flora und Fauna wichtig, täglich werden unsere Pflanzen und Pflanzenerzeugnisse durch Kontrolleurinnen und Kontrolleure untersucht und bei Befall EU-weit gemeldet. Nun besteht auch die Möglichkeit für alle Hamburgerinnen und Hamburger gebietsfremde Arten in das Portal einzugeben. Ein tolles Projekt!“

Umweltsenator Jens Kerstan: „Das Interesse an dem neuen Portal in der Öffentlichkeit ist groß. Ich freue mich sehr darüber, dass etwa 1.000 Besucherinnen und Besucher monatlich auf das Neobiota-Portal zugreifen und sich informieren. Hier sind zahlreiche Arten beschrieben und mithilfe einer Karte wird dargestellt, wo sie bereits entdeckt wurden. Das Portal hilft dabei, bereits bekannte gebietsfremde Arten zu identifizieren. Eine wunderbare Hilfe für die vielen Hamburger Bürgerwissenschaftlerinnen und -wissenschaftler.“

Das Fundstellenportal und die Seite des „AHlert -Nord“-Monitoring-Programms der Umweltbehörde für Imkerinnen und Imker sind offenbar besonders beliebt. Im Rahmen des Monitorings in Kooperation mit den Ländern Niedersachsen, Schleswig-Holstein und Mecklenburg-Vorpommern kontrollierten in diesem Jahr 53 Imkerinnen und Imker ihre Bienenstöcke auf Anflüge der Asiatischen Hornisse und meldeten über das Portal Ihre Beobachtungen. Darüber hinaus finden sich auch Informationen auf der Website.

Initiiert wurde das Projekt von einem Team um Dr. Martin Husemann, Leiter der Sektion Hemimetabole und Hymenoptera am Standort Hamburg des LIB: „Je mehr Menschen sich beteiligen, desto vollständiger zeichnet sich auf der virtuellen Karte ab, wo in Hamburg gebietsfremde Arten zu finden sind. Zudem können wir durch die Meldungen Ausbreitungen nachvollziehen und Früherkennung neuer Arten leisten.“ Das helfe dabei, die heimische Biodiversität genauer zu verstehen, Bedrohungen zu identifizieren und langfristig das Ökosystem in Hamburg besser zu schützen. Zudem sei denkbar, dass das Angebot künftig auch über die Region hinaus genutzt werden könne.

Dass das Portal funktioniert und angenommen wird, zeigt auch der Erstnachweis der Marmorierten Baumwanze Halyomorpha halys, die über das Portal bereits an zwei Stellen in Hamburg gemeldet wurde. Die ursprünglich aus Asien stammende Art ist im Süden Europas mittlerweile ein gefürchteter Schädling im Obstanbau und hat sich auch im Süden Deutschlands bereits fest etabliert – auch wenn sie hier bisher weniger Schaden anrichtet. Aus diesem Grund ist es wichtig, die Verbreitung der Art weiter zu verfolgen und hiermit speziell zur Meldung dieser Art aufzurufen.

Auch die Asiatische Hornisse Vespa velutina kommt weiterhin in Hamburg vor. Bisher wurde in diesem Jahr nur ein Volk nachgewiesen – demnach weniger als im letzten Jahr. Das verringerte Vorkommen ist vermutlich, neben dem kalten Winter, auch das Resultat der gezielten Bekämpfungsmaßnahmen, die auch durch die Meldungen über das Portal möglich geworden sind. Um die Art weiter einzudämmen, ist die Umweltbehörde auch auf Meldungen aus der Bevölkerung angewiesen: Vor allem jetzt im Herbst wo die Blätter fallen, sind die Nester, die oft hoch in den Baumkronen sind, besser zu finden.

Wissenschaftliche Ansprechpartner:
Dr. Martin Husemann
Leiter der Sektion Hemimetabole und Hymenoptera
Zoologisches Museum Hamburg
Leibniz-Institut zur Analyse des Biodiversitätswandels (LIB)
Telefon: 040 42838 2373
E-Mail: Martin.Husemann@uni-hamburg.de

Weitere Informationen:
http://www.neobiota-hamburg.de

(nach oben)


Summ-summ, schwirr’n Pestizide herum?

Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Bioanalytiker der Hochschule Coburg untersuchen Mikroorganismen auf Chitinpanzern von Bienen. Sie wollen herausfinden, wie sich Pflanzenschutzmittel hier auswirken.

Was Rapsfelder und Obstplantagen schützt, bedeutet für manche Organismen den Tod: Insektizide und Fungizide werden in der Landwirtschaft gegen Schädlinge und Pilze eingesetzt. Sie sind giftig. Das ist ihr Sinn. Zunehmend wird aber hinterfragt, welche Folgen solche Pflan-zenschutzmittel auch für andere Lebewesen haben. Mikrobiologen der Hochschule Coburg haben das in Versuchen mit Bienen untersucht – denn die haben nicht nur eine wichtige Funktion als Bestäuber in der Natur, in der Forschung werden sie auch gerne als Modellorganismen genutzt: „Honigbienen können leicht gezüchtet und untersucht werden“, sagt Leon Sohl. Er hat seine Masterarbeit in Bioanalytik darüber geschrieben, inwiefern Insektizide und Fungizide einen Einfluss auf die Außenhaut der Tiere haben.

Das Mikrobiom auf der Oberfläche war dabei erstmals zentraler Gegenstand der Forschung. „Das Mikrobiom ist eine Gemeinschaft von Mikroorganismen“, Sohl überlegt, wie er es beschreiben kann: „wie bei einer Gruppe von Menschen, unter denen ein paar Lehrer und Lehrerinnen sind, Leute die Taxi fahren, Sportler, Studierende – so ist das auch beim Mikrobiom: Da gibt es zum Beispiel Proteobakterien und Actinobakterien und auch verschiedene Pilze, die alle ihre Aufgaben haben.“ Solche Mikroorganismen sind wichtige Bestandteile allen Lebens. „Fungizide und Insektizide können das Mikrobiom verändern“, ergänzt Fabienne Reiß. Sie forscht an der Hochschule über Biozide in Baustoffen, schreibt ihre Doktorarbeit darüber, welchen Einfluss sie auf das Mikrobiom des Erdbodens haben und unterstützt Leon Sohl bei seinen Versuchen.

Viele Teile, ein großes Forschungsprojekt
Reiß‘ Doktorarbeit ist Teil des großen Forschungsverbundes „BayÖkotox“, der durch das Bayerische Landesamt für Umwelt koordiniert und durch das Bayerische Staatsministerium für Umwelt und Verbraucherschutz finanziert wird. Bayerische Wissenschaftler versuchen hier in unterschiedlichen Teilprojekten herausfinden, wie sich chemische Stoffe und Partikel auf Lebewesen und Umwelt auswirken. Das Teilprojekt an der Hochschule Coburg betreuen Prof. Dr. Matthias Noll und Prof. Dr. Stefan Kalkhof. Über den Ökotox-Verbund kam Noll in Kontakt zu Prof. Dr. Ricarda Scheiner, die an der Universität Würzburg am Lehrstuhl für Verhaltensphysiologie und Soziobiologie eine Bienenstation betreut. So landeten Würzburger Fungizid-Bienen in Coburg.

Leon Sohl hat einige der Versuchsbienen selbst in Würzburg gefangen: „Wir stecken sie in Röhrchen und geben danach flüssigem Stickstoff dazu: Alles friert sofort ein.“ Das Oberflächenmikrobiom dieses Moments wird konserviert, festgehalten wie auf einem Foto. Einige der Tiere sind mit Zuckerwasser gefüttert worden, andere mit den in Bayern verbreiteten Fungizidmitteln Cantus Gold und Difcor oder den Insektizidprodukten Mospilan und Steward. Und einige auch mit einer Kombination dieser Pflanzenschutzmittel.

Biene auf der Werkbank
Reiß und Sohl sitzen an einer sterilen Sicherheitswerkbank im Biochemie-Labor der Hoch-schule Coburg, Sohl greift mit einer Pinzette eine tote Biene aus einem Schälchen, Reiß lässt mit einer Pipette eine durchsichtige Flüssigkeit auf eine andere Biene in einem Glasröhrchen tropfen. „Flügel, Exoskelett, Beine werden präpariert und anschließend die DNA extrahiert.“ Sohl präzisiert, dass ein kleiner Abschnitt des bakteriellen 16S rRNA-Gens und der pilzlichen ITS-Region analysiert werden, um dann ganz genau sagen zu können, um welches Bakterium oder welchen Pilz es sich hier handelt. Am Ende steht fest, wie viele und welche Bakterien und Pilze auf der Biene gelebt haben. Untersucht wurden die sozial lebende Honigbiene (Apis mellifera) und auch die Rote Mauerbiene (Osmia bicornis), eine solitäre Wildbienenart.

In den Versuchen wurde nachgewiesen, dass sich das Außenhautmikrobiom bei verschiedenen Bienenarten unterscheidet und dass Pflanzenschutzmittel einen Einfluss darauf haben. Allerdings in geringerem Ausmaß als vorher angenommen wurde. Reiß zuckt die Schultern. „So ist das in der Forschung: Man weiß nie, was rauskommt.“ Manchmal stehen am Ende eines Projekts mehr Fragen als Antworten: Wie verändert sich das Oberflächenmikrobiom, wenn die Bienen nicht mit Bioziden gefüttert werden, ihr Körper aber behandelte Blüten streift? Und welche Auswirkungen haben die Veränderungen des Mikrobioms überhaupt? „Es gibt Anzeichen, dass gewisse Bakterien auf der Oberfläche der Bienen vor Varroamilbenbefall schützen, und die Würzburger untersuchen zum Beispiel, inwiefern sich das Verhalten der Bienen durch den Pestizideinsatz verändert“, erklärt Sohl. Er will nach der Masterarbeit erst einmal eine Arbeitsstelle in der Industrie antreten. Aber die Forschung in Coburg geht weiter. Das Team der Bioanalytik will das Thema mit weiteren Methoden genauer analysieren.

(nach oben)


Long COVID: potentieller therapeutischer Angriffspunkt entdeckt

Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
In einer neuen Studie hat eine Lübecker Forschungsgruppe untersucht, wie COVID-19 auf Endothelzellen im Gehirn wirkt. Zusammen mit weiteren Forscherinnen und Forschern aus Frankreich, Spanien und Deutschland fanden die Lübecker heraus, dass SARS-CoV-2 zu einem Gefäßuntergang im Gehirn führt, der durch die Spaltung eines Proteins namens NEMO vermittelt wird und durch eine spezifische pharmakologische Intervention unterbunden werden kann.

Diese neuen Erkenntnisse über die Wirkung von SARS-CoV-2 auf das Gefäßsystem des Gehirns bieten einen potenziellen therapeutischen Angriffspunkt für Long COVID. Die Studie unter der Leitung von Markus Schwaninger, Institut für Experimentelle und Klini-sche Pharmakologie und Toxikologie der Universität Lübeck, zeigt, dass Endothelzellen im Gehirn mit SARS-CoV-2 infiziert werden können, und dass eine solche Infektion zum Zelltod führt. Endothelzellen bilden die innere Schicht aller Gefäße im Körper, wobei die Endothelzellen des Gehirns spezielle Eigenschaften aufweisen, um eine dichte Schnittstel-le zwischen Blut und Gewebe, die so genannte Blut-Hirn-Schranke, zu bilden. Im Falle ei-nes Zelltods bleibt lediglich die äußere Hülle der Gefäße übrig, die aber nicht mehr von Blut durchströmt werden kann.

Einsatz hochentwickelter Technik
Die Folgen entdeckten sie in Gehirnproben von verstorbenen COVID-19-Patienten und Patientinnen, und in Zell- und Tiermodellen einer SARS-CoV-2-Infektion. Durch diese Modelle und den Einsatz hochentwickelter Techniken wie Einzelzell-RNA-Sequenzierung, Massenspektrometrie und Super-Resolution-Mikroskopie fanden sie heraus, dass die SARS-CoV-2-Hauptprotease Mpro ein Protein des Menschen, NEMO genannt, spaltet. Dieses Protein ist für das Überleben von Gehirnendothelzellen notwendig; seine Spaltung führt zum Untergang von Blutgefäßen durch sogenannte Nekroptose.

Die Autoren und Autorinnen konnten zeigen, dass die Blockierung der Nekroptose die Durchblutung des Gehirns von Mäusen verbessert. Auf diese Weise könnten Long COVID-Symptome wie das sogenannte Fatigue-Syndrom oder kognitive Beeinträchtigungen, die selbst Kinder und Betroffene mit anfänglich leichten Symptomen betreffen, behandelt werden.
Diese wegweisende Studie, die in Nature Neuroscience veröffentlicht wurde, liefert den ersten Beweis für eine direkte Wirkung von SARS-CoV-2 auf die Gefäße des Gehirns und bietet eine neuartige Strategie zur Überwindung neurologischer Folgen von COVID-19.

Wissenschaftliche Ansprechpartner:
Dr. Jan Wenzel, PhD
Universität zu Lübeck
Institut für Experimentelle und Klinische Pharmakologie und Toxikologie
Center of Brain, Behavior and Metabolism
Ratzeburger Allee 160
23562 Lübeck
Tel.: 0451 3101 7224
E-Mail: jan.wenzel@uni-luebeck.de

Prof. Dr. Markus Schwaninger
Universität zu Lübeck
Direktor des Instituts für Experimentelle und Klinische Pharmakologie und Toxikologie
Center of Brain, Behavior and Metabolism
Ratzeburger Allee 160
23562 Lübeck
Tel.: 0451 3101 7200
E-Mail: markus.schwaninger@uni-luebeck.de

Originalpublikation:
https://www.nature.com/articles/s41593-021-00926-1

(nach oben)


Neue Studie: Chancengerechtigkeit in der Bildung hat sich verbessert

Michael Sonnabend Kommunikation
Stifterverband
Stifterverband und McKinsey: Beteiligung von Nichtakademikerkindern am Bildungsweg hat sich auf allen Ebenen verbessert – Aber: Soziale Herkunft entscheidet immer noch über Bildungserfolg – Größte Hürde bleibt der Übergang von der weiterführenden Schule zur Hochschule.

Die Chancengerechtigkeit in der Bildung in Deutschland hat sich für Kinder aus Nichtakademikerfamilien in den letzten Jahren über alle Bildungsstufen verbessert. Gelingt ihnen der Wechsel an eine Hochschule, dann sind sie sogar ähnlich erfolgreich wie Akademikerkinder. Trotz dieser positiven Entwicklung gilt aber: Nach wie vor entscheidet in Deutschland die soziale Herkunft über den Bildungserfolg. Größte Hürde bleibt der Übergang von der weiterführenden Schule zur Hochschule. Das sind Ergebnisse der gemeinsamen Studie von Stifterverband und McKinsey & Company mit dem Titel „Vom Arbeiterkind zum Doktor – Der Hürdenlauf auf dem Bildungsweg der Erststudierenden“. Für die Studie wurde systematisch analysiert, wie genau sich in Deutschland die Bildungswege von Nichtakademiker- und Akademikerkindern unterscheiden. Die aktuellen Zahlen wurden dann mit einer identischen Erhebung aus dem Jahr 2017/18 verglichen.

Obwohl die meisten Kinder in einer Grundschulklasse aus einem nichtakademischen Haushalt kommen, bewältigen im Vergleich mit Kindern aus Akademikerhaushalten immer noch vergleichsweise wenige von ihnen die mentalen, kulturellen und finanziellen Hürden der Bildungslaufbahn. Die Studie zeigt: Von 100 Arbeiterkindern, die eine Grundschule besuchen, sitzen später nur 27 (+ 5, im Vergleich 2017/2018) in einem Hörsaal. Von den 100 Akademikerkindern schreiben sich hingegen später 79 (- 4) an einer Hochschule ein. Die COVID-19-Pandemie könnte den aktuell tendenziell positiven Trend allerdings wieder temporär verschlechtern: Besonders Kinder aus Nichtakademikerhaushalten hatten geringere digitale Möglichkeiten, um zu lernen.

„Deutschland verschenkt nach wie vor zu viel Bildungspotenzial“, stellt McKinsey- Partnerin Julia Klier mit Blick in deutsche Grundschulklassen fest. Die meisten Kinder kommen dort aus nichtakademischen Haushalten (71 Prozent). Doch nur 46 Prozent von ihnen wechseln später auf eine Schule, die den Hochschulzugang ermöglicht. Zwar hat sich der Wert seit der letzten Erhebung von Stifterverband und McKinsey um 2 Prozentpunkte verbessert. Aber bei den Akademikerkinder sind es mit 83 Prozent fast doppelt so viele. Die größte Hürde ist nach wie vor der Übergang vom Klassenzimmer in den Hörsaal.
Obwohl sich die Quote hier deutlich um 11 Prozentpunkte verbessert hat, liegt sie bei nur 59 Prozent. Zum Vergleich: Bei den Akademikerkindern gehen fast alle (95 Prozent) von einer weiterführenden Schule an die Uni. Julia Klier: „Um Hürden für Nichtakademikerkinder zu überwinden, sollte es beispielsweise mehr Werbeaktionen der Hochschulen in den Schulen geben und bereits erfolgreiche Initiativen wie Talent-Scouting-Programmen sowie Buddy- und Tandemprogramme für Erstsemester ausgebaut werden, um mentale Barrieren abzubauen.“

Wenige Erfahrungen im Umfeld, unzureichende mentale und finanzielle Hilfe von den Eltern, aber auch Informationsdefizite sind der Studie zufolge oft die Gründe, warum nur wenige Nichtakademikerkinder den Schritt von der weiterführenden Schule in den Hörsaal wagen. „Die neue Bundesregierung muss alles daransetzen, die Chancengerechtigkeit in der Bildung weiter massiv auszubauen. Deutschland braucht jedes einzelne Talent“, sagt Volker Meyer-Guckel, stellvertretender Generalsekretär des Stifterverbandes. „Finanzielle Hürden sollten durch eine umfassende BaföG-Reform abgebaut werden. Nur 15 Prozent der jungen Menschen aus Arbeiterfamilien können sich bei der Studienfinanzierung gänzlich auf ihre Eltern verlassen.“

Um den Zugang zur Hochschule zu erleichtern, sollten deshalb unter anderem ein höherer und ortsabhängiger Wohnzuschuss berücksichtigt werden, eine Förderung über die minimale Regelstudienzeit hinaus möglich sein und aktuelle Einkommensbescheide unkomplizierter berücksichtigt werden. Die Antragsstellung sollte bundesweit einheitlich und digitalisiert werden. „Darüber hinaus brauchen Schulen moderne Lehrpläne, die gut auf die gesellschaftlichen Herausforderungen und die Anforderung der Hochschulen vorbereiten“, so Meyer-Guckel.

Wissenschaftliche Ansprechpartner:
Dr. Felix Süßenbach
felix.suessenbach@stifterverband.de

Originalpublikation:
Die Studie „Vom Arbeiterkind zum Doktor“ zum Download finden Sie unter:
https://www.stifterverband.org/medien/vom_arbeiterkind_zum_doktor

(nach oben)


Warum systemische Risiken häufig unterschätzt werden – und wie Wissenschaft helfen kann

Sabine Letz Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Systemische Risiken werden von der Gesellschaft oft widersprüchlich bewertet und unterschätzt, was dazu führt, dass die Politik verzögert Maßnahmen ergreift. Wie kann die Wissenschaft in solchen Fällen unterstützen? Ein Team des Instituts für transformative Nachhaltigkeitsforschung (IASS) hat Empfehlungen für Politik und Wissenschaft zur Governance von systemischen Risiken wie etwa des Klimawandels entwickelt.

In ihrer im ‚Journal of Risk Analysis‘ erschienenen Studie untersuchen die Risikoforschenden Pia-Johanna Schweizer, Robert Goble und Ortwin Renn, warum systemische Risiken in der öffentlichen Wahrnehmung eine untergeordnete Rolle spielen und welche Dynamik damit verbunden ist.

Einer der Gründe dafür sei, dass Menschen auf kulturelle Erinnerungen an Risiken und Gefahren aus früheren Generationen zurückgreifen, die in heutigen Situationen nicht mehr schützen. So führt beispielsweise der Klimawandel dazu, dass sich die Klimaverhältnisse auch im Norden stark verändern und es zu häufigeren Extremwetter-Ereignissen kommt. Sogenannte Kipppunkte im Erdsystem lassen sich jedoch erst nach Überschreiten des kritischen Punktes nachvollziehen, doch dann ist es zu spät, um gegenzusteuern.

Vor dem Erreichen eines Kipppunktes erscheinen systemische Risiken für viele Menschen räumlich und zeitlich weit entfernt und dadurch weniger gefährlich als Risiken, die die Menschen unmittelbar bedrohen, so folgern die Autoren. Insbesondere seien sie weniger leicht verständlich und aufgrund ihrer Komplexität sowie Nichtlinearität weniger präsent im Bewusstsein der meisten Menschen.

„Selbst wenn ein systemisches Risiko wie der Klimawandel die Funktion lebenswichtiger Systeme der Gesellschaft bedroht, verspüren Viele weniger Dringlichkeit, das eigene Verhalten zu ändern oder strengere Regulierungsmaßnahmen zu akzeptieren“, erläutert IASS-Wissenschaftlerin Schweizer. „Wir Gesellschaftswissenschaftler beobachten hier zwei Effekte, die ineinandergreifen: Zum einen fragen sich die Menschen, was sie mit ihren eigenen Handlungen bewirken können, wenn große Konzerne und die Mehrheit der Menschen am ‚business as usual‘ festhalten. Zum anderen haben Menschen die fatalistische Wahrnehmung, dass es eh zu spät ist, um systemischen Risiken wie dem Klimawandel entgegen wirken zu können.

Die Autorin und die Autoren skizzieren ebenso die dynamischen Prozesse der gesellschaftlichen Wahrnehmung systemischer Risiken und untersuchten für ihre Analyse die Gründe für die mangelnde Aufmerksamkeit der Politik als auch der Öffentlichkeit dafür. „Wir konnten feststellen, dass sich die Wahrnehmung systemischer Risiken bei einem Großteil der Bevölkerung durch soziale Kommunikationsprozesse eher verringert als verstärkt“, sagt Hauptautorin Schweizer, „was effektiv zu einer geringeren Handlungsbereitschaft führt etwa im Falle des Klimawandels. Die gegenwärtigen Bemühungen sind unzureichend, um die Temperaturziele des Pariser Abkommens noch einzuhalten. Vielmehr wird darauf vertraut, dass Techniken wie Climate- und Geo Engineering-Techniken, die gegenwärtig noch nicht im großen Stil anwendbar sind, in Zukunft wesentlich dazu beitragen werden, die Klimaziele zu erreichen.“

Risiko wird im öffentlichen Diskurs heruntergespielt
Beim Umgang mit systemischen Risiken bezeichnet das Autorenteam die mangelnde Handlungs- und Änderungsbereitschaft als das maßgebliche Hindernis einer effektiven Risiko-Governance. Die folgenden Faktoren (unter anderen) führten ihrer Meinung nach zur Unterschätzung des Risikos:

1. Weil die meisten Wirkweisen von systemischen Risiken komplex und dynamisch sind, scheinen sie der menschlichen Intuition zu widersprechen. Die Menschen neigten dazu, sie als weniger plausibel und naheliegend einzustufen.

2. Die Wissenschaft könne keine unumstößlichen und eindeutigen Modelle für systemische Risiken liefern. Was dazu führe, dass Menschen Informationen, die mit Unsicherheit, Ungewissheit und Mehrdeutigkeit verbunden sind, als noch nicht ausgegoren und vor allem als wenig handlungsrelevant einschätzten, selbst wenn diese Informationen auf einer soliden wissenschaftlichen Analyse beruhen.

3. Erforderlich sei mehr Vertrauen in wissenschaftliche Einschätzungen. Die Wenigsten seien in der Lage, die Korrektheit wissenschaftlicher Argumente in einer öffentlichen Debatte zu beurteilen. Dass sich zudem die Anhaltspunkte im Laufe der Zeit ändern und oft widersprüchlich sind, irritiert und frustriert viele, was letztlich zu Fatalismus und damit einhergehender Untätigkeit führe.

4. Die Fehldeutung von systemischen Risiken werde durch digitale Kommunikationsmittel verbreitet, welche die Echokammern im öffentlichen Diskurs noch verstärken. Infolgedessen polarisieren sich die Wissenslager und differenzierte Ansätze werden ausgeblendet, die für den Umgang mit systemischen Risiken entscheidend wären.

Für die Wissenschaft ergeben sich für das IASS-Autorenteam daher zwei Aufgaben: Eine sei Entscheidungsfindungsprozesse mit Expertise zu unterstützen. Wissenschaftlerinnen und Wissenschaftler sollten in interdisziplinären Teams ihr Wissen um die komplexen Wirkmechanismen von systemischen Risiken zusammentragen und gegenüber Politik und Öffentlichkeit durch nachvollziehbare Narrative und realitätsnahe Illustrationen in Form von grafischen Darstellungen und Simulationen zu kommunizieren. Ebenso empfiehlt das Autorenteam Gaming-Tools, um einen partizipativen, deliberativen Ansatz für eine umfassende Risiko-Governance zu vermitteln.

Diese kommunikativen Formen der Verständigung sollen Entscheidungsträgerinnen und -träger wie auch die Öffentlichkeit gleichermaßen befähigen, umsichtige und dem Problem angemessene Maßnahmen einzuleiten.

Die andere Aufgabe sei es, bei der Risiko-Governance einen integrativen Ansatz zu verfolgen, um viele wissenschaftliche Disziplinen genauso wie Organisationen und Behörden zusammenzuführen. Ziel sei es, Kommissionen oder Steuerungsgruppen interdisziplinär, querschnittsorientiert und integrativ auszurichten. Einfließen müssen verschiedene Interessen, Perspektiven und Wertvorstellungen, um Risiken umfassend bewerten zu können.

Systemische Risiken können verheerende Auswirkungen haben, so das Fazit des Autorenteams. Jedoch könne diese Gefahr gemindert und systemische Risiken besser gemanagt werden, wenn erkannt wird, welche sozialen Prozesse die Wahrnehmung von systemischen Risiken beeinflussen.

Wissenschaftliche Ansprechpartner:
Dr. Pia-Johanna Schweizer
Forschungsgruppenleiterin am IASS
Tel. +49 (0)331 288 22-457
E-Mail pia-johanna.schweizer@iass-potsdam.de

Originalpublikation:
Pia-Johanna Schweizer, Robert Goble und Ortwin Renn: Social Perception of Systemic Risks, Risk Analysis 2021. DOI: 10.1111/risa.13831

Weitere Informationen:
https://www.iass-potsdam.de/de/news/warum-systemische-risiken-haeufig-unterschae…

(nach oben)


Flutgebiete fit machen für den Klimawandel

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Wie kann man beim Wiederaufbau in den Katastrophengebieten an der Ahr und verschiedenen Flüssen in Nordrhein-Westfahlen die Siedlungs- und Infrastrukturen an künftige Starkregen und Hochwasser anpassen, um Schäden und Opfer zu verringern? Dies untersucht ein Team unter der Leitung des Raumplaners Prof. Jörn Birkmann von der Universität Stuttgart und des Experten für Wasserwirtschaft Prof. Holger Schüttrumpf von der RWTH Aachen. Das Projekt (voraussichtlicher Start November 2021) wird vom Bundesministerium für Bildung und Forschung (BMBF) mit rund fünf Millionen Euro gefördert.

180 Tote, Schäden in Höhe von 30 Milliarden Euro: Das Hochwasser an der Ahr und an verschiedenen Flüssen in Nordrhein-Westfalen im Juli 2021 gehört zu den größten Naturkatastrophen, die Deutschland nach dem zweiten Weltkrieg getroffen haben, und in Folge des Klimawandels dürften solche Extremereignisse noch zunehmen. Die Herausforderungen für die betroffenen Regionen sind enorm, aber, so Bundesforschungsministerin Anja Karliczek: „Der Wiederaufbau bietet die Chance, die Regionen zukunftsfähig und klimaresilient zu gestalten – damit die Menschen dort wieder gut und sicher leben können. Unser Ziel muss sein, dass die Regionen in Zukunft widerstandsfähiger gegenüber Extremwetter und weiteren Folgen des Klimawandels sind.“

Unterstützen soll diesen Prozess ein wissenschaftliches Projekt mit Experten aus ganz Deutschland, das die Cluster „Räumliches Risikomanagement und Anpassung“ (Sprecher Prof. Jörn Birkmann, Institut für Raumordnung und Entwicklungsplanung der Universität Stuttgart, IREUS) und „Hochwasser-Risiko-Analysen“ (Sprecher Prof. Holger Schüttrumpf, RWTH Aachen) umfasst. Mit beteiligt sind u.a. auch Forschende der Universität Potsdam, des Deutschen GeoForschungsZentrums GFZ, des Helmholtz-Zentrums für Umweltforschung UFZ, der TU Kaiserslautern, der Hochschule Koblenz sowie weitere Praxispartner.

„Wir wollen zum Beispiel prüfen, wie man über die gesetzlich festgelegten Überschwemmungszonen hinaus hochwasserangepasste Siedlungs- und Infrastrukturen strategisch fördern kann. Dazu gehört die Frage, wie und wo man Wassermassen ableiten kann, damit diese eben nicht zu zahlreichen Opfern und massiven Schäden führen wie 2021“, erklärt Jörn Birkmann. Dies könne unter anderem durch Notwasserwege oder die gezielte Ableitung von Starkregen auf Sportplätze oder Freiflächen in Städten und Dörfern geschehen. Zudem soll untersucht werden, welche Haushalte vom Fluss wegziehen möchten und ob es in den jeweiligen Orten Wohnstandorte gibt, die eine höhere Sicherheit gegenüber Extremereignissen bieten. Dabei geht es nicht nur um die räumliche Exposition eines Standorts, sondern auch um Fragen der Verwundbarkeit, erläutert Birkmann: „Einstöckige Schulgebäude in direkter Nähe zu kleinen Flüssen zum Beispiel sind nicht hilfreich, da Kinder – als besonders verwundbare Gruppe – im Fall der Fälle nicht in ein höheres Stockwerk evakuiert werden können.“

Wissenschaftliche Ansprechpartner:
Prof. Jörn Birkmann, Universität Stuttgart, Institut für Raumordnung und Entwicklungsplanung, Tel. ++ 49 (0)711 685-66333, E-Mail joern.birkmann@ireus.uni-stuttgart.de

(nach oben)


Auch ohne Arztbesuch: Neues nicht-klinisches Modell sagt zuverlässig Risiko für Herz-Kreislauf-Erkrankungen vorher

Susann-C. Ruprecht Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Ob Blutdruckmessung oder Blutfettanalyse – eine zuverlässige Risiko-Abschätzung für Herz-Kreislauf-Erkrankungen setzt bislang medizinische Untersuchungen und damit den Besuch einer Arztpraxis voraus. Ein Team um Dr. Catarina Schiborn und Prof. Matthias Schulze vom DIfE hat nun in Kooperation mit dem Deutschen Krebsforschungszentrum in Heidelberg ein Vorhersagemodell entwickelt, mit dessen Hilfe sich auch ohne Arztbesuch einfach und präzise ermitteln lässt, wie hoch das Risiko eines Menschen ist, innerhalb der nächsten zehn Jahre einen Herzinfarkt oder Schlaganfall zu erleiden. Das Modell lässt sich auch für Empfehlungen nutzen, wie das individuelle Erkrankungsrisiko gesenkt werden kann.

Unter dem Begriff Herz-Kreislauf-Erkrankungen werden die vielfältigen Erkrankungen des Herzens und der Blutgefäße zusammengefasst. Dazu zählen insbesondere Herzinfarkt und Schlaganfall sowie Erkrankungen der Herzkranzgefäße. Herz-Kreislauf-Erkrankungen sind hierzulande mit 40 Prozent aller Sterbefälle die häufigste Todesursache. Neben unveränderbaren Faktoren wie Alter, Geschlecht und genetischer Veranlagung hat der Lebensstil einen großen Einfluss auf die Gesundheit des Herz-Kreislauf-Systems. Ein verändertes Ernährungs-, Bewegungs- und Rauchverhalten sowie die Behandlung von Bluthochdruck, Übergewicht, Diabetes und Fettstoffwechselstörungen sind demnach wichtige Stellschrauben, um das individuelle Erkrankungsrisiko zu senken. Wie hoch dieses für einen Menschen ist, ließ sich bislang jedoch nur aufwendig ermitteln.
Einfache Risikoermittlung birgt großes Präventionspotential

Eine zuverlässige, evidenzbasierte Risikoabschätzung für Herz-Kreislauf-Erkrankungen beschränkt sich aktuell weitestgehend auf den klinischen Bereich, denn sie erfordert meist körperliche Untersuchungen und Blutanalysen durch medizinisches Personal. „Die wenigen Vorhersagemodelle, die sich unabhängig von einer medizinischen Untersuchung nutzen lassen, haben methodische Einschränkungen und ihre Anwendung erfordert beispielsweise Informationen zur Aufnahme einzelner Nährstoffe wie Ballaststoffe.
Dadurch sind sie ohne eine umfassende Datenerhebung zur Ernährung kaum anwendbar“, erklärt Dr. Catarina Schiborn, wissenschaftliche Mitarbeiterin der Abteilung Molekulare Epidemiologie am DIfE.

Ziel der Wissenschaftlerin war es daher, ein evidenzbasiertes Vorhersagemodell zu entwickeln, welches das Erkrankungsrisiko unabhängig vom Arztbesuch ermittelt und dabei leicht zu erfassende Informationen nutzt. „Ein solches Werkzeug würde die Präventionsmöglichkeiten erheblich verbessern, denn durch den breiten Einsatz könnten Hochrisikopersonen frühzeitig auch im Rahmen von zum Beispiel Gesundheitskampagnen und -screenings erkannt, informiert und im weiteren Verlauf behandelt werden“, sagt Schiborn.

Daten von 27.500 Menschen als Basis
Für die Entwicklung des Vorhersagemodells hat das Forscherteam auf die Gesundheits- und Lebensstil-Daten von rund 27.500 Teilnehmenden der EPIC-Potsdam-Studie zurückgegriffen. In die statistischen Modellierungen flossen Parameter ein, die für die Vorhersage von Herz-Kreislauf-Erkrankungen relevant sind. Dazu zählen Faktoren wie Alter, Geschlecht, Hüftumfang, Rauchverhalten, Bluthochdruck und Typ-2-Diabetes sowie Erkrankungsfälle in der Familie. Außerdem erfasst das Modell Ernährungsgewohnheiten, wie beispielsweise den Verzehr von Vollkornprodukten, rotem Fleisch und Pflanzenölen. Anhand dieser Daten gelang es den Forschenden zuverlässig zu berechnen, wie groß das Risiko eines Menschen ist, innerhalb der kommenden zehn Jahre einen Herzinfarkt oder einen Schlaganfall zu erleiden.

Um zu bewerten, wie gut das Modell das Eintreten dieser sogenannten Endpunkte vorhersagt, nutzten die Forschenden Daten der vom Deutschen Krebsforschungszentrum koordinierten Heidelberger EPIC-Studie. Zudem verglichen sie ihre Berechnungen mit etablierten Vorhersagemodellen, die klinische Parameter einschließen. Das Ergebnis: Das entwickelte nicht-klinische Vorhersagemodell sagt die Wahrscheinlichkeit einer Herz-Kreislauf-Erkrankung für die nächsten zehn Jahre ebenso präzise voraus wie klinische Modelle, die eine medizinische Untersuchung erfordern. Eine ebenfalls entwickelte Erweiterung, die klinische Parameter berücksichtigt, verbesserte die Vorhersagegüte nur wenig.

Fokus auf die Rolle des Lebensstils
„Dass unser Vorhersagemodell sich im Vergleich zu klinischen Tests stärker auf Verhaltensparameter stützt, ist ein großer Vorteil“, sagt Prof. Dr. Matthias Schulze, Leiter der Abteilung Molekulare Epidemiologie am DIfE. „So tritt die Bedeutung eines präventiven Lebensstils für die Herz- und Gefäßgesundheit in den Vordergrund, statt den Fokus auf die medikamentöse Behandlung als Konsequenz eines unvorteilhaften Lebensstils zu richten“. Da das Modell beeinflussbare Risiken wie Hüftumfang, Rauch- und Ernährungsverhalten berücksichtigt, kann es für konkrete individuelle Empfehlungen genutzt werden, wie sich das Erkrankungsrisiko durch eine Verhaltensänderung senken lässt.

In einem nächsten Schritt wollen die Wissenschaftlerinnen und Wissenschaftler das Vorhersagemodell in Form eines Risiko-Tests als frei verfügbaren Papier- und Online-Fragebogen zur Verfügung stellen. Geplant ist, das Online-Tool mit dem ebenfalls am DIfE entwickelten DIfE – Deutscher Diabetes-Risiko-Test® (DRT) zusammenzuführen, so dass eine kombinierte Risiko-Vorhersage für eine Typ-2-Diabetes-und Herz-Kreislauf-Erkrankung möglich ist. Wie der DRT wurde die Entwicklung des Vorhersagemodells für Herz-Kreislauf-Erkrankungen vom Deutschen Zentrum für Diabetesforschung (DZD) finanziell gefördert.

Hintergrundinformationen

Evidenzbasiert
Das Adjektiv beschreibt, dass etwas auf Grundlage empirisch zusammengetragener und bewerteter wissenschaftlicher Erkenntnisse erfolgt. Ein evidenzbasiertes Vorhersagemodell wie das Modell zur Vorhersage des 10-Jahres-Risikos für Herz-Kreislauf-Erkrankungen stützt sich also auf wissenschaftlich nachgewiesene und quantifizierbare Zusammenhänge zwischen der Erkrankung und ihren Risikofaktoren.

EPIC-Potsdam-Studie
Die European Prospective Investigation into Cancer and Nutrition (EPIC)-Potsdam-Studie ist eine bevölkerungsbasierte prospektive Kohortenstudie des DIfE. Sie ist Teil der EPIC-Studie, einer der größten Kohortenstudien der Welt, die das Ziel hat, Beziehungen zwischen Ernährung, Ernährungsstatus, Lebensstil und Umweltfaktoren sowie der Inzidenz von Krebs und anderen chronischen Krankheiten wie Typ-2-Diabetes zu untersuchen. Bei prospektiven Kohortenstudien wird eine große Gruppe gesunder Menschen zunächst umfangreich untersucht und anschließend über einen langen Zeitraum beobachtet, welche Krankheiten auftreten. Die Beobachtungen können Hinweise auf Risikofaktoren für häufige Erkrankungen liefern.

Die ca. 27.500 Teilnehmenden der EPIC-Potsdam-Studie wurden zwischen 1994 und 1998 rekrutiert und untersucht, zum Beispiel der Blutdruck und die Körpermaße bestimmt. Außerdem wurden sie zu ihren Ernährungsgewohnheiten und ihrem Lebensstil befragt und Blutproben entnommen. Im noch immer laufenden Nachbeobachtungszeitraum wurden die Studienteilnehmenden bislang sechsmal zu ihren Ernährungsgewohnheiten, ihrem Lebensstil und aufgetretenen Erkrankungen befragt. Seit 2014 erfolgen in begrenztem Umfang auch Nachfolgeuntersuchungen.

[https://www.dife.de/forschung/kooperationen/epic-studie/]

Wissenschaftliche Ansprechpartner:
Dr. Catarina Schiborn
Wissenschaftliche Mitarbeiterin der Abteilung Molekulare Epidemiologie
Tel.: +49 33 200 88 – 2526
E-Mail: catarina.schiborn@dife.de

Prof. Dr. Matthias Schulze
Leiter der Abteilung Molekulare Epidemiologie
Tel.: +49 33 200 88 – 2434
E-Mail: mschulze@dife.de

Originalpublikation:
Schiborn, C., Kühn, T., Mühlenbruch, K., Kuxhaus, O., Weikert, C., Fritsche, A., Kaaks, R., Schulze, M. B.: A newly developed and externally validated non-clinical score accurately predicts 10-year cardiovascular disease risk in the general adult population. Sci. Rep. 11:19609 (2021). [Open Access]

https://doi.org/10.1038/s41598-021-99103-4

(nach oben)


Harald Kunstmann: Grundwasser – Feuchter Sommer bringt Entspannung, gleicht Defizit aber nicht aus

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Für seine lösungsorientierte Forschung und Modellsysteme, welche die hydrologischen Vorgänge im Gesamtsystem darstellen, erhielt Harald Kunstmann den Wasser-Ressourcenpreis 2021 der Rüdiger Kurt Bode-Stiftung.

Der Sommer 2021 war durchwachsen: Während es im Juni im Süden Deutschlands durchschnittlich noch rund zwei Grad wärmer war als im langjährigen Mittel, war es gerade im Juli und August deutlich nasser und kälter. Die Durchschnittstemperatur lag um eineinhalb bis zwei Grad unter diesem Mittelwert und regional gab es bis zu doppelt so viel Niederschlag. Was das für den Grundwasserspiegel bedeutet, weiß Professor Harald Kunstmann vom Institut für Meteorologie und Klimaforschung des Karlsruher Instituts für Technologie (KIT): „In den meisten Gebieten in Baden-Württemberg und Bayern hat sich der oberflächennahe Grundwasserspiegel durch den vermehrten Regen stabilisiert. Die tieferen Schichten haben von der Erholung allerdings wenig mitbekommen; hier ist der Wasserstand vielerorts immer noch sehr niedrig.“

Der Grundwasserspiegel teilt sich in die oberflächennahen und die tiefen Stockwerke. Während sich die oberen schnell auffüllen, dauert es deutlich länger, bis das Wasser auch die tieferen erreicht. „Der feuchte Sommer bringt zwar lokale Entspannung, kann das grundsätzliche Defizit aber nicht ausgleichen“, sagt der Hydrologe. Bereits seit 2003 nimmt beispielsweise in weiten Teilen Bayerns die Grundwasserneubildung ab. „Die Grundwasserbildung findet hauptsächlich im Winter statt, wenn die Vegetation ruht. Um die Grundwasservorkommen aufzufüllen, müsste es auch im Winter wieder mehr regnen und schneien.“

Das Verdichten und Versiegeln der Böden in der Landwirtschaft, im Wald und in den Städten verschärften das Problem. „Wir müssen dem Wasser erlauben, wieder besser in den Boden einzusickern“, so Kunstmann.

Um sich künftig regional angepasst auf die verschiedenen Wetterextreme wie Hitzeperioden oder Starkregen einstellen und passende Strategien entwickeln zu können, gelte es, sowohl ihre räumliche als auch zeitliche Verteilung genau in den Blick zu nehmen. „Da sich solche Extreme lokal völlig unterschiedlich auswirken, bringen uns Mittelwerte nicht weiter, und wir müssen genauer in die Regionen hineinzoomen“, sagt der Wissenschaftler.

Kunstmann untersucht deshalb anhand von hochauflösenden Modellsystemen, wie sich beispielsweise Klimaveränderungen auf den regionalen Wasserhaushalt der Erde auswirken oder welche langfristigen Entwicklungen zu erwarten sind. „Wir haben Modellsysteme weiterentwickelt, welche die hydrologischen Vorgänge im Gesamtsystem darstellen: vom Grundwasser und oberflächennahen Erdschichten über die Landoberfläche bis in etwa 30 Kilometer Höhe in der Atmosphäre“, erläutert er. So ließen sich nicht nur die Auswirkungen der steigenden Treibhausgase, sondern auch die Wechselwirkungen zwischen Veränderungen der Landoberfläche, beispielsweise durch großflächige Landnutzungsänderungen, und der Atmosphäre, und damit auch der Niederschläge, verstehen.

Für seine lösungsorientierte Forschung erhielt Harald Kunstmann den Wasser-Ressourcenpreis 2021 der Rüdiger Kurt Bode-Stiftung.
Weitere Informationen zu den Modellberechnungen finden Sie im Expertenporträt: https://www.sek.kit.edu/kit-experten_Kunstmann.php

Für weitere Informationen stellt der Presseservice des KIT gerne den Kontakt zu dem Experten her.
Bitte wenden Sie sich an Sandra Wiebe, Tel.: 0721 608-41172, sandra.wiebe@kit.edu, oder an das Sekretariat der Abteilung Gesamtkommunikation, Tel.: 0721 608-41105, E-Mail an presse@kit.edu.
Im Portal „KIT-Expertinnen und -Experten“ finden Sie weitere Ansprechpartner zu Highlights der Forschung am KIT und tagesaktuellen Themen: www.sek.kit.edu/kit-experten.php

Karlsruher Institut für Technologie (KIT)
Strategische Entwicklung und Kommunikation (SEK)
Monika Landgraf
Leiterin Gesamtkommunikation
Pressesprecherin
Kaiserstraße 12
76131 Karlsruhe
Telefon: +49 721 608-41105
E-Mail: presse@kit.edu
www.kit.edu

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

(nach oben)


Delta und Delta Plus weichen der Antikörperantwort aus

Dr. Susanne Diederich Stabsstelle Kommunikation
Deutsches Primatenzentrum GmbH – Leibniz-Institut für Primatenforschung
Zellkulturstudien zeigen, dass die SARS-CoV-2-Varianten Delta und Delta Plus Lungenzellen besser infizieren und schlechter durch Antikörper gehemmt werden

Das Auftreten von neuen SARS-CoV-2-Varianten, die sich schnell ausbreiten und den Impfschutz unterlaufen können, gefährdet das Ende der COVID-19-Pandemie. Die Delta-Variante (B.1.617.2) hat sich von Indien aus in kurzer Zeit weltweit ausgebreitet und auch in Deutschland gehen fast alle Infektionen auf diese Variante zurück. Außerdem wurden sogenannte Delta Plus Viren beobachtet, die zusätzliche Mutationen tragen, die sie möglicherweise gefährlicher machen. Ein Forschungsteam um Stefan Pöhlmann und Markus Hoffmann vom Deutschen Primatenzentrum (DPZ) – Leibniz-Institut für Primatenforschung in Göttingen sowie Forschende an der Medizinischen Hochschule Hannover, der Universitätsmedizin Göttingen und der Friedrich-Alexander-Universität Erlangen-Nürnberg haben untersucht, warum sich die Delta-Variante so schnell ausbreitet, und ob Delta Plus Viren besonders gefährlich sind. Sie konnten zeigen, dass Delta und Delta Plus Lungenzellen besser infizieren als das Ursprungsvirus. Zudem war einer von vier zur Behandlung von COVID-19 eingesetzten Antikörpern gegen Delta nicht wirksam und Delta Plus war sogar gegen zwei der Antikörper resistent. Auch Antikörper, die nach Impfung mit den Vakzinen von BioNTech-Pfizer und Oxford-AstraZeneca gebildet wurden, waren gegen Delta und Delta Plus weniger wirksam als gegen das Ursprungsvirus. Delta und Delta Plus wurden dagegen vergleichbar gehemmt, weswegen man davon ausgehen kann, dass Delta Plus für Geimpfte wahrscheinlich keine größere Gefahr darstellt als Delta. Schließlich hatten Personen, die zuerst mit Oxford-AstraZeneca und dann mit BioNTech-Pfizer geimpft wurden, deutlich mehr Antikörper, die Delta hemmten, als Personen, die zweimal mit Oxford-AstraZeneca geimpft wurden. Die Kombination von Impfstoffen könnte daher geeignet sein, um einen besonders starken Schutz gegen SARS-CoV-2-Varianten aufzubauen (The Lancet, Cell Reports, Cell Mol Immunol).

Mehr als 99 Prozent der SARS-Coronavirus-2 Infektionen in Deutschland gehen laut Robert Koch Institut derzeit auf die Delta-Variante zurück. Mit Hilfe von Experimenten in Zellkultur konnte das Team um Stefan Pöhlmann und Markus Hoffmann zeigen, dass Delta im Vergleich zum Ursprungsvirus (das Virus, das sich in der führen Phase der Pandemie ausgebreitet hat) besser in Lungenzellen eindringen kann. Zudem gelingt es Delta besser, infizierte Lungenzellen mit nicht infizierten Zellen zu verschmelzen. „Es ist denkbar, dass sich die Delta-Variante durch die Verschmelzung von Zellen in den Atemwegen besser ausbreiten und größeren Schaden anrichten kann. Das könnte zu schwereren COVID-19-Verläufen beitragen“, vermutet Prerna Arora, Wissenschaftlerin am Deutschen Primatenzentrum und Erstautorin zweier Studien, die sich speziell mit der Delta- und Delta Plus-Variante befassen.

Zur Behandlung von COVID-19 werden monoklonale Antikörper eingesetzt. Monoklonale Antikörper sind Proteine, die gentechnisch hergestellt werden. Anders als unser Immunsystem, das bei einer Infektion eine Vielzahl von Antikörpern gegen den Erreger produziert, werden also für die COVID-19-Therapie nur isolierte Antikörper oder Kombinationen dieser Antikörper eingesetzt. Vier dieser Antikörper hat das Team um Stefan Pöhlmann und Markus Hoffmann untersucht. Dabei zeigte sich, dass Delta resistent ist gegen den Antikörper Bamlanivimab. Delta Plus ist resistent gegen zwei Antikörper: Bamlanivimab und Etesevimab, die bei der Behandlung von Erkrankten in Kombination eingesetzt werden.

Dass Delta und Delta Plus weniger gut durch Antikörper von infizierten und geimpften Personen gehemmt (neutralisiert) werden als das Ursprungsvirus, hat wahrscheinlich zur raschen Ausbreitung von Delta beigetragen. Ein Vergleich von Delta und Delta Plus zeigte, dass beide Viren vergleichbar neutralisiert werden. „Das bedeutet, dass die Impfung wahrscheinlich einen vergleichbaren Schutz gegen Delta und Delta Plus vermittelt und Delta Plus nicht deutlich gefährlicher ist“, sagt Stefan Pöhlmann. Der Impfstoff von BioNTech-Pfizer wird in Europa am häufigsten eingesetzt, gefolgt vom Impfstoff von Oxford-AstraZeneca. Aufgrund von sehr seltenen Nebenwirkungen nach Impfung mit Oxford-AstraZeneca wird in Deutschland und anderen Ländern empfohlen, dass bei Personen, die bereits eine erste Impfung mit Oxford-AstraZeneca erhalten haben, BioNTech-Pfizer für die zweite Impfung eingesetzt wird. Man spricht von einer Kreuzimpfung. „Unsere Studien zeigen, dass die Kreuzimpfung deutlich mehr neutralisierende Antikörper gegen Delta induziert als zwei Impfungen mit Oxford-AstraZeneca. Personen, die eine solche Kreuzimpfungen erhalten haben, könnte daher besonders gut vor Delta und Delta Plus geschützt sein“, sagt Markus Hoffmann.

„Unsere Ergebnisse decken sich mit der Beobachtung, dass Impfungen effizient vor einer schweren Erkrankung nach Infektion mit Delta schützen, aber die Infektion häufig nicht vollständig unterdrücken können. In Anbetracht des starken Schutzes vor schwerer Erkrankung muss das Ziel weiterhin eine möglichst hohe Impfquote sein. Dies sollte verhindern, dass bei einer starken Ausbreitung von Delta und eng verwandten Viren in den Wintermonaten das Gesundheitssystem überlastet wird“, sagt Stefan Pöhlmann.

Originalpublikationen
Behrens GM, Cossmann A, Stankov MV, Nehlmeier I, Kempf A, Hoffmann M, Pöhlmann S. SARS-CoV-2 delta variant neutralisation after heterologous ChAdOx1-S/BNT162b2 vaccination. The Lancet. 2021 Sep 18;398(10305):1041-1042. https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(21)01891-2/fullt…

Arora P, Sidarovich A, Krüger N, Kempf A, Nehlmeier I, Graichen L, Moldenhauer AS, Winkler MS, Schulz S, Jäck HM, Stankov MV, Behrens GMN, Pöhlmann S, Hoffmann M. B.1.617.2 enters and fuses lung cells with increased efficiency and evades antibodies induced by infection and vaccination, Cell Reports, 2021, 109825, ISSN 2211-1247, https://doi.org/10.1016/j.celrep.2021.109825

Arora P, Kempf A, Nehlmeier I, Graichen L, Sidarovich A, Winkler MS, Schulz S, Jäck HM, Stankov MV, Behrens GMN, Pöhlmann S, Hoffmann M. Delta variant (B.1.617.2) sublineages do not show increased neutralization resistance. Cell Mol Immunol. 2021 ; https://doi.org/10.1038/s41423-021-00772-y

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Pöhlmann
Tel: +49 551 3851-150
E-Mail: spoehlmann@dpz.eu

Dr. Markus Hoffmann
Tel: +49 551 3851-338
E-Mail: mhoffmann@dpz.eu

Weitere Informationen:
http://medien.dpz.eu/pinaccess/pinaccess.do?pinCode=NHOBNwC2pi79 – Druckfähige Bilder
https://www.dpz.eu/de/aktuelles/neuigkeiten/einzelansicht/news/delta-und-delta-p… – Pressemitteilung auf der DPZ-Website

(nach oben)


Bürgermessstelle für Umweltradioaktivität in der Nähe der Schachtanlage Asse II nimmt Betrieb auf

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Forschungsverbund TRANSENS gibt Bürgerinnen und Bürgern die Gelegenheit, Radioaktivität in ihrer Umgebung selbst zu messen

In direkter Umgebung der Schachtanlage Asse II können sich interessierte Bürgerinnen und Bürger jetzt an einem Forschungsprojekt beteiligen. Eine neue Bürgermessstelle für Umweltradioaktivität in Remlingen-Semmenstedt gibt Menschen die Gelegenheit, Radioaktivität in ihrer Umgebung selbst zu messen. Denn rund 126.000 Fässer mit leicht- und mittelradioaktiven Abfällen lagern in der Asse. Diese sollen zurückgeholt werden.

Die Bürgermessstelle in Remlingen wird von Mitarbeiterinnen und Mitarbeitern des Instituts für Radioökologie und Strahlenschutz der Leibniz Universität Hannover (LUH) begleitet. Sie ist Teil des Forschungsvorhabens TRANSENS (Transdisziplinäre Forschung zur Entsorgung hochradioaktiver Abfälle in Deutschland), in dem 16 Forschungseinrichtungen und Institute zusammenarbeiten.

Im Projekt TRANSENS werden außerakademische Akteurinnen und Akteure in die wissenschaftliche Arbeit eingebunden, wie der stellvertretende Projektsprecher und Leiter des Arbeitspakets Bevölkerung vom Institut für Radioökologie und Strahlenschutz der LUH, Prof. Dr. Clemens Walther, erläutert: „Ein Blick über den deutschen Tellerrand hinaus zeigt uns, dass der möglichst direkte Einbezug der lokalen Bevölkerung in die Messung von Umweltradioaktivität – wie er beispielsweise an der Nevada Test Site in den USA bereits seit den achtziger Jahren praktiziert wird – einen positiven Beitrag zum öffentlichen Diskurs liefern kann. Indem Bürgerinnen und Bürgern vor Ort die Möglichkeit eröffnet wird, eigene Messexpertise aufzubauen, Daten korrekt zu interpretieren und Messeergebnisse konsequent veröffentlicht werden, wird in diesem sensiblen Themenfeld ein wichtiger Beitrag zur informativen Selbstbestimmung in der Bevölkerung geschaffen.“

Projekt-Sprecher Prof. Dr. Klaus-Jürgen Röhlig, TU Clausthal, ergänzt: „Wir führen eine intensive Interaktion der Bürgerinnen und Bürger mit Wissenschaftlern in TRANSENS durch – mit unseren Begleitgruppen, zum Beispiel der Arbeitsgruppe Bevölkerung. Neben dieser transdisziplinären Arbeit beforschen wir den Prozess auch im Rahmen der Transdisziplinaritätsforschung. Hier wird von Sozialwissenschaftlern die Interaktion von Bevölkerung und Wissenschaft untersucht. Wir hoffen, mit unseren Forschungsergebnissen einen Beitrag zu den wissenschaftlichen Grundlagen des Standortauswahlverfahrens leisten zu können, sowohl im Hinblick auf Partizipation als auch auf naturwissenschaftlich-technische Themen.“

Die Samtgemeinde Elm-Asse stellt als Partner des Projekts die Räumlichkeiten für den Betrieb der Bürgermessstelle in einem Nebengebäude des Rathauses von Remlingen zur Verfügung. Proben aus dem Boden beziehungsweise aus Früchten, Gras, Wasser und vielem mehr können dort gemessen werden. Ziel ist es, zu ermitteln, welche Radionuklide in den Umweltproben enthalten sind. „Mittels Gamma-Spektrometrie lässt sich eine Vielzahl von radioaktiven Stoffen in praktisch allen Umweltmedien ohne besonders aufwändige Probenvorbereitung sehr genau bestimmen“, sagt Dr. Wolfgang Schulz, modulverantwortlicher Wissenschaftler an der LUH. Bürgerinitiativen, Privatpersonen, aber auch Schulen können sich an den Messungen beteiligen. Sie werden dabei von den Expertinnen und Experten der LUH wissenschaftlich angeleitet. Die gesamte Ausstattung der Umweltmessstelle soll nach Ende der Projektlaufzeit (2024) vor Ort bleiben und die Messstelle entsprechend verstetigt werden. Neben der eigentlichen Messarbeit vor Ort soll auch ein umfangreicher Wissenstransfer zum Thema Radioaktivität an Bürgerinnen und Bürger stattfinden. An der Mitarbeit Interessierte können sich unter schulz@irs.uni-hannover.de an Dr. Wolfgang Schulz wenden.

Der niedersächsische Wissenschaftsminister Björn Thümler lobt das Potenzial des Forschungsverbundes TRANSENS: „Die transdisziplinäre Endlagerforschung hat eine herausragende Bedeutung, denn die Entsorgung radioaktiver Abfälle ist eine der wichtigsten Zukunftsfragen. Das Land Niedersachsen leistet einen wichtigen Beitrag indem es sich mit 3,75 Millionen Euro an dem Forschungsverbund beteiligt. Ich bin sehr froh, dass nach den pandemiebedingten Einschränkungen des öffentlichen Lebens die Eröffnung der Bürgermessstation möglich wird und bin schon heute auf die Ergebnisse des Forschungsverbunds gespannt.“

Im Forschungsverbund TRANSENS wird erstmalig in Deutschland transdisziplinäre Forschung zur nuklearen Entsorgung in größerem Maßstab betrieben. TRANSENS ist ein Verbundvorhaben, in dem 16 Institute beziehungsweise Fachgebiete von neun deutschen und zwei Schweizer Universitäten und Forschungseinrichtungen zusammenarbeiten. Das Vorhaben wird vom Bundesministerium für Wirtschaft und Energie (BMWi) aufgrund eines Beschlusses des Deutschen Bundestages und im Niedersächsischen Vorab der Volkswagenstiftung vom Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) von 2019 bis 2024 gefördert (Förderkennzeichen: 02E11849A-J).

Etwa 50 Wissenschaftlerinnen und Wissenschaftler aus unterschiedlichen ingenieurtechnischen, naturwissenschaftlichen und sozialwissenschaftlichen Disziplinen arbeiten in vier transdisziplinären Arbeitspaketen zu verschiedenen Aspekten der vertrauensvollen und sicheren Entsorgung radioaktiver Abfälle zusammen. Die Koordination liegt bei der Technischen Universität Clausthal. Die gewonnenen Erkenntnisse sollen dazu beitragen, das nach wie vor drängende Problem der Endlagerung radioaktiver Stoffe in Deutschland in einem offenen und integrierenden Diskurs zu lösen. Zentrale Fragen der anwendungsorientierten Forschung sind: Was bedeutet eine eventuelle Rückholung aus einem zu bauenden Endlager für hochradioaktive Abfälle für die Sicherheit der Bevölkerung? Wie müssen Messdaten gewonnen und interpretiert werden? Wie kann eine vertrauensvolle Zusammenarbeit von Bevölkerung und aufsichtführenden Akteuren erreicht werden? Wie spielen technik- und zeitbedingte Unsicherheiten und Ungewissheiten und Vertrauen in der nuklearen Entsorgung zusammen? Vorrangiges Ziel ist es auch, das Zusammenwirken der unterschiedlichen Akteure besser zu verstehen und Wege aufzuzeigen, unter welchen Bedingungen Vertrauen wachsen kann.

(nach oben)


Bildgebungskonzept erkennt Gefahrenmuster für Herz-​Kreislauf-Erkrankungen

Susanne Dopheide Stabsstelle Presse und Kommunikation
Heinrich-Heine-Universität Düsseldorf
Die Vorhersage, wann atherosklerotische Veränderungen der Arterien in einem stabilen Zustand zu akuten kardiovaskulären Erkrankungen übergehen, ist bislang ungelöst. Die Autoren des aktuell in „Nature Communications“ um Erstautor Prof. Dr. Ulrich Flögel, Institut für Molekulare Kardiologie, Medizinische Fakultät der Heinrich-Heine-Universität Düsseldorf, veröffentlichten Beitrags stellen ein Bildgebungsverfahren vor – die zielgerichtete und mehrfarbige Nanotracer-Plattformtechnologie – das die Gefahrenmuster bei der Entwicklung einer fortschreitenden koronaren Erkrankung im Mausmodell sichtbar macht.

Die Kaskade dieser Gefäßerkrankungen reicht von Entzündung des Gefäßes, Thrombose mit nachfolgender Ablösung kleinster Teilchen der Gefäßplaque bis hin zum Gefäßverschluss mit der Folge dauerhafter Schädigung durch z.B. Herzinfarkt.

Um die Gefahrenmuster zu zeigen, werden drei Moleküle (Liganden) an unterschiedliche Arten von Perfluorkohlenstoff-Nanoemulsion gekoppelt. Sie sind jeweils spezifisch auf Entzündungsherde, akute und chronische Thromben gerichtet. Dort lagern sie sich ein und werden durch die Anwendung einer bestimmten MRT-Bildgebung (19F-MRT) sicht- und unterscheidbar.

Das versetzt die die Wissenschaftler*innen in die Lage, Bereiche zu identifizieren, die ein hohes Risiko für die Entwicklung eines Herzinfarkts aufweisen. Das geschieht zu einem Zeitpunkt, an dem noch kein konventioneller Parameter in Labordiagnostik oder EKG auf eine drohende Gefahr hinweist. Das Forscherteam zeigt, dass diese Gefahrenmuster durch das von ihnen entwickelte Verfahren „multi-color multi-targeted‘ 1H/19F-MRT“ zuverlässig und vor Einsetzen des Infarktes – visualisiert werden können. Es ist nur ein einziger MRT-Scan nötig, der individuell betroffene Stellen lokalisieren und farblich hinsichtlich Entzündung, frisch entwickelten bzw. fortgeschrittenen Thromben differenziert darstellen kann.

Dabei können die frühzeitig identifizierten gefährdeten Stellen im Individuum (Mausmodell) durchaus unterschiedlich sein. Wichtig ist aber, dass sich jeweils auch an diesen Orten die entsprechenden massiven Folgeschäden einstellten (vgl. Abb. r. unten gegenüber l. unten). In weiteren Untersuchungen zeigten Flögel u.A., dass „multi-targeted 1H/19F-MRT“ in der Lage ist, den gesamten Teufelskreis von Thrombozytenadhäsion, Infiltration von Immunzellen und Bildung von Thromben, die zu koronarer Atherothrombose, Herzinfarkt und schwerer Verschlechterung der Herzkammerfunktion führen, eindeutig sichtbar zu machen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ulrich Flögel, Institut für Molekulare Kardiologie, Heinrich-Heine-Universität Düsseldorf, Tel.: 0211 81-10187, floegel@uni-duesseldorf.de

Originalpublikation:
Ulrich Flögel, Sebastian Temme, Christoph Jacoby, Thomas Oerther, Petra Keul, Vera Flocke, Xiaowei Wang, Florian Bönner, Fabian Nienhaus, Karlheinz Peter, Jürgen Schrader, Maria Grandoch, Malte Kelm & Bodo Levkau; Multi-targeted 1H/19F MRI unmasks specific danger patterns for emerging cardiovascular disorders, NATURE COMMUNICATIONS| (2021) 12:5847 | https://doi.org/10.1038/s41467-021-26146-6

(nach oben)


Impfbereitschaft steigt mit umfassender Information

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Wie lässt sich die Bereitschaft von Menschen für eine Impfung gegen COVID-19 erhöhen? Einen wirksamen Einfluss darauf haben fundierte Informationen sowie positiv wahrgenommene Schutzmaßnahmen seitens der Behörden und Vorgesetzten. Das belegen die Ergebnisse einer bundesweiten Erhebung, die ein Team um Prof. Dr. (TR) Yesim Erim, Leiterin der Psychosomatischen und Psychotherapeutischen Abteilung des Universitätsklinikums Erlangen der FAU, jetzt veröffentlicht hat. Für die aktuelle VOICE-Studie wurden mithilfe einer Onlineerhebung im Zeitraum von November 2020 bis Januar 2021 bundesweit insgesamt 6.217 Beschäftigte des deutschen Gesundheitswesens zu ihrer Impfbereitschaft befragt.

Die VOICE-Studie im Rahmen des egePan-Unimed-Netzwerks wurde von den psychosomatischen Abteilungen der Universitätsklinika Erlangen, Bonn, Dresden, Köln und Ulm entwickelt und durchgeführt. Das egePan-Unimed-Projekt wird als eines von insgesamt 13 bundesweiten Verbundprojekten vom Bundesministerium für Bildung und Forschung zur Verbesserung des Pandemiemanagements im Rahmen des nationalen Netzwerks Universitätsmedizin (NUM) finanziell unterstützt.

Die Impfbereitschaft des für die Studie befragten medizinischen Personals lag im Untersuchungszeitraum bei 65,3 Prozent und damit höher als in der Allgemeinbevölkerung. Die Studie fragte neben den berufsbezogenen und COVID-19-spezifischen Merkmalen auch soziodemografische Aspekte und Angaben zur psychischen Gesundheit ab. Vor allem Männer, Beschäftigte im Alter von über 40 Jahren und jene, die keine Kinder und keinen Migrationshintergrund hatten, zeigten eine höhere Impfbereitschaft. In der Kategorie des medizinischen Personals war die Impfbereitschaft bei den Ärztinnen und Ärztinnen am größten, gefolgt vom psychologischen Personal; beide Berufsgruppen verzeichneten eine deutlich höhere Impfbereitschaft als die Pflegefachkräfte. „Besonders interessant ist die Erkenntnis, dass sich Anfang des Winters 2020 – zu einem Zeitpunkt, als die jetzt verwendeten Impfstoffe größtenteils noch nicht zugelassen waren – nur knapp 70 Prozent des befragten medizinischen Personals ausreichend über COVID-19 informiert empfanden“, berichtet Prof. Erim. „Die Ergebnisse unserer Studie zeigen, dass die Politik und auch die Arbeitgeberinnen und Arbeitgeber nicht davon ausgehen können, dass Beschäftigte im Gesundheitswesen automatisch über genügend Informationen zur COVID-19-Erkrankung verfügen“, betont die Erlanger Wissenschaftlerin.

Zustimmung steigt mit wahrgenommenen Schutzmaßnahmen
Die Studienergebnisse untermauern außerdem die hohe Bedeutung eines umfänglichen Infektionsschutzes der Mitarbeitenden durch übergeordnete Maßnahmen seitens der Politik sowie der Arbeitgeberinnen und Arbeitgeber: „Die Zahlen sprechen eine eindeutige Sprache: Alle, die das Gefühl hatten, dass mit ihrer Gesundheit sicher und verantwortungsvoll umgegangen wird, waren eher bereit, sich impfen zu lassen“, erläutert Prof. Erim. „Diese Erkenntnisse sind wertvoll für die zukünftige Pandemieentwicklung, da wir uns derzeit mitten in der Diskussion über die Notwendigkeit einer Auffrischungsimpfung befinden.“

Die ausführlichen Studienergebnisse sind unter folgendem Link online nachzulesen: https://doi.org/10.1007/s00103-021-03418-6

Netzwerk Universitätsmedizin (NUM)
Das im April 2020 gegründete nationale Netzwerk Universitätsmedizin betreut insgesamt 13 Verbundprojekte, die das Bundesministerium für Bildung und Forschung mit insgesamt 150 Millionen Euro für eine Dauer von zehn Monaten fördert. Die finanzielle Unterstützung soll den Spezialistinnen und Spezialisten aus allen 34 deutschen Universitätsklinika ermöglichen, ihre unterschiedlichen Ansätze zur Bewältigung der COVID-19-Pandemie gemeinsam und interdisziplinär weiterverfolgen zu können. Das Uni-Klinikum Erlangen ist an acht der ausgewählten Verbundprojekte beteiligt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. (TR) Yesim Erim
Tel.: 09131 85-35928
yesim.erim@uk-erlangen.de

Originalpublikation:
https://doi.org/10.1007/s00103-021-03418-6

(nach oben)


Steinmeier: Gemeinsam umsteuern für Klimaschutz und Artenvielfalt

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Bundespräsident überreicht Deutschen Umweltpreis 2021

Osnabrück/Darmstadt. Mit einem Appell an den Gemeinsinn aller hat Bundespräsident Frank-Walter Steinmeier heute (Sonntag) im Kongresszentrum darmstadtium in Darmstadt zu einem Umsteuern aufgerufen, um biologische Vielfalt zu erhalten und die Erderwärmung zu stoppen. Beim Festakt zur Verleihung des Deutschen Umweltpreises der Deutschen Bundesstiftung Umwelt (DBU) in Höhe von 500.000 Euro zu gleichen Teilen an Ökologin Prof. Dr. Katrin Böhning-Gaese und Moorforscher Prof. Dr. Dr. h.c. Hans Joosten sagte der Bundespräsident, dass „nur aus Gemeinsamkeit Veränderung entstehen kann“. Und: „Der ökologische Wandel verschafft uns mehr Lebensqualität.“

Gewiss sei es unbequem und anstrengend, sich von liebgewonnenen Konsum- und Ernährungsgewohnheiten zu verabschieden. Doch müsse man „mit dem Irrtum aufräumen, Klima-, Arten- und Umweltschutz hätten vor allem mit Verzicht, Enthaltsamkeit und Freudlosigkeit zu tun“. Im Gegenteil: Der ökologische Wandel ermögliche mehr Freiheit durch Mobilität, die keine Umweltressourcen verbraucht, und mache unabhängig vom konfliktträchtigen Abbau fossiler Brennstoffe. „Er erspart uns Umweltkrankheiten und lässt uns gesünder und länger leben; er öffnet uns und denen, die nach uns kommen, eine gute Zukunft“, so der Bundespräsident. Er freue sich, „dass wir heute eine Wissenschaftlerin und einen Wissenschaftler auszeichnen, die auf dem weiten Feld des Klima- und Artenschutzes Herausragendes geleistet haben. Beide wecken Bewusstsein dafür, was alles nötig ist, um die biologische Vielfalt zu erhalten und die Erderwärmung zu stoppen.“

„Wir Menschen betreiben Raubbau an der Natur“
Böhning-Gaese hat laut Steinmeier dazu beigetragen, die Ursachen des Artensterbens genauer zu verstehen und was dagegen zu tun ist. Etwa eine Million Tier- und Pflanzenarten seien vom Aussterben bedroht, „weil wir Menschen Raubbau an der Natur betreiben. Wir roden Wälder im Übermaß, beuten Böden aus, setzen giftige Pflanzenschutzmittel ein, fangen zu viele Fische, verschmutzen die Meere mit Plastikmüll“, so der Bundespräsident. Joosten wiederum sei „ein großartiger Moorforscher“, der als einer der Ersten darauf hingewiesen habe, „wie wichtig gesunde, nasse Moore für den Klimaschutz sind, weil sie der Atmosphäre Kohlendioxid entziehen und es dauerhaft im Boden binden“. Er habe erkannt, wie schädlich Moor-Entwässerung etwa durch land- und forstwirtschaftliche Nutzung für Klima und Biodiversität sei. Bei Warnungen habe Joosten es nicht belassen, sondern vielmehr wegweisende Ideen für die landwirtschaftliche Nutzung von Mooren entwickelt, ohne deren Schutz aufs Spiel zu setzen – und dafür den Begriff „Paludikultur“ geprägt.

Große Transformation aller Lebensbereiche
Der Bundespräsident schwor in seiner Festrede Bürgerinnen und Bürger darauf ein, Veränderungen gemeinsam in Angriff zu nehmen. „Was wir vor uns haben, ist ein gesamtgesellschaftlicher Wandel, eine große Transformationsaufgabe, die alle Bereiche unseres Lebens betrifft: die Art, wie wir Energie erzeugen, Mobilität gestalten, Landwirtschaft betreiben, industrielle Güter produzieren, Wohnungen bauen, Abfall entsorgen, wie wir reisen, einkaufen und uns ernähren.“ Sich als Gesellschaft gemeinsam auf den Weg in eine klimaneutrale Zukunft zu machen, „ohne Zusammenhalt als Voraussetzung für Freiheit und Demokratie zu gefährden“, sei „eine der größten politischen und gesellschaftlichen Herausforderungen der kommenden Jahre“. Es gelte, sich dabei besonders denen zuzuwenden, „die mit dem Wandel nicht so leicht Schritt halten können“.

Konferenzen zum Schutz von Biodiversität und Klima in Kunming und Glasgow
Auch global sind Steinmeier zufolge „Zusammenarbeit und Solidarität über Grenzen hinweg“ unabdingbar, um Klimakrise und Artenrückgang zu bewältigen. Auf der morgen (Montag) im chinesischen Kunming beginnenden Biodiversitätskonferenz sowie der Weltklimakonferenz in Glasgow (Schottland) im November könne Politik zeigen, dass sie aus der Pandemie gelernt habe und nicht zurückfalle „in nationale Egoismen. Das ist die historische Aufgabe von Glasgow.“ Zum Hinweis des Bundespräsidenten auf Kunming und Glasgow und den engen Zusammenhang von Klima und Biodiversität sagte DBU-Generalsekretär Alexander Bonde: „Kampf gegen Erderwärmung und verstärkter Artenschutz müssen Hand in Hand gehen. Das ist eine Zukunfts- und Menschheitsfrage – und eine Lebensversicherung für uns und den Planeten.“ Darauf haben Böhning-Gaese und Joosten laut Bonde „unermüdlich“ aufmerksam gemacht. „Diese Impulse der Wissenschaft müssen wir zügig wahr- und vor allem ernst nehmen.“ Bonde: „Damit Glasgow gelingt, müssen in Greifswald, Gladbach, Glückstadt und anderswo die angepeilten Gigatonnen an Treibhausgas-Emissionen eingespart werden.“ Und mehr Artenschutz durch die Kunming-Konferenz „klappt nur, wenn auch in Kulmbach, Kuppenheim und Kusel Biodiversität erhalten wird“.

Besuch bei den Betroffenen der Flutkatastrophe: „Ihr seid nicht vergessen!“
Es sei notwendig, schneller und entschlossener zu handeln, betonte Steinmeier. „Wenn wir nicht konsequent umsteuern, würden wir die Lebensbedingungen auf unserem Planeten unwiederbringlich zerstören.“ Der Bundespräsident erinnerte an die Flutkatastrophe im Sommer dieses Jahres. Er werde am Nachmittag die Betroffenen besuchen. „Ihr seid nicht vergessen!“, sagte er an deren Adresse. Die Folgen des Klimawandels seien „auch bei uns in Europa angekommen“. Doch sie träfen Menschen in den ärmeren Ländern des Südens schon jetzt weitaus härter. „Und sie werden zukünftige Generationen umso brutaler treffen, je weniger wir jetzt tun“, so der Bundespräsident.

Steinmeier machte den Festakt-Gästen Mut für die Zukunft. „Wir haben allen Grund zur Zuversicht“, so der Bundespräsident. Gerade in der Corona-Pandemie habe die Gesellschaft die Kraft zum Umsteuern bewiesen. „Und wir haben erfahren, wie viel Gemeinsinn in uns steckt.“ Böhning-Gaese und Joosten hätten eines allen vor Augen geführt: „Es gibt keinen Grund, in Angst zu erstarren und auf die Apokalypse zu warten. Klimawandel und Artensterben sind nicht unser Schicksal.“ Preisträgerin und Preisträger zeigen nach Steinmeiers Worten, „dass wir Lust auf Zukunft haben dürfen, wenn wir jetzt mit neuer Anstrengung fortsetzen, was wir begonnen haben, wenn wir entschiedener und rascher handeln, wenn wir in den kommenden Jahren die Wende schaffen“. Dank wissenschaftlicher Forschung, technologischer und wirtschaftlicher Innovationen und „unserer Fähigkeit, umzulernen und unser Leben zu ändern“, stehe der gemeinsame Weg in eine klimaneutrale und artenreiche Zukunft offen.

Hintergrund:
Mit dem 2021 zum 29. Mal verliehenen Deutschen Umweltpreis der DBU werden Leistungen von Menschen ausgezeichnet, die vorbildlich zum Schutz und Erhalt der Umwelt beitragen. Prämiert werden Projekte, Maßnahmen und Lebensleistungen. Kandidatinnen und Kandidaten werden der DBU vorgeschlagen. Berechtigt dazu sind etwa Arbeitgeberverbände und Gewerkschaften, Kirchen, Umwelt- und Naturschutzverbände, wissenschaftliche Vereinigungen und Forschungsgemeinschaften, Medien, das Handwerk und Wirtschaftsverbände. Selbstvorschläge sind nicht möglich. Eine vom DBU-Kuratorium ernannte Jury unabhängiger Expertinnen und Experten aus Wirtschaft, Wissenschaft, Technik und gesellschaftlichen Gruppen empfiehlt dem DBU-Kuratorium Preisträgerinnen und Preisträger für das jeweilige Jahr. Das DBU-Kuratorium fällt die Entscheidung.

Infos zum Deutschen Umweltpreis und Ausgezeichneten:
https://www.dbu.de/umweltpreis sowie https://www.dbu.de/umweltpreis-blog/

Weitere Informationen:
https://www.dbu.de/123artikel39183_2442.html Online-Pressemitteilung

(nach oben)


Arbeitswelten der Zukunft – Ergebnisse des Projekts „Future Works“

Stefanie Huland Unternehmenskommunikation
DLR Projektträger
Deutsche Arbeitswelten werden im Übergang zum 22. Jahrhundert fundamental anders aussehen als bisher. Aber wie? Mögliche Zukunftsszenarien stellte das vom DLR Projektträger (DLR-PT) mitkoordinierte Projekt „Future Work“ in Karlsruhe vor. Titel der öffentlichen Hybrid-Konferenz am 18. und 19. September: „Arbeit von übermorgen – zwischen Science und Fiction“.

In Impulsvorträgen und Kurzlesungen konnten sich die Teilnehmenden der Karlsruher Konferenz über die Projektergebnisse informieren und sich zu verschiedenen Fragestellungen einbringen. Zum Beispiel: Wird unsere Arbeit zunehmend automatisiert? Wie wird Arbeit zukünftig entlohnt werden? Und wie verändern sich Wirtschaft und Gesellschaft im Zuge neuer gesellschaftlicher Herausforderungen oder steigender Technisierung?

„Die erstellten Szenarien für die Arbeitswelt der Zukunft reichen bis an die Schwelle zum 22. Jahrhundert“, erklärt Dr. Claudio Zettel vom DLR-PT. Sie zeigen unterschiedliche Optionen auf, zu denen sich die Welt der Arbeit in Deutschland entwickeln kann. „Im Projekt-Szenario einer dystopischen Arbeitswelt sind die Menschen entweder Fremdbestimmung und Zwang ausgesetzt“, so Zettel, „oder sie leben in einer von automatisierter Arbeit dominierten Welt, in der sie auf der Suche nach Lebensgrundlagen in Nischen wie Weltall oder Tiefsee verdrängt werden.“ Weitere Szenarien skizzieren eine handwerklich dominierte Gesellschaft, in der die rasende Schnelligkeit der modernen wachstums- und technologiezentrierten Arbeitswelt überwunden wird.

Zurück zum Handwerk oder ohne Erwerbstätigkeit?
Modelliert wurde auch eine KI-assistierte Planwirtschaft, die Entscheidungen der Arbeitswelt der Zukunft trifft und so den Lebensstandard, Sicherheit und Umweltverträglichkeit aller Menschen sichert, gleichzeitig aber die persönliche Freiheit und Selbstbestimmung auf ein Minimum reduziert. Zudem fand ein utopisches Szenario seinen Platz im Projekt, in Form der „Postwachstumsgesellschaft“. Diese zeichnet sich dadurch aus, dass Erwerbsarbeit in ihrer heutigen Form nicht mehr existiert. Vielmehr besteht Arbeit in der Ausprägung persönlicher Entfaltung, ermöglicht durch ein bedingungsloses Grundeinkommen und die effektive Nutzung aller Ressourcen auf der Erde.

Claudio Zettel: „Die sehr unterschiedlichen Szenarien weisen eine hohe Trennschärfe auf. Diese ist bei der verwendeten Methode der Szenario-Technik von besonderer Bedeutung und erleichtert den nun mit der Tagung begonnenen gesellschaftlichen Dialog, der sich in den kommenden Monaten als diskursive Auseinandersetzung mit Vertreterinnen und Vertretern von Sozialpartnern und aus der Wissenschaft fortsetzen wird.“ Ziel ist es, die Szenarien zur Diskussion zu stellen und mögliche Schlussfolgerungen für das heutige Handeln abzuleiten.

Beteiligte am Projekt „FutureWork“
Am Projekt „FutureWork“ sind neben dem DLR Projektträger (DLR-PT) das IQIB – Institut für qualifizierende Innovationsforschung und -beratung, das ZAK | Zentrum für Angewandte Kulturwissenschaft und Studium Generale am KIT, das Institut für Projektmanagement und Innovation der Universität Bremen sowie die Gesellschaft für Fantastikforschung e.V. beteiligt. Der DLR-PT bringt neben seiner Kompetenz im Bereich der Arbeitsforschung die systematische Anwendung von Foresight-Methoden ein, die zunehmende Bedeutung in der Politik- und Strategieberatung gewinnen.

Wissenschaftliche Ansprechpartner:
Dr. Claudio Zettel
DLR Projektträger
Bereich Gesellschaft, Innovation, Technologie
Telefon: +49 228 3821 1306
E-Mail: Claudio.Zettel@dlr.de

Weitere Informationen:
https://www.arbeit2100.de
https://www.dlr.de/pt/desktopdefault.aspx/tabid-18048/28653_read-74409/

(nach oben)


Programm der Fraunhofer-Gesellschaft fördert Innovationsfähigkeit von KMU im Bereich der effizienten Wasseraufbereitung

Dipl.-Geophys. Marie-Luise Righi PR und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC
Im KMU-akut Programm »Effiziente Wasseraufbereitung« – kurz EWA – bündeln die Fraunhofer-Institute IFAM und ISC gezielt ihre Expertise für die Bereiche elektrochemische Prozesstechnik, Partikeltechnologie und Materialanalytik. Gemeinsam mit und für Industriepartner arbeiten sie in vier Themenfeldern an einer effizienten Aufbereitung der wichtigen Ressource Wasser. Interessierte Unternehmen können in einem kostenlosen Online- Industrieworkshop am 4. November 2021 zu den Themen Batterierecycling, Lithiumgewinnung, alternative Klärprozesse und Meerwasserentsalzung für grünen Wasserstoff mehr erfahren.

Viele Verfahren greifen auf die Ressource Wasser zurück – als Rohstoff für die Produktion ebenso wie als Transport-, Löse- oder Trennmittel für industrielle Prozesse. Um die wertvolle Ressource Wasser so nachhaltig wie möglich zu nutzen und Trinkwasserreserven zu schonen, werden im KMU-akut Projekt EWA verschiedene wasserbasierende Prozesse untersucht und Lösungen für eine effektive Wasseraufbereitung erarbeitet. Die im Projekt federführenden Fraunhofer-Institute für Fertigungstechnik und Angewandte Materialforschung IFAM und für Silicatforschung ISC verfügen über eine breite Materialbasis und technologisches Know-how für verschiedene innovative adsorptive, physikalische und elektrochemische Trennverfahren. Gemeinsam mit Industriepartnern sollen diese für den Fortschritt in der Wasseraufbereitung eingesetzt werden.

KMU-spezifische Fragestellungen zur effizienten Wasseraufbereitung im Fokus
Die klassische, kommerzielle Prozesswasseraufbereitung ist für viele kleine und mittlere Unternehmen entweder überdimensioniert, zu spezifisch, zu kostspielig oder einfach ungeeignet. Im Rahmen des Projekts EWA soll diese Lücke geschlossen und Lösungsansätze entwickelt werden, die durch ihre Flexibilität, Skalierbarkeit und einen vergleichsweise geringen Kostenaufwand die Bedürfnisse potenzieller Unternehmenspartner erfüllen. Entsprechend sollen gezielt zahlreiche, akute Fragestellungen aus der Industrie gelöst werden. Gemeinsam mit den drei weiteren Fraunhofer-Instituten IKTS, ISE und IGB sowie derzeitig fünf Industriepartnern werden die Themenbereiche Batterierecycling, Lithiumgewinnung, Alginit in Klärprozessen und Meerwasserentsalzung für die Leitmärkte Energiewirtschaft, Chemische Industrie, Gesundheitswirtschaft sowie Anlagen- und Maschinenbau in Machbarkeitsstudien und Validierungsprojekten adressiert. Einen guten Überblick für die Arbeitsweise der EWA-Projektpartner vermittelt zum Beispiel das Teilprojekt zur effizienten und nachhaltigen Aufbereitung von Prozesswasser aus Lithium-Ionen-Batterie-Recyclinganlagen.

Effiziente und nachhaltige Aufbereitung von Prozesswasser aus Lithium-Ionen-Batterie-Recyclinganlagen
Mit der steigenden Anzahl von Elektrofahrzeugen fallen in der Folge mehr verbrauchte Traktionsbatterien an. Bei der ressourcenschonenden und effizienten Rückgewinnung von Batteriematerialien spielen das direkte Recycling und der Umgang mit Wasser für die Nachhaltigkeit dieser Technologie eine entsprechend große Rolle. »Wertvolle Batteriematerialien möglichst effizient zurückzugewinnen und Prozesswasser so zu reinigen, dass es im Kreislauf geführt werden kann, ist das Ziel im EWA-Projekt. Im Anschluss liegen die Materialien im Idealfall sortenrein vor und können direkt wieder zu neuen Batterien verarbeitet werden«, erklärt Michael Hofmann vom Fraunhofer ISC und Leiter des EWA-Teilprojekts Batterierecycling das Vorhaben.

Ausgangspunkt für die Projektarbeit ist das Verfahren der elektrohydraulischen Zerkleinerung – eine Entwicklung des Projektpartners Impulstec – womit die Batterien in einzelne Materialfraktionen zerlegt werden können. »In dem wasserbasierten Prozess entstehen grobe und feine Materialfraktionen sowie Stoffe, die in Lösung gehen. Um die wertvollen Batteriematerialien möglichst vollständig und getrennt abzuscheiden und das Prozesswasser von störenden Verunreinigungen zu befreien, waren wir auf der Suche nach geeigneten Aufbereitungsverfahren«, berichtet Robert Jüttner vom Recyclingspezialisten MAB Recycling. »Das EWA-Projekt kam da wie gerufen, um uns mit kompetenten Forschungspartnern und Technologieanbietern an einen Tisch zu setzen und gemeinsam an der Entwicklung einer effizienten Prozesswasserreinigung zu arbeiten«, ergänzt Jüttner. Die Prozesschemie beim Batterierecycling ist anspruchsvoll. Der Recyclingspezialist liefert als Rohmaterial das Prozesswasser und erhält im Gegenzug Analysenergebnisse und wichtiges Know-how, um die eigene Wasseraufbereitung voranzubringen. Mit den EWA-Partnern die Ergebnisse zu diskutieren und eine breite Wissens- und Erfahrungsbasis für die unterschiedlichen technischen Aspekte zur Verfügung zu haben, das sei einer der wesentlichen Vorteile bei EWA. »Das KMU akut-Projekt spart uns Zeit und Wege. Mit den Ergebnissen aus EWA haben wir schneller eine fundierte Basis für die Beurteilung der Wirtschaftlichkeit und die nötigen Informationen für die anlagentechnische Umsetzung«, ist Jüttner überzeugt.

Der dritte Industriepartner im Projekt ist die Firma CEPA, ein Hersteller von Industriezentrifugen. Das Unternehmen arbeitet schon seit geraumer Zeit gemeinsam mit der Fraunhofer-Gesellschaft in verschiedenen Forschungsprojekten an der Weiterentwicklung der Zentrifugentechnologie für anspruchsvolle Anwendungen. »Viele unserer Kunden haben wasserbasierte Prozesse und der verantwortungsvolle Umgang mit der Ressource Wasser wird immer wichtiger«, erklärt Felix Seiser, Projektleiter bei CEPA. Gemeinsames Ziel sei es, die Prozesswassermenge zu reduzieren und soweit wie möglich im Kreislauf zu führen. Die Aufgabe ist anspruchsvoll, denn gerade bei der zentrifugengestützten Auftrennung der unterschiedlichen Materialfraktionen erfordert der Prozess relativ geringe Konzentrationen, d. h. eine große Wassermenge. »Als Maschinenbauer mit der Expertise Feststoffseparation profitieren wir von dem Austausch mit den Forschungsinstituten und von den direkten Analysemöglichkeiten im Projekt. Was bisher vielleicht nur im Labormaßstab getestet wurde, kann jetzt mit dem vereinten Wissensschatz in einen größeren Prozessmaßstab überführt werden. Auf Workshop-Ebene mit allen Projektpartnern werden übergreifende Themen adressiert, bei regelmäßen Treffen auf Teilprojektebene lassen sich spezifische Fragestellung detaillierter bearbeiten. Damit schafft EWA einen guten Ausgangspunkt für uns und unser Ziel, Prozesswasser bei der Materialtrennung zu reduzieren und mit unserer Zentrifugentechnologie ein leistungsfähiges Verfahren zur Prozesswasseraufbereitung zu entwickeln«, beschreibt Seiser den Mehrwert der Zusammenarbeit.

Weitere EWA-Teilprojekte adressieren Wassernutzung und -reinigung bei der Lithiumgewinnung, Klärprozessen und Meerwasserentsalzung

Lithiumgewinnung durch elektrochemisches »Ion Pumping«
Die Lithium-Ionen-Batterie stellt die derzeit verbreitetste elektrische Speichertechnologie dar. Die immer größer werdende Nachfrage erfordert eine Steigerung der Lithiumproduktion und damit auch die Erschließung neuer Lithiumressourcen. Besonders die ressourcenschonende Lithiumgewinnung aus Sole bzw. hydrogeologischen Quellen stellt eine vielversprechende Alternative zur herkömmlichen Rohstoffgewinnung dar. Mithilfe des sog. elektrochemischen »Ion Pumping« Verfahrens lassen sich selektiv Lithium-Ionen aus wässrigen Lösungen extrahieren. Der Prozess wird im EWA Projekt auf realistische Industrieszenarien zur Lithiumgewinnung aus geothermischen Quellen angewandt und evaluiert.

Selektive Adsorption von Metallionen und Umweltschadstoffen
Magnetische Adsorberpartikel sind in der Lage (Schwer-)Metallionen und Schadstoffe wie Medikamentenrückstände selektiv und effizient aus Prozess- und Abwässern zu entfernen. Als Ausgangspartikel dienen Magnet- und Silicatpartikel, die mit einer großen Vielzahl an Adsorberreagenzien kombiniert werden können. Ein besonders effizienter und selektiver Adsorber für Umweltschadstoffe ist Alginit. Es handelt sich um ein spezielles, natürlich vorkommendes, recyclebares Mineral, das im Gegensatz zur derzeit verwendeten Aktivkohle kostengünstig ist und eine hohe Umweltverträglichkeit sowie sehr gute Abtrennleistung sowohl für hydrophile als auch hydrophobe Stoffe aufweist. Die geschickte Modifizierung von Alginit mit magnetischen Partikeln, sorgt dabei für eine gleichbleibend effiziente Adsorptionsleistung und garantiert darüber hinaus eine rückstandsfreie Abtrennung der Absorberpartikel aus den behandelten Abwässern. Der somit entstandene kostenreduzierte Prozess, mit hoher Nachhaltigkeit birgt großes Potenzial und stellt zukünftig eine valide Alternative zur Anwendung in Kläranlagen dar.

Direkte Meerwasserentsalzung durch elektrochemische Verfahren
Für die zukünftige Wasseraufbereitung gelten elektrochemische Verfahren aufgrund ihrer guten Reversibilität und Effizienz als besonders attraktiv. Durch die Verwendung von sogenannten Landungstransferelektroden, wie sie auch in elektrochemischen Energiespeichern eingesetzt werden, kann die Entsalzungskapazität im Vergleich zu thermischen Verfahren und der Umkehrosmose wesentlich erhöht werden. In dem Projekt Meerwasserentsalzung wird aufbauend auf der Expertise zur Zink-Luft-Batterietechnologie ein neuartiges Verfahren zur elektrochemischen Entsalzung von Meerwasser eruiert. Dabei gilt es sowohl geeignete Gasdiffusionselektroden als auch Katalysatoren sowie weitere Komponenten für den Aufbau eines Demonstrators in Form einer skalierbaren Zink-Luft-Entsalzungszelle zu identifizieren. Betrachtet wird dabei insbesondere die Möglichkeit einer direkten Meerwasserentsalzung für die Elektrolyse zur
Herstellung von grünem Wasserstoff.

Workshop »Effiziente Wasseraufbereitung« – gemeinsam schneller profitieren
Der EWA-Industrieworkshop bietet tiefere Einblicke in die vier laufenden Projekte und ermöglicht den direkten Austausch mit den beteiligten Fraunhofer-Instituten und Projektpartnern über Fragestellungen und Lösungsansätze rund um die schonende Nutzung der Ressource Wasser in Produktionsprozessen.
Termin: 4. November, 10:00 bis 14.30 Uhr

Programm und Anmeldung unter
https://www.wasseraufbereitung.fraunhofer.de/de/workshop.html

Wissenschaftliche Ansprechpartner:
Dr. Jens Glenneberg | Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM | Wiener Straße 12 | 28359 Bremen | Telefon 0421 2246-7341 | jens.glenneberg@ifam.fraunhofer.de | http://www.ifam.fraunhofer.de

Michael Hofmann | Fraunhofer-Institut für Silicatforschung ISC | Neunerplatz 2 | 97082 Würzburg | Telefon 0931 4100-228 | michael.hofmann@isc.fraunhofer.de | http://www.isc.fraunhofer.de

Weitere Informationen:
https://www.wasseraufbereitung.fraunhofer.de/
https://www.ifam.fraunhofer.de/
https://www.isc.fraunhofer.de/

(nach oben)


Mit naturbasierten Lösungen zu mehr Hochwasserschutz

Hendrik Schneider Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V.
Edward Ott forscht aktuell in der Nachwuchsgruppe PlanSmart am ZALF. Im Interview gibt er einen Einblick in den aktuellen Zustand der deutschen Flusslandschaft, naturbasierten Hochwasserschutz und wie der nachhaltige Umbau von Flusslandschaften gelingen kann.

Wie würden Sie den Zustand unserer Flusslandschaften in Deutschland insgesamt beschreiben?
Flusslandschaften in Deutschland werden sehr intensiv genutzt. Gemäß Auenzustandsbericht befinden sich 58% der Niederungsgebiete seitlich von Flüssen und Bächen in einem stark bzw. sehr stark veränderten Zustand. Sie sind ökologisch nicht mehr oder nur noch eingeschränkt funktionsfähig. Auch können sie nicht mehr einfach überflutet werden und so Hochwasser abmildern. Insgesamt sind in Deutschland zwei Drittel der ehemaligen Überschwemmungsflächen verloren gegangen, was das Risiko für schwerwiegende Hochwasserereignisse erhöht. Die verbliebenen heutigen Auenbereiche werden zu einem Drittel intensiv als Acker-, Siedlungs-, Verkehrs- und Gewerbefläche genutzt.

Welche Maßnahmen für den Hochwasserschutz ergeben sich aus Ihrer Forschung?
Mit unserer Forschung unterstützen wir die Planung und Umsetzung naturbasierter Lösungen, die auf eine Reihe gesellschaftlicher Herausforderungen abzielen. Dafür machen sie sich ökologische Prozesse zu Nutze. So halten sie zum Beispiel Nährstoff- und Pestizidbelastungen aus der Landwirtschaft zurück, vermeiden Erosion und tragen zur Landschaftsästhetik bei.

Für den Hochwasserschutz ist vor allem interessant, dass sie die natürliche Wasserrückhaltekapazität in Flusslandschaften erhöhen könnten. Das kann durch eine Anpassung der örtlichen Land- und Forstwirtschaft passieren oder bis hin zu Deichrückverlegungen in Kombination mit der Renaturierung der wiedererschlossenen Auen reichen. In Hochwasserentstehungsgebieten kann der natürliche Wasserrückhalt durch Moorrenaturierung, Gehölzpflanzungen, Uferstreifen an Flüssen und Bächen und die Anlage von naturnahen Rückhaltebecken und Teichen verbessert werden.

Was wäre am schnellsten umsetzbar?
Am schnellsten umsetzbar sind räumlich kleinere Maßnahmen wie Pflanzungen und Gewässerrandstreifen, naturnahe Rückhaltebecken und Teiche sowie eine auf den Wasserrückhalt ausgerichtete Bewirtschaftung von land- und forstwirtschaftlichen Flächen. Das müssen die lokalen Bedingungen aber auch zulassen. Es muss aber gesagt werden, dass bei solchen Extremereignissen, wie wir sie in Westdeutschland erlebt haben, solch kleinere Maßnahmen schnell erschöpft gewesen wären. Sie können lediglich einen kleinen Teil zum Hochwasserschutz beitragen und erst in der Summe ihr Potenzial entfalten. Komplexe, großräumige Maßnahmen, wie Auenrenaturierungen oder der Anschluss von Altwasserarmen, erfordern eine gesamtgesellschaftliche Anstrengung und haben in der Regel Planungshorizonte von zehn Jahren und mehr.

Was sind neben dem Hochwasserschutz die dringendsten Herausforderungen?
Neben dem Hochwasserschutz sind natürlich der Verlust der Artenvielfalt, die Anpassung an den Klimawandel sowie Nitratbelastungen des Grundwassers wichtige gesellschaftliche Herausforderungen, zu denen naturbasierte Lösungen einen wichtigen Beitrag leisten können. Besonders die durch den Klimawandel zunehmenden Extremwetterereignisse führen uns immer deutlicher vor Augen, dass dringender Handlungsbedarf besteht, unsere Flusslandschaften insgesamt widerstandfähiger zu gestalten.

Eine große Herausforderung aus planerischer Sicht besteht darin, naturbasierte Lösungen in der Planungspraxis stärker in den Fokus zu rücken, um den Transformationsprozess hin zu zukunftsfähigen Flusslandschaften für Mensch und Natur zu unterstützen.

Welche Akteure sind gefragt, wenn es um einen nachhaltigen Umbau unserer Flusslandschaften geht?
Da Flusslandschaften intensiv genutzte Bereiche sind, gibt es vielfältige, zum Teil miteinander im Widerspruch stehende Interessen, was sich auch in den Vorstellungen darüber widerspiegelt, wie die Flusslandschaften der Zukunft aussehen sollen. Naturbasierte Lösungen können hier einen Ausgleich schaffen, da sie die Ansprüche verschiedener Interessengruppen erfüllen. Die Planung von Entwicklungskonzepten für den Umbau unserer Flusslandschaften sollte diese unterschiedlichen Interessen berücksichtigen und dafür Wissensträger aus Politik und Praxis, Zivilgesellschaft und Forschung systematisch einbeziehen.

Wo können sich Akteure über Lösungsansätze aus der Forschung informieren?
Für die Planung und Umsetzung naturbasierter Lösungen stehen inzwischen vielfältige Informationen zur Verfügung, die das Ergebnis verschiedenster Forschungsprojekte sind. So stellt beispielsweise das Naturvation-Projekt für den Einsatz naturbasierter Lösungen im urbanen Raum ein umfangreiches Instrumentarium zur Verfügung. Für den Kontext der Flusslandschaft hat unsere Arbeitsgruppe PlanSmart vor kurzem ein Handbuch für Praktikerinnen und Praktiker veröffentlicht, welches kostenfrei als PDF über unsere Website oder beim Oekom-Verlag heruntergeladen werden kann. Das Handbuch erklärt die Schritte und Prinzipien unseres integrativen Planungsansatzes, stellt unsere Fallstudie LiLa – Living Lahn vor und enthält eine umfangreiche Methodensammlung zur Gestaltung von Planungsprozessen. Außerdem bieten wir über unsere Website ein interaktives Toolkit an, welches die im Handbuch dargestellten Planungsschritte und -prinzipien übersichtlich und kompakt aufbereitet.

Das Oppla-Repositorium der Europäischen Union bietet einen umfangreichen Überblick zu naturbasierten Lösungen weltweit und stellt eine Plattform zum Wissensaustausch zur Verfügung.

Wo braucht es mehr Forschung?
Unsere Forschungsgruppe hat bereits viel dazu beigetragen, Planungsprozesse für naturbasierte Lösungen besser zu verstehen und zu gestalten. Es bestehen aber weiterhin Wissenslücken dahingehend, ob und wie naturbasierte Lösungen in der Landschaftsplanung charakterisiert, berücksichtigt und erfolgreich umgesetzt werden können. Interessante Forschungsfragen in dieser Hinsicht sind zum Beispiel: Wie müssen die institutionellen Rahmenbedingungen aussehen, damit naturbasierte Lösungen stärker berücksichtigt werden? Wie müssen Finanzierungsinstrumente ausgestaltet werden? Welche Präferenzen und Risikoeinschätzungen hinsichtlich der Berücksichtigung naturbasierter Lösungen liegen bei Entscheidungsträgerinnen und –trägern vor? Wir brauchen also auch in der Zukunft trans- und interdisziplinäre Forschungsprojekte, die sich gezielt mit solchen Fragestellungen befassen.

Wissenschaftliche Ansprechpartner:
Edward Ott, Edward.Ott@zalf.de

Originalpublikation:
https://www.zalf.de/de/aktuelles/Seiten/PB2/Naturbasierter-Hochwasserschutz.aspx

Anhang
Pressemitteilung: Mit naturbasierten Lösungen zu mehr Hochwasserschutz

(nach oben)


Der Klimawandel im Grundwasser: Neues Forschungsprojekt der TU Freiberg untersucht Transport von Mikroorganismen

Philomena Konstantinidis Pressestelle
Technische Universität Bergakademie Freiberg
Wie sich Bakterien, Viren und Antibiotikaresistenzgene im Grundwasser verbreiten, wenn sich die Wasserqualität verändert, erforscht ein Team um Hydrogeologe Prof. Traugott Scheytt von der TU Bergakademie Freiberg in den kommenden drei Jahren am Beispiel der Gallusquelle bei Hermetingen in der Schwäbischen Alb.

„Messungen haben ergeben, dass der Klimawandel zu weniger Wasser und schlechterer Wasserqualität des Grundwassers führt. Vor allem bei Starkregenereignissen sind dann stärkere mikrobielle Verunreinigungen durch Bakterien möglich“, sagt Prof. Traugott Scheytt vom Lehrstuhl für Hydrogeologie und Hydrochemie der TU Bergakademie Freiberg. Mit seinem Team möchte er die Ausbreitung von mikrobiologischen Verunreinigungen im Grundwasser nun in einem neuen Forschungsprojekt systematisch erfassen. „Das ist wichtig, um geeignete Gegenmaßnahmen ergreifen zu können.“

Dafür bringen die Forschenden in Geländeuntersuchungen auf der Schwäbischen Alb gezielt nicht-pathogene Mikroorganismen ins Grundwasser ein und analysieren, wie sie auf einer Strecke von drei bis 12 Kilometern durch den Untergrund fließen. „In einigen Experimenten werden die Mikroorganismen mehrere Tage durch den Grundwasserleiter transportiert bevor sie wieder zu Tage treten“, schätzt Prof. Traugott Scheytt. „Auf diese Weise können wir bei potenziellen Kontaminationsereignissen auftretende Bakterien, Viren und Antibiotikaresistenzgene aufspüren, Quellen identifizieren und daraus Rückschlusse auf die Mobilität der Mikroorganismen ziehen“, erklärt der Hydrogeologe.

Hintergrund: Forschungsprojekt PrePat
Das Verbundprojekt „Development and application of non-pathogens and extracellular DNA for predicting transport and attenuation of pathogens and antibiotic resistance genes in groundwater“ hat zum Ziel, das Verständnis des Transportes von Bakterien, Viren und Antibiotikaresistenzgenen im Grundwasser zu verbessern. Projektpartner sind neben der TU Bergakademie Freiberg das TZW: DVGW-Technologiezentrum Wasser in Karlsruhe sowie die TU Berlin. Es sind drei Professoren, drei Post-Docs und eine Doktorandin an den Arbeiten beteiligt. Die Deutsche Forschungsgemeinschaft DFG fördert das Vorhaben mit rund 450.000 € über eine Laufzeit von 3 Jahren. Anschlussprojekte und ergänzende Projekte sind bereits in Planung.

TU Bergakademie Freiberg: Prof. Scheytt (Hydrogeologie und Hydrochemie)
TZW: DVGW-Technologiezentrum Wasser: Prof. Tiehm, Frau Stelmaszyk (Umweltbiotechnologie)
TU Berlin: Dr. Schiperski (Angewandte Geochemie), Prof. Szewzyk, Dr. Braun (Umweltmikrobiologie)

Wissenschaftliche Ansprechpartner:
Prof. Traugott Scheytt; traugott.scheytt@geo.tu-freiberg.de

(nach oben)


Wenn KI hilft, die Landwirtschaft nachhaltiger zu gestalten

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Neues Projekt unter Beteiligung des JKI trägt dazu bei, große Datenmengen aus der Landwirtschaft mittels künstlicher Intelligenz effizient auszuwerten und nutzbar zu machen.

(Braunschweig/Kleinmachnow) In der Landwirtschaft fallen mittlerweile immense Datenmengen an. Sie werden durch landwirtschaftliche Maschinen, mittels Fernerkundung durch Satelliten oder Drohnen, mittels Bodensensoren, durch Wetterstationen oder auch immer noch manuell erhoben. Will man diese durchaus wertvolle und große Datenmenge, auch BigData genannt, einem praktischen Nutzen zuführen, um etwa die Landwirtschaft an die Herausforderung des Klimawandels anzupassen oder nachhaltiger zu wirtschaften, müssen die Daten effizient ausgewertet werden. „Ein wichtiges Werkzeug dazu ist Künstliche Intelligenz (KI), also selbstlernende Systeme, und auch die Data-Cube-Technologie“, erklärt Dr. Heike Gerighausen vom Forschungszentrum für Landwirtschaftliche Fernerkundung des Julius Kühn-Instituts (JKI) in Braunschweig. Hier setzt das neue Projekt NaLamKI (Nachhaltige Landwirtschaft mittels Künstlicher Intelligenz) an, an dem das JKI beteiligt ist.

Entstehen soll eine cloudbasierte Plattform mit offenen Schnittstellen für Anbieter aus dem vor- und nachgelagerten Bereich der Landwirtschaft, der Industrie, sowie für Serviceanbieter von Spezialanwendungen im Pflanzenbau. Die Cloud ist dabei als Software as a Service (SaaS) Lösung konzipiert, so dass Anwender Software und IT-Ressourcen als Dienstleistung nutzen können und lediglich einen internetfähigen Computer und eine schnelle Internetanbindung benötigen.

Darüber hinaus soll die Plattform GAIA-X konform umgesetzt werden. Dadurch wird es möglich, nicht nur zentrale, sondern auch dezentrale Cloud-Anbieter und Anwender einzubeziehen ohne deren Datensouveränität zu gefährden. NaLamKI wird damit mittelfristig auch kompatibel mit der europäischen Dateninfrastruktur sein.

Dieser Ansatz und die enge Kooperation zwischen Wirtschaft und Wissenschaft führte dazu, dass sich das Projekt im Innovationswettbewerb „Künstliche Intelligenz als Treiber für volkswirtschaftlich relevante Ökosysteme“ des Bundesministeriums für Wirtschaft und Energie (BMWI) durchsetzen konnte und als förderwürdig befunden wurde. Das Fördervolumen beträgt ca. 9,8 Mio. Euro. Neben dem Wirtschaftspartner John Deere, der das NaLamKI-Konsortium koordiniert, sind das Deutsche Forschungszentrum für Künstliche Intelligenz, NT Neue Technologien AG, Fraunhofer Heinrich-Hertz-Institut, OptoPrecision GmbH, Planet Labs Germany GmbH, Robot Makers GmbH, Technische Universität Kaiserslautern, die Universität Hohenheim sowie das JKI mit zwei Fachinstituten an den Standorten Braunschweig und Kleinmachnow beteiligt.

In dem vom JKI bearbeiteten Teilvorhaben MussIF (Multiskalige und multisensorale Informationsgewinnung aus Fernerkundungsdaten) werden die Forschenden analysieren, welche Auswertungsmöglichkeiten KI bei landwirtschaftlichen BigData-Verarbeitungen bietet. Über Fernerkundungssysteme sollen Datenprodukte für das Monitoring landwirtschaftlicher Kulturpflanzenbestände generiert werden, durch die eine nachhaltigere und ressourceneffizientere Bewirtschaftung erzielt werden kann. „Wir werden uns mit Methoden der Datenfusion und neuesten KI-Methoden beschäftigen, um flächendeckend aktuelle Informationen zum Zustand des Pflanzenbestandes, z.B. dem Entwicklungsstadium, der Biomasse oder dem Blattflächenindex sowohl aus Radar-Systemen als auch aus optischen Sensoren (Stichwort: Sentinel1+2/Copernicus) mit unterschiedlicher räumlicher und zeitlicher Auflösung abzuleiten“, erläutert Dr. Gerighausen. Die generierten Satellitenbilddaten und ‐datenprodukte werden zusammengeführt und über standardisierte Schnittstellen als GAIA‐X konforme Webdienste zur Verfügung gestellt. Dazu arbeiten unter dem Dach des Forschungszentrums für Landwirtschaftliche Fernerkundung des JKI Forschende des Fachinstituts für Pflanzenbau und Bodenkunde sowie des Fachinstituts für Strategien und Folgenabschätzung zusammen.

Info zu GAIA-X:
GAIA-X ist ein Projekt zum Aufbau einer leistungs- und wettbewerbsfähigen, sicheren und vertrauenswürdigen Dateninfrastruktur für Europa, das von Vertretern aus Wirtschaft, Wissenschaft und Verwaltung aus Deutschland und Frankreich, gemeinsam mit weiteren europäischen Partnern getragen wird.

Eckdaten zum Projekt:
NaLamKI – Nachhaltige Landwirtschaft mittels Künstlicher Intelligenz
Kooperationspartner: John Deere GmbH & Co. KG (Koordination), Deutsches Forschungszentrum für Künstliche Intelligenz, NT Neue Technologien AG, Fraunhofer‐Institut für Nachrichtentechnik Heinrich‐Hertz‐Institut, OptoPrecision GmbH, Planet Labs Germany GmbH, Robot Makers GmbH, TU Kaiserslautern, Universität Hohenheim
Assoziierte Partner: DLG, Hofgut Neumühle, Förderverein Digital Farming
Fördervolumen: ca. 9,8 Mio. Euro für den gesamten Verbund, davon ca. 879.075 Euro für das JKI.
Mittelgeber: BMWi (Projektträger DLR-PT)
Laufzeit: 01.01.2021 – 31.12.2023, FKZ: 01MK21003E

Wissenschaftliche Ansprechpartner:
Wissenschaftliche Ansprechpartner am JKI:
Dr. Heike Gerighausen
JKI-Fachinstitut für Pflanzenbau und Bodenkunde
Tel.: +49 (0) 531 596 2107
E-Mail: heike.gerighausen@julius-kuehn.de

Dr. Burkhard Golla
JKI-Fachinstitut für Strategien und Folgenabschätzung
Tel.: +49 (0) 33203 48 325
E-Mail: burkhard.golla@julius-kuehn.de

(nach oben)


Die Umgestaltung der betrieblichen Mobilität erfolgreich meistern

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Eine digitale Mobilitätsplattform unterstützt Betriebe beim nachhaltigen Management ihrer Mobilität

Nach vier Jahren Laufzeit ist das Projekt »Eco Fleet Services« erfolgreich abgeschlossen worden. Am 4. Oktober stellte das Projektteam unter Leitung des Anwendungszentrums KEIM des Fraunhofer IAO die Ergebnisse in Heidelberg vor. Das Fazit: Wollen Betriebe ihre Mobilität nachhaltiger gestalten, so gilt es systematisch vorzugehen und eine digitale Mobilitätsplattform zu nutzen.

Ein Reifegradmodell, das die Bewertung der eigenen betrieblichen Mobilität ermöglicht. Eine Mobilitätsplattform, die den eigenen Fuhrpark mit flexiblen und nachhaltigen Angeboten, wie Carsharing-Fahrzeugen und Leihrädern vereint – und das alles unter Verwendung von Open-Source-Komponenten. Diese konkreten Ergebnisse aus vier Jahren »Eco Fleet Services« wurden am 4. Oktober in Heidelberg sowie im Livestream der Öffentlichkeit präsentiert. Durch die in »Eco Fleet Services« entwickelten Instrumente und digitalen Lösungen wird es Kommunen und Unternehmen erleichtert, ihre Mobilität nachhaltig und dynamisch zu gestalten. »Mit ihrer betrieblichen Mobilität setzen Arbeitgeber Maßstäbe und prägen damit auch das Verhalten ihrer Mitarbeitenden. Damit leisten sie einen wichtigen Beitrag zur Bewältigung urbaner Herausforderungen, wie der Luftreinhaltung oder der Überlastung des Verkehrs«, sagte Dr. Patrick Rapp, Staatssekretär im Wirtschaftsministerium Baden-Württemberg.

Bausteine für eine nachhaltige betriebliche Mobilität
Gemeinsam mit Partnern setzte das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO mit dem Projekt »Eco Fleet Services« hier an, um ein intelligentes Management betrieblicher Mobilität zu ermöglichen. Die betriebliche Mobilität beinhaltet dabei alle Dienstreisen sowie Dienstgänge der Mitarbeitenden. Ein wesentliches Projektziel stellte die Entwicklung und Erprobung einer Mobilitätsplattform dar, die den wirtschaftlichen Einsatz von Elektrofahrzeugen sowie die bequeme Buchung nachhaltiger Reisemittel ermöglicht. Eine Studie zum Status Quo der betrieblichen Mobilität in über 100 Kommunen ergab Ansatzpunkte für die Gestaltung einer nachhaltigen, betrieblichen Mobilität. Ergänzend dazu entstand ein Reifegradmodell, anhand dessen Betriebe und Kommunen ihr Mobilitätsmanagement bewerten, Potenziale finden und Maßnahmen planen können. Die Erprobung der Mobilitätsplattform mit der Stadt Heidelberg dauerte insgesamt 18 Monate und brachte viele aufschlussreiche Erkenntnisse zutage. So zeichnete sich ein sehr positives Bild bezüglich der komfortablen Buchungsprozesse in Kombination mit dem digitalen Schlüsseltresor ab. Insbesondere jüngere Teilnehmende begrüßten den Umstieg auf die digitale Mobilitätsplattform sehr und erlernten den Umgang damit schnell.

Vorausschauende Planung führt zum Erfolg
Der Weg zu einer nachhaltigen betrieblichen Mobilität stellt viele Betriebe vor Herausforderungen. Um Misserfolge zu vermeiden, so betont Projektleiter Stefan Schick vom Anwendungszentrum KEIM des Fraunhofer IAO, sei es zwingend notwendig, systematisch vorzugehen und die Transformation mit den durchzuführenden Maßnahmen vorauszuplanen. »Einen Erfolgsfaktor bilden auch immer die Menschen, die solche Maßnahmen in den Betrieben planen und vorantreiben«, so Stefan Schick. »Deshalb ist es wesentlich, Verantwortliche zu bestimmen und die Mitarbeitenden auf dem Weg in Richtung einer nachhaltigeren und effizienteren Mobilität mitzunehmen.«

Ein Leitfaden mit Handlungsempfehlungen
Das Projekt »Eco Fleet Services« wurde vom baden-württembergischen Wirtschaftsministerium mit rund einer Million Euro gefördert. »Eco Fleet Services« startete im September 2017 und lief über vier Jahre. Handlungsempfehlungen für Unternehmen und Kommunen hat das Anwendungszentrum KEIM des Fraunhofer IAO in einem Leitfaden zusammengefasst. Darin werden konkrete Lösungselemente und Maßnahmen vorgestellt. Mithilfe derer gelingt es Betrieben nicht nur die Weiterentwicklung ihrer Mobilität anzustoßen, sondern diese auch kontinuierlich zu optimieren.

Ansprechpartnerin Presse:
Juliane Segedi
Presse und Öffentlichkeitsarbeit

Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart

Telefon +49 711 970-2343
juliane.segedi@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Stefan Schick
Anwendungszentrum KEIM

Fraunhofer IAO
Flandernstraße 101
73732 Esslingen am Neckar

Telefon +49 711 970-2252
stefan.schick@iao.fraunhofer.de

Originalpublikation:
Leitfaden der nachhaltigen betrieblichen Mobilität
Praxistipps und Handlungsempfehlungen aus dem Projekt „Eco Fleet Services“.
Cristescu, Anamaria; Schick, Stefan; Reichsöllner, Emanuel. Stuttgart: Fraunhofer IAO, 2021, 18 pp.
http://publica.fraunhofer.de/documents/N-640471.html

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/die-umgestaltung-de…
https://www.ecofleetservices.de/
https://blog.iao.fraunhofer.de/tag/eco-fleet-services/

(nach oben)


Hitzewellen im Meer haben drastische Folgen für Fischerei

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Marine Hitzewellen in stark befischten Gewässern werden in Zukunft negative Auswirkungen haben für die Fischbestände, den Fischfang und alle Menschen, die davon abhängig sind. Dies zeigt eine neue Studie unter der Leitung der University of British Columbia, an der auch Thomas Frölicher von der Universität Bern beteiligt war.

Wenn in einer bestimmten Meeresregion die Wassertemperatur über eine längere Zeitspanne ungewöhnlich hoch ist, spricht man von einer marinen Hitzewelle (Meereshitzewelle). Solche Hitzewellen verursachten in den letzten Jahren grosse Veränderungen in den Ökosystemen im offenen Meer und an der Küste.

In einer neuen Studie unter der Leitung des Institute for the Oceans and Fisheries (IOF) der University of British Columbia (UBC, Kanada) haben Forschende die Auswirkungen von marinen Hitzewellen in ein Modell einbezogen, das klimabezogene Prognosen erstellt sowohl für Fischbestände, den Fischfang als auch die davon abhängigen Menschen in sogenannten «Ausschliesslichen Wirtschaftszonen» (AWZ), in denen der Grossteil des weltweiten Fischfangs betrieben wird. Ebenfalls beteiligt an der Studie, die soeben in der Fachzeitschrift Science Advances veröffentlicht wurde, ist Thomas Frölicher, Professor für Ozeanmodellierung an der Universität Bern. In einem Worst-Case-Szenario, bei dem keine Massnahmen zur Eindämmung der Treibhausgasemissionen ergriffen werden, prognostizieren die Forschenden aufgrund mariner Hitzewellen einen Rückgang der potenziellen Fangmenge um 6 Prozent pro Jahr und einen Rückgang der Biomasse (d. h. der gewichtsmässigen Fischmenge in einem bestimmten Gebiet) bei 77 Prozent der befischten Fischarten und wirbellosen Tiere. Dieser Rückgang kommt zu demjenigen hinzu, der aufgrund des langfristigen Klimawandels erwartet wird.

Extremereignisse könnten Millionen von Arbeitsplätzen kosten
Einige Gebiete werden stärker betroffen sein als andere. Zum Beispiel gehen die Forschenden davon aus, dass im indonesischen Fischereisektor fast drei Millionen Arbeitsplätze verloren gehen könnten, wenn dort zwischen 2000 und 2050 eine marine Hitzewelle eintritt. Weltweit gesehen prognostizieren die Forschenden bei extremen Temperaturereignissen in den Ozeanen, dass die Einnahmen der Fischerei durchschnittlich drei Prozent und die Beschäftigung um zwei Prozent zurückgehen könnten, was einem potenziellen Verlust von Millionen von Arbeitsplätzen gleichkäme.

Überlastung des Systems wie bei Coronavirus
«Diese extremen jährlichen Temperaturen werden ein zusätzlicher Schock für ein ohnehin schon überlastetes System sein», sagt Studien-Erstautor William Cheung, Direktor des Institute for the Oceans and Fisheries der UBC, der 2019 während vier Monate an der Universität Bern in einem Sabbatical tätig war. «In den Ländern, in denen die Fischerei bereits durch langfristige Veränderungen wie die Erwärmung der Ozeane und den Sauerstoffmangel geschwächt ist, kann ein zusätzlicher Schock durch Temperaturextreme die Anpassungsfähigkeit dieser Fischereien überfordern. Es ist nicht unähnlich, wie COVID-19 das Gesundheitssystem durch eine zusätzliche Belastung an die Grenzen bringt.»

Thomas Frölicher, Assistenzprofessor in der Abteilung Klima und Umweltphysik des Physikalischen Instituts und Mitglied des Oeschger-Zentrums für Klimaforschung der Universität Bern, war insbesondere bei der Ausarbeitung der Idee und des Studiendesigns an der Publikation beteiligt. Die Studie knüpft an bisherige Arbeiten seiner Forschungsgruppe an (siehe Beispiele hier und hier). Laut Frölicher werden marine Hitzwellen in Zukunft häufiger auftreten. «Hitzewellen im Meer und die schwerwiegenden Auswirkungen, die sie bereits heute auf die Fischerei haben, sind Vorboten für die Zukunft. Solche Extremereignisse verändern die Umweltbedingungen innert Kürze so stark wie der langfristige Klimawandel in Jahrzehnten.»

Anpassungen in der Fischerei nötig
«Diese Studie unterstreicht die Notwendigkeit, Wege zu entwickeln, um mit den extremen Meerestemperaturen umzugehen, und zwar bald», sagt Cheung. Die Forschenden legen ein aktives Fischereimanagement nahe: Zu den möglichen Anpassungen gehören die Reduzierung der Fangquoten in den Jahren, in denen die Fischbestände unter extremen Temperaturereignissen leiden, oder in schweren Fällen ein Unterbruch der Fischerei, damit sich die Bestände wieder erholen können. Gemäss den Forschenden wird es zudem wichtig sein bei der Entwicklung solcher Anpassungsoptionen mit den Betroffenen zusammenzuarbeiten, da einige Entscheidungen die Auswirkungen auf die Lebensgrundlagen der Menschen sowie auf die Nahrungsmittel- und Ernährungssicherheit verschärfen könnten.

Wissenschaftliche Ansprechpartner:
Prof. Thomas Frölicher
Physikalisches Institut der Universität Bern, Klima- und Umweltphysik (KUP)
Tel. +41 (0)31 631 86 64
thomas.froelicher@climate.unibe.ch

Originalpublikation:
William W. L. Cheung, Thomas L. Frölicher, Vicky W. Y. Lam, Muhammed A. Oyinlola, Gabriel Reygondeau, U. Rashid Sumaila, Travis C. Tai, Lydia C. L. Teh, Colette C. C. Wabnitz. Marine high temperature extremes amplify the impacts of climate change on fish and fisheries. Science Advances, 2021; 7: 1 October 2021. Doi: 10.1126/sciadv.abh0895.

(nach oben)


Biologie: Entscheidender Schritt bei der Umwandlung von Biomasse in Methan identifiziert

Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
Forschende finden das enzymatische Glied bei der Bildung von Methan aus Fettsäuren durch kooperierende Mikroorganismen

Die mikrobielle Produktion von Methan aus organischem Material ist ein wesentlicher Prozess im globalen Kohlenstoffkreislauf und eine wichtige Quelle für erneuerbare Energie. Dieser natürliche Vorgang beruht auf einer kooperativen Interaktion zwischen unterschiedlichen Mikroorganismen-Typen: den gärenden Bakterien und den methanbildenden Archaeen. Erstere wandeln sogenannte primäre Fermentationsprodukte aus dem Biomasseabbau um, unter anderem Fettsäuren in Zwischenprodukte wie Essigsäure, Ameisenäure oder H2. Aus diesen können dann spezialisierte Archaeen Methan bilden. Diese Interaktion fermentierender Bakterien mit methanbildenden Archaeen ist entscheidend für die weltweit relevante Bildung von Methan aus Biomasse. Doch bisher konnten Wissenschaftler*innen nicht klären, wie die Oxidation gesättigter Fettsäuren mit der thermodynamisch äußerst ungünstigen Reduktion von CO2 zu Methan gekoppelt werden kann und wie ein solcher Prozess das Wachstum beider beteiligten Mikroorganismen ermöglichen kann. Ein Forschungsteam der Universität Freiburg, der Technischen Universität Darmstadt und der Universität Bern/Schweiz um Prof. Dr. Matthias Boll vom Institut für Biologie II der Albert-Ludwigs-Universität konnte nun einen entscheidenden Schritt in diesem Prozess aufdecken: Sie fanden das fehlende enzymatische Glied und dessen Funktion, wodurch die Methanbildung aus Fettsäuren energetisch erst nachvollziehbar wird. Ihre Erkenntnisse veröffentlichten die Forschenden im Fachmagazin Proceedings of the National Academy of Sciences.

Untersuchung einer Oxidoreduktase
Die Wissenschaftler*innen untersuchten eine bisher nicht charakterisierte membrangebundene Oxidoreduktase (EMO) aus dem gärenden Bakterium Syntrophus aciditrophicus. Dabei lieferten sie die biochemischen Hinweise dafür, dass die Häm-b-Cofaktoren dieser membrangebundenen Oxidoreduktase und ein modifiziertes Chinon mit perfekt aufeinander abgestimmten Redoxpotentialen die Hauptakteure in diesem mikrobiellen Prozess sind. Bioinformatische Analysen deuten zudem darauf hin, dass diese Oxidoreduktasen in Prokaryoten – Lebewesen wie Bakterien und Archaeen, deren Zellen keinen Zellkern aufweisen – weit verbreitet sind. „Die Ergebnisse schließen nicht nur unsere Wissenslücke bei der Umwandlung von Biomasse in Methan“, erklärt Boll. „Wir könnten darüber hinaus EMOs als bislang übersehene Schlüsselkomponenten des Lipidstoffwechsels in der überwiegenden Mehrzahl aller Mikroorganismen identifizieren.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Boll
Institut für Biologie II
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-2649
E-Mail: matthias.boll@biologie.uni-freiburg.de

Originalpublikation:
Agne, M., Estelmann, S., Seelmann, C. S., Kung, J., Wilkens, D., Koch, H.-G., van der Does, C., Albers, S., von Ballmoos, C., Simon, J., Boll, M. (2021): The missing enzymatic link in syntrophic methane formation from fatty acids. In: Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.2111682118

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/biologie-entscheidender-schritt-bei-der-u…

(nach oben)


Übergewicht − Sind Frauen dabei gesünder als Männer?

Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Stark adipöse Frauen sind weniger durch Begleiterkrankungen des Herzens und Stoffwechsels gefährdet als gleichaltrige, ebenfalls übergewichtige Männer. Dies zeigt eine aktuelle Studie aus Regensburg, die gestern im Rahmen der Herztage 2021 der Deutschen Gesellschaft für Kardiologie vorgestellt wurde.

Bei Frauen und Männern setzt sich Fett an unterschiedlichen Körperstellen an. Bei Frauen sind dies eher die Hüften und das Gesäß an, bei Männern eher der Bauch. Obwohl Frauen einen höheren Körperfettanteil aufweisen, haben sie ein geringeres Risiko an Herz- und Stoffwechselstörungen zu erkranken als Männer im gleichen Alter – die Gründe hierfür sind bisher noch nicht vollständig geklärt.

Dies scheint daran zu liegen, wie unterschiedliche Männer und Frauen Fettreserven speichern: Frauen eher unter der Haut (subkutan), Männer eher in Organnähe (viszeral). Dieses viszerale Fett hat Auswirkungen auf den Stoffwechsel und fördert Entzündungen. Es scheint aber noch weitere Faktoren zu geben. Die Regensburger „Weight Reduction and Remodeling“ Studie unter der Leitung von Prof. Dr. Andrea Bäßler hatte das Ziel, geschlechterspezifische Unterschiede beim Risiko für Herz- und Stoffwechselerkrankungen bei sehr adipösen Patient*innen zu untersuchen.

Frauen hatten unabhängig davon, ob sie adipös waren, einen wesentlich höheren Körperfettanteil als Männer. Dennoch wiesen Männer deutlich häufiger Zucker- und Fettstoffwechselstörungen sowie Bluthochdruck – zusammengenommen als metabolisches Syndrom bezeichnet– auf als Frauen. Besonders stark waren die Unterschiede bei Menschen unter 40 Jahren – 73 Prozent der Männer und nur 37 Prozent der Frauen waren in dieser Altersgruppe betroffen. Adipöse Proband*innen, die außer der Adipositas keine weiteren Kriterien des Metabolischen Syndroms erfüllten, wurden als „gesunde Adipöse“ klassifiziert. Die Gruppe der „gesunden Adipösen“ war bei den adipösen Männern quasi nicht vorhanden: nur 4 Prozent der Männer waren tatsächlich „nur“ adipös, hingegen erfüllten 16 Prozent der Frauen die Kriterien.

Dr. Christina Strack vom Universitätsklinikum Regensburg fasst das Ergebnis folgendermaßen zusammen: „Zusammenfassend weisen vor allem jüngere Männer trotz identischem BMI deutlich häufiger eine krankhafte Adipositas auf als gleichaltrige Frauen. Insbesondere die bei Männern vorhandene abdominelle Fettakkumulation scheint hierbei, neben weiteren Faktoren, eine wichtige Rolle zu spielen.“

Um alle Gründe für dieses unterschiedliche Risiko zu ergründen, sind noch weitere Studien erforderlich. Bei der Studie wurden bei 356 Adipositas-Patient*innen und 76 Personen einer nicht adipösen Vergleichsgruppe, Faktoren wie Körperform, Alter, Alkoholkonsum, Bewegung und Ernährung berücksichtigt.

Medienkontakt:
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Pressesprecher: Prof. Dr. Michael Böhm
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13 presse@dgk.org

Die Deutsche Gesellschaft für Kardiologie –Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit fast 11.000 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter http://www.dgk.org

Wichtige Informationen für Nicht-Mediziner stellt die DGK auf den Seiten ihres Magazins „HerzFit-macher“ zusammen: http://www.herzfitmacher.de

Weitere Informationen:
http://www.dgk.org/presse

(nach oben)


Die seismische Chronik einer Sturzflut

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die wissenschaftliche Beschreibung des katastrophalen Bergsturzes vom 7. Februar 2021 im indischen Dhauli-Ganga-Tal liest sich wie ein gerichtsmedizinischer Bericht. Ein Bergsturz und die anschließende Flut hatten mindestens hundert Menschen getötet und zwei Wasserkraftwerke zerstört. In der Fachzeitschrift Science vom 1.10.2021 zeichnen Forschende des Deutschen GeoForschungsZentrums (GFZ) gemeinsam mit Kolleg*innen des Nationalen Geophysikalischen Forschungsinstituts Indiens (NGRI) die Katastrophe anhand der Daten eines Netzes von Seismometern Minute für Minute nach. Dem Team zufolge könnten seismische Netzwerke genutzt werden, um ein Frühwarnsystem für Hochgebirgsregionen einzurichten.

Obwohl der endgültige Auslöser des massiven Bergsturzes, der in einer Höhe von mehr als 5500 Metern begann, nach wie vor ungeklärt ist, ist eines sicher: Am Sonntag, 7. Februar 2021, um kurz vor halb elf Uhr vormittags, begannen mehr als 20 Millionen Kubikmeter Eis und Gestein ins Tal des Ronti Gad zu stürzen. Seismometer registrierten das Signal um 10:21 Uhr und 14 Sekunden Ortszeit. 54 Sekunden später traf die Masse in 3730 Metern Höhe auf den Talboden und verursachte einen Aufprall, der einem Erdbeben der Stärke 3,8 entsprach. Im Tal mobilisierte die Mischung aus Gestein und Eis Schutt und zusätzliches Eis, das sich – vermischt mit Wasser – als gigantischer Murgang durch die Täler der Flüsse Ronti Gad und Rishi Ganga wälzte. Erstautorin Kristen Cook vom GFZ schätzt, dass die Masse zunächst mit fast 100 Kilometern pro Stunde bergab schoss; nach etwa zehn Minuten verlangsamte sich die Bewegung auf knapp 40 Kilometer pro Stunde.

Um 10:58 Uhr und 33 Sekunden erreichte die Flut eine wichtige Straßenbrücke bei Joshimath. Innerhalb von Sekunden stieg das Wasser dort um 16 Meter. Dreißig Kilometer weiter unten im Tal verzeichnete die Pegelstation Chinka einen Sprung des Wasserstandes um 3,6 Meter, und weitere sechzig Kilometer weiter stieg der Pegel noch um einen Meter.

Auf der Grundlage der von den seismischen Stationen aufgezeichneten Bodenerschütterungen identifizierten Forschende aus den drei GFZ-Sektionen Geomorphologie, Erdbebengefährung und dynamische Risiken sowie Erdbeben- und Vulkanphysik gemeinsam mit den Kolleg*innen des NGRI drei verschiedene Phasen der Flutkatastrophe. Phase 1 war der Bergsturz und sein massiver Aufschlag auf den Talboden. Es folgte Phase 2 mit der Mobilisierung enormer Materialmengen – Eis, Geröll, Schlamm –, die eine verheerende Wand aus Material bildeten, die durch ein enges und gewundenes Tal raste. In dieser Phase blieb viel Material zurück und die Energie nahm rasch ab. Diese Phase dauerte etwa dreizehn Minuten. Phase 3 (fünfzig Minuten Dauer) war eher flutartig, mit gewaltigen Wassermassen, die flussabwärts flossen und große Felsbrocken von bis zu 20 m Durchmesser mit sich führten.

Die wichtigste Erkenntnis: „Die Daten der seismischen Instrumente eignen sich als Grundlage für ein Frühwarnsystem, das vor dem Eintreffen solcher katastrophalen Murgänge warnt“, sagt Niels Hovius, Letztautor der Studie in Science (1.10.2021) und kommissarischer wissenschaftlicher Vorstand des Deutschen GeoForschungsZentrums GFZ. Ein weiterer wichtiger Punkt ist die Verfügbarkeit eines dichten seismischen Netzes, wie es von indischen Forschenden am Indian National Geophysical Research Institute (NGRI) betrieben wird. Hovius‘ Kollegin Kristen Cook, Erstautorin der Studie, fügt hinzu: „Die verfügbare Vorwarnzeit für Standorte in Tälern hängt von der Entfernung und der Geschwindigkeit der Strömungsfront flussabwärts ab.“ Joshimath zum Beispiel, wo der Flusspegel während des Hochwassers um 16 Meter anstieg, lag 34,6 km flussabwärts vom Erdrutsch. Kristen Cook: „Das bedeutet, dass die Menschen in und um Joshimath etwa eine halbe Stunde vor dem Eintreffen der Flut gewarnt worden sein könnten.“ Für weiter flussaufwärts gelegene Regionen, in denen die Welle nur wenige Minuten nach dem Erdrutsch eintraf, hätte die Zeit möglicherweise immer noch ausgereicht, um Kraftwerke abzuschalten.

Warum also gibt es ein solches Warnsystem nicht schon lange? Fabrice Cotton, Leiter der Sektion Erdbebengefährdung und Risikodynamik, sagt: „Das Problem sind die unterschiedlichen Anforderungen an seismische Messstationen, die dazu führen, dass viele Stationen in unseren weltweiten und regionalen Erdbebennetzen weniger geeignet sind, um Felsstürze, Murgänge oder große Überschwemmungen zu erkennen. Gleichzeitig helfen Stationen, die Hochwasser und Murgänge in ihrer unmittelbaren Umgebung überwachen sollen, nicht so gut bei der Erkennung von Ereignissen in der Ferne.“ Die Lösung, an der die GFZ-Forschende gemeinsam mit ihren Kolleg*innen in Indien und Nepal arbeiten, ist ein Kompromiss: An strategisch günstigen Stellen müssten Stationen eingerichtet werden, die das Rückgrat eines Hochgebirgs-Flutwarnsystems bilden. GFZ-Forscher Marco Pilz: „Dieser Kompromiss ist gewissermaßen ein Optimierungsproblem, mit dem sich künftige Studien befassen müssen und bei dem wir bereits systematische Fortschritte gemacht haben, zum Beispiel in der Niederrheinischen Bucht. Weitere Analysen von Sturzfluten und Murgängen werden dazu beitragen, besser zu verstehen, wie seismische Signale bei der Frühwarnung helfen können.“

Erste Ideen, ein solches Frühwarnsystem auf Basis eines seismologischen Ansatzes zu etablieren, entstanden bereits vor der Katastrophe als Ergebnis eines gemeinsamen Workshops von Helmholtz-Forschenden und indischen Kolleg*innen in Bangalore im Frühjahr 2019. Das aktuelle Projekt der Studie wurde von Virendra Tiwari vom NGRI und Niels Hovius initiiert. Es nutzte die zufällige räumliche Nähe des Hochwassers zu einem regionalen seismischen Netzwerk, das bereits vom NGRI aufgebaut worden war. Hovius: „Die Frühwarnung wird immer dringlicher, da Gebirgsflüsse zunehmend für die Erzeugung von Wasserkraft genutzt werden, die als Motor für die wirtschaftliche Entwicklung der ärmsten Bergregionen der Welt gilt.“ Im Zuge der Klimaerwärmung schwinden Gletscher rapide und es sammelt sich viel Schmelzwasser in hochgelegenen Gletscherstauseen. Hovius mahnt: „Katastrophale Überschwemmungen werden deshalb wahrscheinlich häufiger werden und so werden die Risiken in Zukunft noch weiter steigen.“

Kontakt für Medien:

Kontakt für Medien:
Josef Zens
0331-288-1040
josef.zens@gfz-potsdam.de

Wissenschaftliche Ansprechpartner:
Dr. Kristen Cook
0331-288-28829
kristen.cook@gfz-potsdam.de

Prof. Dr. Niels Hovius
0331-288-1015
niels.hovius@gfz-potsdam.de

Originalpublikation:
K. Cook et al.: „Detection, Tracking, and Potential for Early Warning of Catastrophic Flow Events Using Regional Seismic Networks“, Science; DOI: 10.1126/science.abj1227

Weitere Informationen:
https://media.gfz-potsdam.de/gfz/wv/pm/21/11522_Spectogramm-mp4_Kristen-Cook-GFZ… („Übersetzung“ der seismischen Aufzeichnungen in akustische Wellen; der Bergsturz und die Flut werden hörbar)

(nach oben)


Durch die intelligente Kopplung von Strom- und Wärmeproduktion sowohl Ressourcen als auch CO2 einsparen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Ende 2019 fiel der Startschuss für das Projekt »Quartiersentwicklung auf Basis von Nahwärmeinseln mit flexiblen KWK-Systemen und Teilsanierung« – kurz: QUENTIN. Seitdem hat sich in Oberhausen-Tackenberg einiges getan. Die vier Nahwärmeinseln, die in Zukunft über 800 Wohneinheiten, zwei Schulen und eine Sporthalle mit klimaschonender Wärmeenergie versorgen, nehmen nach und nach Gestalt an. Zeit für einen Ortstermin in der Flöz-Matthias-Straße. Dort sind die Arbeiten besonders weit fortgeschritten: Die Fertigstellung des Nahwärmenetzes ist vor Beginn der diesjährigen Heizperiode geplant.

Die Projektpartner luden Medienvertreterinnen und -vertreter Ende September zu einem Richtfest. Dabei ordneten sie die bisherigen Arbeiten ein und wagten auch die ein oder andere Zukunftsprognose. Wolfgang Hoffmann, Vorstand der GE-WO Osterfelder Wohnungsgenossenschaft, stellte beispielsweise heraus, wie sehr ihn sowohl die neuartige technische Konzeption als auch die Verbindung von Forschung und Entwicklung mit der praktischen Anwendung vor Ort beeindruckt haben. Auf diese Weise seien kurz- und mittelfristige Erfolge möglich gewesen. Mit Blick auf die Bedeutung von QUENTIN sagte er: »Das Thema CO2-Reduzierung rollt derzeit mit voller Wucht auf die Wohnungswirtschaft zu. Die Bepreisung von CO2 ist erst der Anfang einer Entwicklung hin zu mehr Klimaneutralität. Wenn erst einmal die Gebäudebestände, die für ein Drittel der CO2-Emissionen verantwortlich sein sollen, in den Emissionshandel einbezogen werden, wie die EU das plant, muss das einen langfristigen Strategiewandel unserer Branche zufolge haben.«

Auch Olaf Rabsilber, Vorstand der Sterkrader Wohnungsgenossenschaft, betrachtete QUENTIN vor dem Hintergrund von Klimaschutz und CO2-Einsparung. Er verschwieg aber auch nicht die Herausforderungen, die mit dem Projekt verbunden sind: »Indem wir an den Bestand gehen, tun wir etwas für unsere Mieterinnen und Mieter. Das heißt aber auch: Wir müssen etwas leisten. QUENTIN ist ein Mammutprojekt, das wir erfolgreich mit allen Partnern stemmen. Dafür an dieser Stelle ein herzlicher Dank an alle, die eingebunden sind.«

Christian Basler, technischer Vorstand der Energieversorgung Oberhausen AG (evo), stellte vor allem die Bedeutung von QUENTIN für die Umwelt heraus. »Bei der evo legen wir großen Wert auf Klimaschutz und wollen mit gutem Beispiel vorangehen. Sowohl in unseren Kraftwerken als auch bei unseren Nahwärmeprojekten wie hier im QUENTIN-Projekt, setzen wir auf innovative und ressourcenschonende Verfahren. In Zukunft werden hier im Quartier durch die intelligente Kopplung von Wärme- und Stromerzeugung Energie gespart und zudem klimaschädliche CO2-Emissionen verringert. Zusätzlich, um die Energiewende noch weiter voran zu treiben, werden an einigen Heizzentralen noch Lademöglichkeiten für Elektroautos gebaut. Zukunftsweisende Projekte wie dieses zur sicheren Versorgung unserer Kundinnen und Kunden sind uns bei der evo eine Herzensangelegenheit.«

Annedore Mittreiter, Leiterin der Abteilung »Energiesysteme« am Fraunhofer UMSICHT, blickte durch die Forschungsbrille auf das Projekt. »Für uns ist QUENTIN etwas ganz Besonderes. Und das aus mehreren Gründen«, betonte sie. »Da ist zum einen das Konzept. Es verbindet eine effiziente KWK-Anlage sowohl mit einem zentralen Wärmespeicher in der Energiezentrale als auch mit dezentralen Wärmespeichern in den Netzanschlusspunkten. Das gibt uns die Möglichkeit, zu untersuchen, welche energetischen Einsparpotenziale durch die Bereitstellung von zusätzlicher Flexibilität realisiert werden können und welchen Einfluss das Speichermanagement darauf hat. In diesem Zuge sind wir besonders gespannt auf den demnächst startenden Demonstrationsbetrieb.«

Ein weiterer Grund: Das vom Fraunhofer UMSICHT entwickelte Energieversorgungskonzept wird bei QUENTIN durch Gebäudesanierungen der Wohnungsgenossenschaften ergänzt. Auf diese Weise können die Forschenden nachvollziehen, wie sich die durch die Sanierungsmaßnahmen verursachten Energieeinsparungen auf den Betrieb des Energiesystems auswirken und so zu integralen Konzepten kommen. »Wir haben den Anspruch, dass QUENTIN Vorbild-Charakter entwickelt. Die hier gewonnenen Erkenntnisse sollen nach dem Projekt auf vergleichbare Quartiere übertragen werden können, um auch an anderen Standorten die lokale Energiewende voranzutreiben«, so Mittreiter.

Hubert Beyer vom Energiemanagement der SBO Servicebetriebe Oberhausen sieht auch enorme Vorteile durch den Anschluss der beiden Schulen und vier weiterer städtischer Gebäude an das Nahwärmenetz. Im Vergleich zu den Gasheizungen im Bestand erzeugten die Anlagen zur Kraft-Wärme-Kopplung einen signifikant geringeren CO2-Ausstoß. Gleichzeitig werde durch die flexible und daher »netzdienliche« Fahrweise der KWK-Anlage die unstetige Einspeisung von regenerativem Strom ins Netz grundsätzlich erleichtert.

Sowohl der Bereich Schule der Stadt Oberhausen als auch die Schulen selbst begrüßen diese Modernisierung der Wärmeerzeugung und stellen ihre Technikräume für die Technikzentralen der Nahwärmenetze zur Verfügung. Die Schülerinnen und Schüler erhalten eine verlässliche Wärmeversorgung und könnten z.B. durch einen »Physikunterricht im Technikraum« als Multiplikatoren für die Akzeptanz und Popularität dieser innovativen Technologie wirken.

Im Anschluss an die Statements gab es Gelegenheit, Fragen zu stellen und auch die Technikzentrale des Nahwärmenetzes in der Flöz-Matthias-Straße zu besichtigen.

Förderhinweis
Das Projekt »Quartiersentwicklung auf Basis von Nahwärmeinseln mit flexiblen KWK-Systemen und Teilsanierung« – kurz: QUENTIN – wird vom Bundesministerium für Wirtschaft und Energie (BMWi) im Forschungsschwerpunkt EnEff:Stadt gefördert.

Originalpublikation:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2021/energ…

(nach oben)


Covid-19-Impfung: Sterblichkeit nach seltener Nebenwirkung sinkt

Marcel Wyler Wissenschaftskommunikation
Universitätsspital Bern
Eine gross angelegte internationale Studie mit Co-Projektleitung des Inselspitals und der Universität Bern untersuchte die sehr seltene Verstopfung von Hirnvenen (Sinusvenenthrombosen) nach Gabe der Impfstoffe von Oxford-AstraZeneca und Janssen/Johnson&Johnson. Beide Impfstoffe werden in der Schweiz bisher nicht eingesetzt. Die Sterblichkeit aufgrund dieser Komplikation sank von 61% auf 42% nachdem der Mechanismus zu ihrer Entstehung im Frühjahr 2021 geklärt werden konnte.

In sehr seltenen Fällen entsteht nach der Impfung mit SARS-CoV-2-Impfstoffen von Oxford-AstraZeneca und Janssen/Johnson&Johnson ein Mangel an Blutplättchen (Thrombozyten) und zugleich steigt die Tendenz zur Bildung von Thrombosen (Verklumpungen im Blut). Am häufigsten sind hierbei Hirnvenenthrombosen (Sinusvenenthrombosen). Als dieses Phänomen neu entdeckt wurde, fiel zunächst die hohe Sterblichkeit auf. Die vom University Medical Center (UMC) Amsterdam und vom Stroke Center am Inselspital, Universitätsspital Bern geleitete weltweite Studie ging der Frage nach, welche Eigenschaften und welche Sterblichkeit verschiedene Untergruppen von Patientinnen und Patienten aufwiesen, die nach der Impfung mit den genannten beiden Impfstoffen eine Sinusvenenthrombose erlitten. Die Studienresultate sind für die Schweiz von Interesse, da hier Impfungen mit dem Produkt von Janssen/Johnson&Johnson bald zur Verfügung stehen werden.

Blutplättchenmangel (Thrombozytopenie) mit tödlichem Verlauf
Von den insgesamt 116 Patientinnen und Patienten der Studie wiesen 78 (76 davon nach AstraZeneca Impfstoff) Hirnvenenthrombosen mit Blutplättchenmangel auf. Diese Patienten waren bei Zuweisung ins Spital besonders oft im Koma (24%), wiesen Hirnblutungen (68%) und begleitende Thrombosen auf. Fast die Hälfte dieser Patientinnen und Patienten starben im Spital.
Die Studie zeigt, dass diejenigen Patientinnen und Patienten, die nach der Impfung einen Abfall der Konzentration von Blutplättchen aufwiesen, häufig einen schweren Verlauf der Komplikation hatten. Damit unterschieden sich Patienten mit einer Thrombozytopenie (Blutplättchenarmut) deutlich von den übrigen Patientinnen und Patienten mit einer Hirnvenenthrombose nach der Impfung.

Sterblichkeit durch angepasste Therapien reduziert
Schon früh waren Hinweise aufgetaucht, dass die Kombination von Blutplättchenarmut und Thrombosen nach Impfung mit den beiden genannten Impfstoffen eine besondere und sehr seltene Gruppe von Patientinnen und Patienten bildet. Antikörper gegen den Blutplättchenfaktor PF4 wurden bereits früh als wichtiger Faktor bei der Verklumpung von Thrombozyten mit der Folge einer Thrombozytopenie erkannt. Seither kamen gezielte Therapien zum Einsatz wie Immunglobuline und Plasmaaustausch (therapeutische Plasmapherese). Die aktuelle Studie stellte fest, dass seit dieser Erkenntnis und aufgrund entsprechend angepasster Therapien, die Sterblichkeit nach Hirnvenenthrombose bei Blutplättchenarmut von 61% auf 42% gefallen ist. Neuere noch unveröffentlichte Daten und eine bereits publizierte britische Studie weisen in die gleiche Richtung und zeigen eine nochmals deutlich reduzierte Sterblichkeit.

Zur Methodik der Studie
Die Forschung bei sehr seltenen Nebenwirkungen ist anspruchsvoll. Die Fälle verteilen sich auf zahlreiche Zentren, und die Vergleichbarkeit der dezentral erstellten Protokolle muss mit standardisierten Formularen zuerst sichergestellt werden. Aufgrund der Seltenheit der Komplikationen haben die meisten Zentren nur einen oder gar keine Patienten. Für die vorliegende Studie wurden Daten aus 81 Spitälern in 19 Ländern in einem prospektiven webbasierten Register zusammengetragen. Aus der Schweiz wurden Patienten der Kontrollgruppe beigetragen. Die Studie wurde von der World Stroke Organisation, der European Academy of Neurology und der European Stroke Organisation unterstützt. Insgesamt konnten weltweit 116 Fälle von Sinusvenenthrombosen nach einer SARS-CoV-2-Impfung analysiert werden. 78 Personen erkrankten an einer Thrombose mit Blutplättchenarmut. Davon hatten 76 den Impfstoff von Oxford/AstraZeneca erhalten. Aus der Schweiz wurde kein einziger Fall gemeldet. Als Vergleichsgruppe dienten 207 Personen, die vor der Pandemie eine Sinusvenenthrombose ohne Impfung erlitten hatten. Ausgeschlossen waren ebenso Personen, die eine Blutverdünnung (Heparin) brauchten, da Sinusvenenthrombosen mit Blutplättchenarmut auch im Zusammenhang mit einer Anwendung von Heparin auftreten können.

Gefährdete Gruppe früher erkennen und mit mehr Erfolg therapieren
Die vorliegende, grösste internationale Studie zu dieser Erkrankung hat ein umfangreiches Profil derjenigen Patientinnen und Patienten erhoben, die nach einer Impfung mit einem der beiden genannten Impfstoffe eine Sinusvenenthrombose erlitten. Dabei wurde der Gruppe, die Sinusvenenthrombosen mit Blutplättchenarmut aufwies, besondere Aufmerksamkeit geschenkt. Der Co-Studienleiter Prof. Dr. med. Marcel Arnold, Chefarzt Universitätsklinik für Neurologie und Leiter Stroke Center erklärt: «Die Risikofaktoren für einen Hirnschlag wurden systematisch erhoben, ebenso der klinische Befund ab Eintritt in die Klinik. Dank dem so gewonnenen, detaillierten Profil könnte es künftig möglich sein, diese besonders gefährdete Gruppe noch früher zu erkennen und so die Sterblichkeit durch eine gezielte Therapie weiter zu senken». Das Register wird weitergeführt und die Autoren erhoffen sich weitere Erkenntnisse auch über die Langzeitprognose der Erkrankung und die besten Therapieoptionen für die Patienten.

Wissenschaftliche Ansprechpartner:
– Prof. Dr. med. Marcel Arnold, Chefarzt Universitätsklinik für Neurologie, Leiter Stroke Center, Inselspital, Universitätsspital Bern und Universität Bern
– PD Dr. med. Mirjam Heldner, Stv. Leiterin Ambulantes Neurovaskuläres Zentrum, Inselspital, Universitätsspital Bern
– Prof. Dr. med. Johanna Anna Kremer Hovinga, Leitende Ärztin, Universitätsklinik für Hämatologie und Hämatologisches Zentrallabor, Inselspital, Universitätsspital Bern und Universität Bern

Originalpublikation:
M. Sanchez van Kammen, D. Aguiar de Souza, S. Poli et al. : Characteristics and Outcomes of Patients with Cerebral Venous Sinus Thrombosis in SARS-CoV-2 Vaccine-induced Thrombotic Thrombocytopenia ; Jama Neurology
DOI : 10.1001/jamaneurol.2021.3619

(nach oben)


Wie Geologie die Artenvielfalt formt

Lina Ehlert Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Dank eines neuen Computermodells können Forschende der ETH Zürich nun besser erklären, weshalb die Regenwälder Afrikas weniger Arten beherbergen als die Tropenwälder Südamerikas und Südostasien. Der Schlüssel zu einer hohen Artenvielfalt ist, wie dynamisch sich die Kontinente über die Zeit entwickelt haben.

Tropische Regenwälder sind die artenreichsten Lebensräume der Erde. Sie beherbergen eine riesige Zahl von verschiedenen Pflanzen, Tieren, Pilzen und weiterer Organismen. Diese Wälder liegen mehrheitlich auf drei Kontinenten, darunter das Amazonasbecken in Südamerika, das Kongo-Becken in Zentralafrika und das riesige Inselarchipel Südostasiens.

Nun könnte man annehmen, dass alle tropischen Regenwälder aufgrund des stabil warmfeuchten Klimas und ihrer geografischen Lage rund um den Äquator in etwa gleich artenreich sind – das trifft jedoch nicht zu. Verglichen mit Südamerika und Südostasien ist die Artenzahl in feuchten Tropenwäldern Afrikas bei vielen Organismengruppen deutlich kleiner.

Palmenvielfalt in Afrika viel kleiner
Diese ungleiche Verteilung – Forschende sprechen von der «pantropischen Diversitätsdisparität» (PDD) – lässt sich anhand von Palmen gut illustrieren: Von den weltweit 2500 Arten kommen 1200 in Südostasien und 800 in den Tropenwäldern Südamerikas vor, aber nur 66 in afrikanischen Regenwäldern.

Weshalb dem so ist, ist unter Biodiversitätsforschenden umstritten. Einige Indizien sprechen dafür, dass das gegenwärtige Klima für die geringere Artenvielfalt in Afrikas Tropenwäldern die Ursache ist. So ist das Klima in Afrikas Tropengürtel trockener und kühler als das in Südostasien und Südamerika.

Andere Hinweise sprechen eher dafür, dass sich die unterschiedliche Entwicklung der Umwelt und der Plattentektonik der drei Tropenwaldzonen über Dutzende Millionen von Jahren auf die Entstehung unterschiedlich grosser Biodiversität auswirkte. Zu solchen Veränderungen gehören beispielsweise die Bildung von Gebirgen, Inseln oder Trocken- und Wüstengebieten.

Die beiden Faktoren – gegenwärtiges Klima und Umweltgeschichte – lassen sich jedoch nur schwer auseinanderhalten.

Gebirgsbildung förderte Artenvielfalt
Forschende der ETH Zürich unter der Federführung von Loïc Pellissier, Professor für Landschaftsökologie, sind nun dieser Frage mithilfe eines neuen Computermodelles nachgegangen. Dieses Modell erlaubt es ihnen, die Evolution und Diversifizierung der Arten über viele Millionen von Jahren hinweg zu simulieren. Die Forschenden kommen zum Schluss, dass das gegenwärtige Klima nicht der Hauptgrund sei, weshalb die Artenvielfalt in den Regenwäldern Afrikas geringer ist. Die Artenvielfalt, so schliessen sie aus den Simulationen, wurde durch die Dynamik der Gebirgsbildung und Klimaveränderungen hervorgebracht. Die Ergebnisse der Simulationen decken sich weitgehend mit den heute beobachtbaren Mustern der Biodiversitätsverteilung.

«Unser Modell bestätigt, dass Unterschiede in der Dynamik der frühzeitlichen Umwelt die ungleiche Verteilung der Artenvielfalt hervorbrachten und nicht aktuelle klimatische Faktoren», sagt Pellissier. «Geologische Prozesse sowie globale Temperaturflüsse bestimmen, wo und wann Arten entstehen oder aussterben.»

Entscheidend für eine hohe Artenvielfalt auf einem Kontinent ist insbesondere die Dynamik geologischer Prozesse. Aktive Plattentektonik fördert die Gebirgsbildung, wie die Anden in Südamerika, oder die Entstehung von Insel-Archipelen wie in Südostasien. Beide Prozesse führen dazu, dass sich viele neue ökologische Nischen bilden, in denen wiederum zahlreiche neue Arten entstehen. Der Regenwaldgürtel Afrikas hingegen war in den vergangenen 110 Millionen Jahre tektonisch weniger aktiv. Auch war dieser Tropenwald verhältnismässig klein, da er von Trockengebieten im Norden und Süden begrenzt war und sich nicht weiter ausdehnen konnte. «Arten aus Regenwäldern können sich kaum an die Verhältnisse der umgebenden Trockengebiete anpassen», betont Pellissier.

Neues Modell
Das von ETH-Forschenden entwickelte Modell «gen3sis» wurde erst kürzlich im Fachjournal PLoS Biology vorgestellt. Es ist ein mechanistisches Modell, in welchem die primären Rahmenbedingungen wie die Geologie und das Klima sowie die biologischen Mechanismen eingebaut sind und aus welchen die Biodiversitätsmuster hervorgehen. Um die Entstehung der Biodiversität zu simulieren, müssen folgende wichtige Prozesse im Modell integriert werden: Ökologie (jede Art hat ihre begrenzte ökologische Nische), Evolution, Artbildung (engl: speciation) und Ausbreitung (engl: dispersal).

«Mit diesen vier grundlegenden Regeln können wir die Bestandsdynamik von Organismen vor dem Hintergrund von sich verschiebenden Umweltbedingungen simulieren. Dadurch können wir auch sehr gut erklären, wie die Organismen entstanden», sagt Pellissier.

Indem die Forschenden ihr Modell auf diesen grundlegenden evolutionären Mechanismen aufbauen, können sie die Artenvielfalt simulieren, ohne dass sie es mit (Verbreitungs-)Daten für jede einzelne Art füttern müssen. Das Modell braucht jedoch Daten über die Dynamik der betrachteten Kontinente in der Erdgeschichte sowie über die Feuchtigkeit und Temperaturen aus Klimarekonstruktionen.

Pellissier und seine Mitarbeitenden sind nun dabei, das Modell zu verfeinern. Mit weiteren Simulationen wollen sie verstehen, wie Biodiversität in anderen artenreichen Regionen entstanden ist, etwa in den Gebirgen Westchinas. Der Modellcode und die Rekonstruktionen der frühzeitlichen Umwelt sind quelloffen. Alle interessierten Evolutions- und Biodiversitätsforschenden können ihn nutzen, um die Bildung von Artenvielfalt in verschiedensten Regionen der Welt zu untersuchen.

Wissenschaftliche Ansprechpartner:
Loïc Pellissier, Professor für Landschaftsökologie, +41 44 632 32 03,loic.pellissier@usys.ethz.ch

Originalpublikation:
https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3001340

(nach oben)


Genetische Abstammung und Erbe der Etrusker entschlüsselt

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen
Forschungsteam präsentiert umfassende DNA-Analysen zum genetischen Ursprung der Menschen in der eisenzeitlichen Hochkultur Mittelitaliens und ihren Einfluss auf die spätere Bevölkerung

Die Etrusker, deren Hochphase in der Eisenzeit in Mittelitalien rund 800 Jahre v. Chr. begann, waren eng mit ihren Nachbarn verwandt, den Latinern in der Region Roms. Große Anteile des gemeinsamen genetischen Erbes deuten auf Vorfahren aus der osteuropäischen Steppe hin, die während der Bronzezeit nach Italien und Europa kamen, und die mit der Verbreitung der indogermanischen Sprachen in Europa in Verbindung gebracht werden. Das ergab eine genetische Studie an Überresten von 82 Individuen aus zwölf etruskischen Fundstätten in Mittel- und Süditalien, die im Zeitraum von 800 v. Chr. bis 1000 n. Chr. lebten. Die Ergebnisse stehen in starkem Kontrast zu einer früheren Vermutung, nach der die Etrusker Zuwanderer aus Anatolien oder der Ägäis gewesen sein könnten. Die Forscher liefern eine mögliche Erklärung dafür, warum die Etrusker eine eigene, inzwischen ausgestorbene Sprache beibehielten, die nicht mit den bis heute in Europa vorherrschenden indo-germanischen Sprachen verwandt ist.

Die Studie wurde von einem internationalen Forschungsteam durchgeführt, unter der Leitung von Professor Cosimo Posth vom Senckenberg Centre for Human Evolution and Palaeoenvironment an der Universität Tübingen, Professor Johannes Krause von den Max-Planck-Instituten für Menschheitsgeschichte und evolutionäre Anthropologie sowie Professor David Caramelli von der Universität Florenz. Veröffentlicht wurde sie in der Fachzeitschrift Science Advances.

Phasen von Beständigkeit und Wandel
Die Etrusker bewohnten während der Eisenzeit große Gebiete Mittelitaliens, die heutigen Regionen Toskana, Latium und Umbrien mit lokalen Ausläufern in benachbarte Regionen. Ihre Kultur ist bekannt für die besonderen Fähigkeiten bei der Metallbearbeitung, ihre hochentwickelte Kunst und ihre Sprache, die noch nicht in allen Teilen entschlüsselt ist und nicht zur Sprachfamilie der Indoeuropäischen Sprachen gehört. „Die Etrusker traten so verschieden von ihren Nachbarn auf, dass in der Wissenschaft schon lange darüber diskutiert wird, ob diese Bevölkerung lokal entstand oder zugewandert war. Unsere Ergebnisse zeigen einen lokalen Ursprung“, berichtet Cosimo Posth.

Ziehe man in Betracht, dass die in der Bronzezeit nach Italien zugewanderten Menschen aus der Steppe für die Ausbreitung der indogermanischen Sprachen verantwortlich waren, sei rätselhaft, wie sich bei den Etruskern mehr als 1500 Jahre später eine ganz andere ältere Sprache erhalten konnte. „Diese sprachliche Beständigkeit über den genetischen Wandel hinweg stellt bisherige einfache An-nahmen in Frage, dass Gene und Sprachen zusammengehören. Wahrscheinlich war das Geschehen komplexer. Möglicherweise integrierten die Etrusker im zweiten Jahrtausend v. Chr. frühe italisch sprechende Menschen in ihre eigene Sprachgemeinschaft“, sagt David Caramelli.

Die für die Studie ausgewählten 82 Individuen überspannen den Zeitraum von 800 v. Chr. bis 1000 n. Chr. „Wir sind schrittweise vorgegangen: Zunächst haben wir ein genetisches Porträt der Etrusker erstellt und dann über die Zeit verfolgt, welche Einflüsse sich durch eventuelle Zuwanderer oder Durchmischung mit anderen Populationen im Laufe von 2000 Jahren abzeichnen“, sagt Johannes Krause. Obwohl einige Individuen aus dem Nahen Osten, Nordafrika und Mitteleuropa nach Mittelitalien zugewandert sein müssen, sei der Genpool der Etrusker für mindestens 800 Jahre in der Eisen-zeit und der Periode der Römischen Republik stabil geblieben. „Ein großer genetischer Umbruch kam für die Menschen in Mittelitalien mit der Römischen Kaiserzeit. Damals mischten sie sich mit Populationen aus dem östlichen Mittelmeerraum, worunter wahrscheinlich auch Sklaven und Soldaten waren, die innerhalb des Römischen Reichs verschleppt oder umgesiedelt wurden“, sagt Krause. „Diese genetische Verschiebung bringt die Rolle des Römischen Reichs bei der Vertreibung und Umsiedlung von Menschen im großen Maßstab zutage.“

Genetische Verschiebung im frühen Mittelalter
Als das Team die genetische Verwandtschaft der Mittelitaliener analysierte, die gegen Ende des Untersuchungszeitraums im frühen Mittelalter gelebt hatten, stellten sie fest, dass sich Nordeuropäer nach dem Zusammenbruch des Weströmischen Reichs über die ganze italienische Halbinsel ausbreiteten. So durchmischten sich die Mittelitaliener mit germanischen Migranten, die zum Beispiel zur Zeit des Königreichs der Langobarden in die Region einwanderten. „Nach dieser frühmittelalterlichen Vermischung blieb die Population in den heutigen Regionen Toskana, Latium und Basilikata bis heute weitgehend stabil. Die genetische Zusammensetzung heute lebender Menschen in Mittel- und Süditalien hat sich in den letzten 1000 Jahren kaum verändert“, sagt Cosimo Posth.

Um die Studienergebnisse im Detail zu erhärten, sollen weitere Genomanalysen von Individuen aus den letzten zweitausend Jahren aus ganz Italien durchgeführt werden. „Vor allem die Römische Kaiserzeit, in den ersten 500 Jahren unserer Zeitrechnung, scheint einen langfristigen Einfluss auf das genetische Profil der Südeuropäer gehabt zu haben. Dadurch wurde die vorherige genetische Lücke zwischen Europäern und Menschen im östlichen Mittelmeerraum geschlossen“, sagt Posth.

Hochaufgelöstes Bildmaterial erhalten Sie unter
https://shh-cloud.gnz.mpg.de/index.php/s/nErr77fyXmieiPe
Bitte beachten Sie die Quellenangaben.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Cosimo Posth
Universität Tübingen
Institut für Naturwissenschaftliche Archäologie
Senckenberg Centre for Human Evolution and Palaeoenvironment
cosimo.posth@uni-tuebingen.de

Prof. Dr. Johannes Krause
Max-Planck-Institute für evolutionäre Anthropologie und für Menschheitsgeschichte
krause@eva.mpg.de

Originalpublikation:
Cosimo Posth, Valentina Zaro, Maria A. Spyrou, David Caramelli, Johannes Krause et. al.: The origin and legacy of the Etruscans through a 2000-year archeogenomic time transect. Science Advances, https://doi.org/10.1126/sciadv.abi7673

(nach oben)


An COVID-19 erkrankte Menschen haben ein fast dreifach erhöhtes Dialyse-Risiko

Dr. Bettina Albers Pressearbeit
Deutsche Gesellschaft für Nephrologie e.V. (DGfN)
Alarmierende Zahlen: Patientinnen und Patienten, die COVID-19 überstanden haben, sind laut einer neuen Studie [1] mit über 1,5 Millionen US-Veteranen stark gefährdet, eine chronische Nierenerkrankung (CKD) zu erleiden. Gegenüber nicht erkrankten Menschen ist ihr Lebenszeitrisiko, Dialysepatientin/Dialysepatient zu werden, sogar fast dreimal so hoch. Bei allen ehemals Erkrankten wurde im Verlauf ein sigifikant erhöhter, jährlicher Verlust der glomerulären Filtrationsrate (eGFR) beobachtet, Wichtig für die Nachsorge: Die typischen „Long-COVID-Symptome“ wie Fatigue oder Kopfschmerzen können auch auf eine Nierenschädigung hindeuten.

Langzeitfolgen einer symptomatischen SARS-CoV-2-Infektion können die Lunge und verschiedene andere Organe betreffen. Darunter sind auch die Nieren, jedoch waren bisher detaillierte Analysen zum renalen Post-COVID-Outcome nicht verfügbar. Nun wurde eine Studie veröffentlicht [1], die eine Kohorte von 1.726.683 US-Veteranen untersuchte. Darunter waren fast 100.000 (n=89.216) ehemalige COVID-19-Patientinnen und -Patienten („30-Tage-Überlebende“ nach postivem Testergebnis im Zeitraum von März 2020 bis März 2021, Erkrankte, die binnen der ersten 30 Tage der Erkrankung verstarben, waren in dieser Erhebung nicht eingeschlossen worden) und 1.637.467 nicht-infizierte Kontrollen. Die mediane Nachbeobachtungszeit der Betroffenen (90,1% waren männlich) betrug 164 (127-268) Tage, bei den Kontroll-Veteranen (91,4% waren männlich) 172 (133-282) Tage. Analysiert wurden das Risiko einer AKI (akute Nierenschädigung), eine Abnahme der glomerulären Filtrationsrate (eGFR), Notwendigkeit einer chronischen Dialysebehandlung und schwere renale Ereignisse (MAKE „major adverse kidney events“). MAKE waren definiert als eGFR-Verlust von mindestens 50%, chronische Dialysepflicht oder Todesfälle. Die Daten wurden für präspezifizierte demografische und gesundheitsbezogene Merkmale wie Begleiterkrankungen, Medikamente und paraklinische Befunde statistisch adjustiert.

Die Ergebnisse zeigten, dass die COVID-Überlebenden gegenüber nicht-infizierten Veteranen auch nach der akuten Erkrankungsphase ein erhöhtes MAKE-Risiko (adj. HR 1,66) hatten. Das Risiko für eine akute Nierenschädigung (AKI) war fast doppelt so hoch (adj. HR 1,94), das Risiko für einen chronischen eGFR-Verlust von mindestens 50% war ebenfalls erhöht (adj. HR 1,62) und eine Dialysepflicht trat fast dreimal so häufig auf (adj. HR 2,96). COVID-Überlebende hatten einen deutlich über das zu erwartende Maß hinausgehenden Nierenfunktionsverlust gegenüber den Kontroll-Veteranen, bei denen der jährliche eGFR-Rückgang bei ungefähr 0,5 ml/min/1,73 m2 lag. Der eGFR-„Exzess-Verlust“ (= der eGFR-Verlust zusätzlich zu den 0,5 ml/min/1,73 m2, den auch die Kontrollpatientinnen/-patienten erlitten) betrug bei ambulant behandelten COVID-19-Patientinnen und -Patienten 3,26 ml/min/1,73 m2, nach Hospitalisierung 5,2 ml/min/1,73 m2 und bei ehemals intensivpflichtigen Patientinnen und Patienten sogar 7,69 ml/min/1,73 m2. Wer in der akuten COVID-19-Erkrankungsphase ein akutes Nierenversagen (AKI) erlitten hatte,wies sogar einen Exzess-Verlust von 8,41 ml/min/1,73 m2 auf.

Der Anstieg des Risikos von Post-COVID-Nierenschäden war somit zwar abhängig vom Schweregrad der akuten COVID-19-Erkrankung, doch festzuhalten ist, dass bereits bei den Erkrankten, die nur ambulant behandelt werden mussten, das renale Risiko deutlich erhöht war. Bei ihnen war der jährliche Rückgang der eGFR im vergleich zu den Kontrollpatientinnen/-patienten fast um das Siebenfache erhöht (3,26 ml/min/1,73 m2 gegenüber 0,5 ml/min/1,73 m2).

„Diese Daten sind alarmierend – nach jeder überstandenen COVID-19-Erkrankung, insbesondere aber nach schwereren Verläufen, muss bei der Nachbetreuung die Nierenfunktion im Auge behalten werden.
Bei bereits eingeschränkter Nierenfunktion oder auffälligen Urinbefunden sollte unbedingt eine nephrologische Mitbetreuung und nephroprotektive Therapie durchgeführt werden“, kommentiert Frau Prof. Dr. Julia Weinmann-Menke, Pressesprecherin der DGfN, auf der Pressekonferenz der 13. DGfN-Jahrestagung in Rostock.

Wie die Expertin hervorhebt, können die „typischen“ Symptome eines sogenannten Long-COVID-Syndroms – wie Müdigkeit, verminderte Belastbarkeit, Konzentrationsschwäche oder Kopfschmerzen – auch Symptome einer chronischen Nierenerkrankung sein. „Bei entsprechenden Long-COVID-Symptomen muss also auch an eine chronische Nierenerkrankung gedacht werden. Die Abklärung der Nierenwerte ist also von besonderer Bedeutung in der Nachsorge von COVID-19-Patientinnen und -Patienten.“

[1] W Bowe B, Xie Y, Xu E et al. Kidney Outcomes in Long COVID. J Am Soc Nephrol 2021 Sep 1; ASN.2021060734. doi: 10.1681/ASN.2021060734. Online ahead of print.

[2] Yende S, Parikh CR. Long COVID and kidney disease. Nature Reviews Nephrology. Published: 09 September 2021. https://www.nature.com/articles/s41581-021-00487-3

Pressekontakt
Pressestelle der DGfN
Dr. Bettina Albers
presse@dgfn.eu
Tel. 03643/ 776423 / Mobil 0174/ 2165629

(nach oben)


Entwicklung von Ammoniak-Technologien für den Transport von Grünem Wasserstoff – Start von TransHyDE

Dr. Hans Sawade Stab – Wissenschaftsmanagement
Leibniz-Institut für Plasmaforschung und Technologie e.V.
TransHyDE geht an den Start, eines von drei Wasserstoff-Leitprojekten des Bundesministeriums für Bildung und Forschung (BMBF) aus dem Zukunftspaket zur Umsetzung der 2020 beschlossenen „Nationalen Wasserstoffstrategie“ in Deutschland. Mit seiner bislang größten Forschungsinitiative zum Thema „Energiewende“ unterstützt das BMBF Deutschlands den Einstieg in die Wasserstoffwirtschaft. Über vier Jahre sollen die Leitprojekte vorhandene Hürden, die den Einstieg Deutschlands in eine Wasserstoffwirtschaft erschweren, aus dem Weg räumen. TransHyDE erforscht und entwickelt Technologien für den Transport von Wasserstoff.

Um Deutschland auf dem Weg zur Klimaneutralität voranzubringen, braucht es mehrere Hundertmillionen Tonnen Wasserstoff jährlich. Einen Teil davon wird Deutschland selbst produzieren – der deutlich größere Teil muss aus wind- und sonnenreichen Regionen importiert werden. In beiden Fällen braucht es funktionierende und effiziente Transport-Infrastrukturen, denn nur selten wird Wasserstoff auch dort genutzt, wo er hergestellt wird. Deshalb werden Transport-Infrastrukturen für kurze, mittlere und lange Strecken dringend benötigt.

Das Leitprojekt TransHyDE mit über 80 Partnern aus Industrie, Verbänden, Universitäten und Forschungseinrichtungen wird daher Transport-Technologien umfassend weiterentwickeln – und zwar technologieoffen entlang verschiedener möglicher Entwicklungspfade. TransHyDE treibt in vier Umsetzungs- und fünf begleitenden Forschungsprojekten die Transporttechnologien weiter voran: den Wasserstofftransport in Hochdruckbehältern, den Wasserstoff-Flüssig-Transport, den Wasserstoff-Transport in bestehenden und neuen Gasleitungen sowie den Transport von in Ammoniak gebundenem Wasserstoff. Die TransHyDE-Forschungsprojekte befassen sich mit der Erstellung einer Roadmap zur Wasserstoff-Infrastruktur. Dafür braucht es neue Standards, Normen und Sicherheitsvorschriften von Wasserstoff-Transporttechnologien sowie notwendige Materialien, Werkstoffen und Sensoren. Die Forschung zur effizienten Herauslösung von Wasserstoff aus Ammoniak und das Betanken von Behältern mit flüssigem, tiefkaltem Wasserstoff gehört mit zu den Forschungsprojekten.

Als größtes Umsetzungsprojekt in TransHyDE bündelt das regionale Partner-Bündnis CAMPFIRE unter der Koordination des Leibniz-Institutes für Plasmaforschung und Technologie e.V. (INP) in Greifswald, des Zentrums für Brennstoffzellentechnik in Duisburg und der Inherent Solution Consult GmbH & Co KG in Rostock die Forschungs- und Entwicklungsaktivitäten für Technologien zur Umsetzung der gesamten Transportkette für grünes Ammoniak. Am Standort Poppendorf auf dem Industriegelände der YARA Rostock werden dafür industrierelevante Prüf- und Testfelder im COIL – CAMPFIRE Open Innovation Lab für die neuen Technologien aufgebaut. Im Fokus stehen dabei die Entwicklung von Logistikstrukturen und Betankungsanlagen für den Ammoniak-Import und Betrieb von Schiffen mit grünem Ammoniak, lastflexible Ammoniak-Anlagen für die saisonale Erzeugung von Ammoniak aus erneuerbarer Energie und dynamische Wandlungstechnologien für stationäre und mobile Energieversorgung sowie Ammoniak-zu-Wasserstoff-Tankstellen. Von den Partnern werden sowohl Konzepte für die wirtschaftliche Distribution von Ammoniak im industriellen Umfeld als auch der Rechtsrahmen sowie Pfade für die Erhöhung der Akzeptanz für Ammoniak in der Bevölkerung und bei Kunden erarbeitet. „Es geht bei diesen Vorhaben um die Eröffnung von neuen wirtschaftlichen Potentialen für unsere regionalen Unternehmen. Zum einen sollen die Unternehmen an die Entwicklung der Technologiefelder und den Aufbau der Verwertungsketten im Zukunftsfeld Ammoniak und Wasserstoff herangeführt werden. Zum anderen bieten die im TransHyDE-Projekt CAMPFIRE entwickelten Technologien neue wirtschaftliche Möglichkeiten für Unternehmen, ihren Carbon-Footprint zu minimieren. Im besonderen Fokus steht auch die Entwicklung eines europaweit sichtbaren Standortes für grüne Ammoniak- und Wasserstoff-Technologien auf dem Industriegelände in Rostock-Poppendorf“, erklärt Dr. Angela Kruth, Sprecherin und Koordinatorin von CAMPFIRE.
Neue Technologien für die Implementierung von Ammoniak als einen kohlenstofffreien Wasserstoffträger stellen eine wichtige Voraussetzung für das Erreichen der Klimaziele dar, d.h. die notwendige Minderung der Treibhausgasemissionen um 95 Prozent bis 2050.

Infokasten:
In den Wasserstoff-Leitprojekten „TransHyDE“, „H2Mare“ und „H2Giga arbeiten über 240 Partner aus Wissenschaft und Industrie zusammen. Insgesamt wird die Förderung über 740 Millionen Euro betragen.

Das CAMPFIRE-Bündnis wurde 2018 im Rahmen des BMBF WIR! „Wandel durch Innovation“-Programmes gegründet. Die mittlerweile über 60 Partner mit einem Unternehmensanteil von ca. 80% sind hauptsächlich in der Region Nord-Ost angesiedelt. Sie verfolgen gemeinsam das Ziel, die Unternehmen der Region Nord-Ost und Deutschland zu einem Exporteur von neuen Technologien für ein zukünftiges globales kohlenstofffreies Ammoniak-Wasserstoff-Energiesystem zu befähigen.

Kontakt:
Dr. Gesine Selig
Kommunikation/ Presse
Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP)
Tel.: +49 3834 554 3942, Fax: +49 3834 554 301
mailto: gesine.selig@inp-greifswald.de
https://www.leibniz-inp.de

Wissenschaftliche Ansprechpartner:
Dr. Angela Kruth
Koordinatorin & Sprecherin CAMPFIRE
Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP)
Tel.: +49 3834 554 38460, Fax: +49 3834 554 301
mailto: angela.kruth@inp-greifswald.de
http://www.wir-campfire.de

(nach oben)


Prognosen für die Abfluss- und Stauregelung am Neckar bei Starkregenereignissen

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
Forschungsergebnisse aus dem BMVI-Expertennetzwerk machen die Schifffahrt auf dem Neckar sicherer

Starkregenereignisse in urbanen Regionen können die Wasserstände in staugeregelten Wasserstraßen sprunghaft ansteigen lassen. Insbesondere können Regenwassereinleitungen bei Niedrigwasserabfluss, wie sie vor allem bei Sommergewittern auftreten, ein Vielfaches des Abflusses in der Wasserstraße betragen. Auf diese schnellen Abflussänderungen muss die Abfluss- und Stauregelung an der unterhalb liegenden Stauanlage vorausschauend reagieren, da ansonsten für die Schifffahrt die Gefahr von Brückenanfahrungen oder Grundberührungen besteht.

Als Folge des Klimawandels sind Extremwetterereignisse mit Starkregen künftig häufiger zu erwarten. Aus diesem Grund entwickelt die Bundesanstalt für Wasserbau (BAW) derzeit ein Prognosesystem, mit dessen Hilfe die Einleitungen rechtzeitig vorhergesagt werden können, sodass das für die Abfluss- und Stauregelung an der unterhalb liegenden Staustufe verantwortliche Betriebspersonal vorausschauend reagieren kann. Die Entwicklung des Prognosesystems findet im Rahmen eines Forschungsprojekts des BMVI-Expertennetzwerks statt. Als Pilotprojekt wird der Nesenbach betrachtet, der als Hauptsammler der Stuttgarter Kanalisation bei Starkregen große Mengen Mischwasser in den Neckar einleitet. Etwa sechs Kilometer unterhalb der Einleitung liegt die Neckar-Staustufe Hofen.

Das Prognosesystem basiert auf hochauflösenden Niederschlagsprognosen mit einem Vorlauf von zwei Stunden. Hierzu arbeitet die BAW eng mit dem Deutschen Wetterdienst zusammen. Mit Hilfe eines stark vereinfachten Modells der Stuttgarter Kanalisation werden regeninduzierte Einleitungen aus dem Nesenbach in den Neckar vorhersagt. Darüber hinaus berechnet das Prognosesystem einen optimierten Wasserstands- und Abflussverlauf für die Staustufe Hofen. Dies ermöglicht dem Betriebspersonal, frühzeitig auf die ankommende Abflusswelle zu reagieren und die Wasserstandschwankungen auf ein für die Schifffahrt unschädliches Maß zu begrenzen.
Derzeit implementiert die BAW einen Prototyp des Prognosesystems. Die Abflussvorhersagen für den Nesenbach werden bereits in Zusammenarbeit mit der Neckar AG, die die Wasserkraftwerke am Neckar betreibt, getestet. Anschließend soll der Prototyp um die Komponente zur Unterstützung bei der Abfluss- und Stauregelegung ergänzt werden. Damit trägt das Forschungsprojekt dazu bei, die Schifffahrt auf dem Neckar resilienter gegenüber extremen Wetterereignissen und dem Klimawandel zu machen.

Das BMVI-Expertennetzwerk ist das verkehrsträgerübergreifende Forschungsformat in der Ressortforschung des BMVI. Unter dem Leitmotiv „Wissen – Können – Handeln“ haben sich sieben Ressortforschungseinrichtungen und Fachbehörden des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) 2016 zu einem Netzwerk zusammengeschlossen. Ziel ist es, drängende Verkehrsfragen der Zukunft unter anderem in den Bereichen Klimawandel, Umweltschutz, alternde Infrastruktur und Digitalisierung zu erforschen und durch Innovationen eine resiliente und umweltgerechte Gestaltung der Verkehrsträger zu ermöglichen.

Wissenschaftliche Ansprechpartner:
Pressekontakt
Bundesanstalt für Wasserbau
Sabine Johnson
sabine.johnson@baw.de
Telefon +49 721 97263060

(nach oben)


Frühe Homo sapiens-Gruppen in Europa waren subarktischem Klima ausgesetzt

Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie
Anhand der Analyse stabiler Sauerstoffisotope im Zahnschmelz von in der Bacho-Kiro-Höhle (Bulgarien) von Menschen geschlachteten Tieren, zeigen Max-Planck-Forscher, dass Menschengruppen, die während einer frühen Ausbreitungswelle unserer Spezies Europa erreichten und die Höhle vor etwa 46.000 bis 43.000 Jahren bewohnten, mit sehr kalten klimatischen Bedingungen konfrontiert waren.

Der Prozess, wie sich unsere Spezies in der Vergangenheit neue Umgebungen erschloss, stellt einen wichtigen evolutionären Wendepunkt dar, der letztlich dazu führte, dass Homo sapiens alle Kontinente und eine große Vielfalt von Klimazonen und Umgebungen besiedelte. Die Mechanismen, die anfängliche Ausbreitungswellen begünstigt haben könnten, sind nach wie vor umstritten. Die meisten Modelle, die auf der Korrelation archäologischer Stätten mit räumlich entfernten Klimaarchiven beruhen, deuteten bisher jedoch darauf hin, dass Menschen auf wärmere Klimabedingungen angewiesen waren, um sich in neue, nördlichere Umgebungen auszubreiten.

Anhand von Belegen direkt aus den archäologischen Schichten der Bacho-Kiro-Höhle konnte das Max-Planck-Team nun hingegen zeigen, dass Menschen mehrere tausend Jahre lang sehr kalte klimatische Bedingungen überdauert haben, die im Vergleich eher für das heutige Nordskandinavien typisch wären. „Wir konnten belegen, dass diese Menschengruppen flexibler in Bezug auf die von ihnen genutzten Umgebungen und anpassungsfähiger an unterschiedliche klimatische Bedingungen waren als bisher angenommen“, sagt Erstautorin Sarah Pederzani, Forscherin am Max-Planck-Institut für evolutionäre Anthropologie (MPI-EVA) und der Universität Aberdeen. Jean-Jacques Hublin, Direktor der Abteilung für Humanevolution am MPI-EVA, fügt hinzu: „Auf der Grundlage dieser neuen Erkenntnisse müssen nun neue Modelle für die Ausbreitung unserer Spezies über Eurasien erstellt werden, die ihre größere klimatische Flexibilität berücksichtigen.“

Archäologische Funde aus der Bacho-Kiro-Höhle in Bulgarien
Durch die direkte Verwendung von archäologischem Material – wie zum Beispiel den Überresten von Tieren, insbesondere Pflanzenfressern, die von den damals in der Höhle lebenden Menschen geschlachtet wurden – um Klimadaten zu generieren, konnte das Paläoklima-Forschungsteam unter der Leitung von Pederzani und Kate Britton, die ebenfalls am MPI-EVA und an der Universität Aberdeen forscht, eine sehr robuste Aufzeichnung lokaler klimatischer Bedingungen erstellen, die sich speziell auf die Zeit bezieht, in der Menschen die Bacho-Kiro-Höhle bewohnten. „Diese Technik ermöglicht eine zuverlässigere Zuordnung des lokalen klimatischen Kontextes als die üblicherweise verwendete chronologische Korrelation zwischen archäologischen Daten und Klimaarchiven verschiedener Orte, die die Grundlage für einen Großteil der bisherigen Forschung zur klimatischen Anpassungsfähigkeit des Menschen bildete – sie gibt uns wirklich einen Einblick in das Leben ‚vor Ort‘“, sagt Britton. „Aufgrund der zeitaufwändigen Analyse und der Abhängigkeit von der Verfügbarkeit bestimmter Tierreste sind Sauerstoffisotopenstudien oder andere Techniken, Klimadaten direkt aus archäologischen Stätten zu gewinnen, für den Zeitraum, in dem sich der Homo sapiens erstmals in Eurasien ausbreitete, jedoch nach wie vor rar“, fügt Pederzani hinzu. In der Tat ist diese Max-Planck-Studie die erste dieser Art, die im Zusammenhang mit dem Initial Upper Paleolithic durchgeführt wurde und konnte daher so überraschende Ergebnisse liefern.

Aufzeichnung vergangener Temperaturen über mehr als 7.000 Jahre
Pederzani verbrachte ein Jahr mit Laborarbeiten, von der Bohrung von Probensequenzen aus Tierzähnen über die nasschemische Aufbereitung bis hin zur stabilen Isotopenmassenspektrometrie, um alle notwendigen Daten zusammenzutragen. „Durch diese zeitintensive Analyse, die insgesamt 179 Proben umfasste, war es möglich, eine sehr detaillierte Aufzeichnung vergangener Temperaturen zu erstellen, einschließlich Schätzungen der Sommer-, Winter- und Jahresmitteltemperaturen für den Aufenthalt von Menschen in der Höhle über einen Zeitraum von mehr als 7.000 Jahren“, sagt Pederzani.

Die von einem internationalen Team unter der Leitung der MPI-EVA-Forschenden Jean-Jacques Hublin, Tsenka Tsanova und Shannon McPherron sowie Nikolay Sirakov vom Nationalen Institut für Archäologie mit Museum der Bulgarischen Akademie der Wissenschaften in Sofia, Bulgarien, durchgeführten Ausgrabungsarbeiten in der Bacho-Kiro-Höhle wurden 2015 erneut aufgenommen und ergaben eine Fülle an Informationen über menschliche Aktivitäten in der Höhle: dazu zählen auch die Überreste früherer Bewohner der Höhle, der ältesten bisher bekannten Vertreter des Homo sapiens aus dem europäischen Jungpaläolithikum. Die Ablagerungen im unteren Teil der Fundstätte enthielten eine große Anzahl von Tierknochen, Steinwerkzeugen, Anhängern und sogar menschlichen Fossilien und bildeten die Grundlage für die Klimastudie zur Untersuchung der Umweltbedingungen, denen die Menschen ausgesetzt waren, als sie sich erstmals von der Levante aus nach Südosteuropa ausbreiteten.

Wissenschaftliche Ansprechpartner:
Dr. Sarah Pederzani
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
sarah_pederzani@eva.mpg.de

Prof. Dr. Jean-Jacques Hublin
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
hublin@eva.mpg.de

Dr. Tsenka Tsanova
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
tsenka_tsanova@eva.mpg.de

Originalpublikation:
Sarah Pederzani, Kate Britton, Vera Aldeias, Nicolas Bourgon, Helen Fewlass, Tobias Lauer, Shannon P. McPherron, Zeljko Rezek, Nikolay Sirakov, Geoff M. Smith, Rosen Spasov, N.-Han Tran, Tsenka Tsanova, Jean-Jacques Hublin
Subarctic climate for the earliest Homo sapiens in Europe
Science Advances, 22 September 2021, https://doi.org/10.1126/sciadv.abi4642

(nach oben)


Leistungsstarke Brennstoffzellen für die Elektromobilität in hoher Stückzahl

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Universität Stuttgart an trilateralem DFG-Projekt zur Verbesserung des Produktionsprozesses von Bipolarplatten beteiligt

Bipolarplatten (BPP) stellen eine Schlüsselkomponente in modernen Brennstoffzellen dar und sind damit essenziel für den Ausbau der Elektromobilität im Personen- und Nutzkraftwagenverkehr. Forschende der Universität Stuttgart, des Fraunhofer-Instituts für Physikalische Messtechnik in Freiburg sowie der Firmen thyssenkrupp System Engineering und Chemische Werke Kluthe suchen im Rahmen des Forschungsprojekts „AKS-Bipolar“ nach Wegen, um den Ausschuss bei der Produktion metallischer Bipolarplatten zu reduzieren sowie die Bereitstellung der für die Energiewende erforderlichen hohen Stückzahlen zu ermöglichen. Das Projekt hat ein Gesamtvolumen von rund 1,43 Millionen Euro und wird von der Deutschen Forschungsgemeinschaft DFG und der Fraunhofer-Gesellschaft im Rahmen der Linie trilateraler Transferprojekte gefördert.

„Baden-Württemberg ist führend in Forschung und Wissenschaft. Denn dort wachsen die Rohstoffe der Zukunft: Wissen, Kreativität und Innovation. Die Landesregierung unterstützt den Struktur- und Technologiewandel und die damit verbundene Transformation unseres Industriestandorts. Die Forschung der Universität Stuttgart zur Verbesserung des Produktionsprozesses von Bipolarplatten im Rahmen des trilateralen DFG-Projekts trägt wegweisend zum Ausbau der leistungsfähigen Elektromobilität und zur Schlüsseltechnologie Brennstoffzelle bei. Unsere exzellenten Wissenschaftlerinnen und Wissenschaftler zeigen, wie Forschungsprojekte angegangen und umgesetzt werden können, um neues Wissen konkret in die Anwendung und damit unser Land voranzubringen“, so Wissenschaftsministerin Theresia Bauer.

Eine Brennstoffzelle besteht aus zahlreichen stapelartig angeordneten Membran-Elektroden-Einheiten (MEA), in denen die Umwandlung von chemischer zu elektrischer Energie stattfindet. Bipolarplatten liegen zwischen diesen Einheiten und übernehmen die Funktion, die hierfür erforderlichen Reaktionsgase zu- und das entstehende Wasser abzuleiten. In modernen Brennstoffzellsystemen sind je nach Typ und Größe 300 – 600 BPP verbaut!

Lange Zeit dominierten BPP aus Graphit den Markt, doch der Trend geht aus wirtschaftlichen Gründen und aufgrund der höheren Leitfähigkeit hin zu metallischen BPP. Um diese herzustellen, kommen Verfahren der Umformtechnik zum Einsatz, die im Vergleich zu spanenden Fertigungsverfahren geringere Kosten sowie deutlich schnellere Taktzeiten ermöglichen. Bei der Blechumformung können allerdings bereits leicht schwankende Prozessparameter zu Umformfehlern wie Reißern, Falten oder Wölbungen (Springbeul-Effekte) führen, die die Montage der Zellenstapel erschweren.

Gesamtsystem zur Prozesskontrolle und Qualitätssicherung
Bisher lassen sich die meisten dieser Fehlerbilder der metallischen BPP nicht konsistent erkennen oder vermeiden, weshalb die Qualitätsprüfung nachgelagert in kosten- und zeitintensiven Stichprobentests erfolgt. Vor diesem Hintergrund wollen die Forschenden im Projekt „AKS-Bipolar“ (Aktive Prozesskontrolle bei der Serienfertigung hochpräzise geprägter Bipolarplatten) ein Gesamtsystem zur aktiven Prozesskontrolle und Qualitätssicherung entwickeln, das eine vollflächige 3D-Messtechnik direkt in die Produktionslinie der Bauteile integriert und alle Prozessstufen in einer Gesamtsimulation (Toolchain) abbildet.

Hierbei setzen die Projektpartner an hochgenauen 3D-Daten an, die durch die digital-holographische Sensortechnik des Fraunhofer IPM erstmals in hohem Umfang und in Echtzeit zur Verfügung stehen. Diese werden sehr schnell und akkurat mit Simulationsergebnissen verglichen, die am Institut für Umformtechnik (IFU) der Universität Stuttgart zur Prozessauslegung verwendet werden. Dabei nutzt das IFU die Erkenntnisse aus zahlreichen Forschungsprojekten auf den Gebieten der Blech- und Massivumformung, darunter zwei vorausgegangene DFG-Projekte zur Modellierung von Blechwerkstoffen.

Auf dieser Datenbasis generiert und optimiert die im Projekt zu entwickelnde Simulations-Toolchain unter anderem einen Digitalen Zwilling des betrachteten Umformprozesses, mit welchem wiederkehrende Fertigungsprobleme wie Risse, Falten oder der Springbeul-Effekt numerisch erfasst und geeignete Gegenmaßnahmen zielgerichtet eingeleitet werden.

Der Erfolg des Projektes wird mittels eines Demonstrators an einem konkreten, industriellen Fertigungsbeispiel nachgewiesen. Dazu wird ein Experimentalsystem zunächst im Labor- und später im Industriemaßstab aufgebaut.

Mit den im Jahr 2019 ins Leben gerufenen trilateralen Projekten fördern die Deutsche Forschungsgemeinschaft (DFG) und die Fraunhofer-Gesellschaft den Transfer von Erkenntnissen aus DFG-geförderten Vorhaben in die Wirtschaft. In der diesjährigen dritten Ausschreibungsrunde waren zunächst 24 Projektskizzen eingegangen, zur Förderung bewilligt wurden fünf Projekte.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Mathias Liewald MBA, Universität Stuttgart, Institut für Umformtechnik, Tel.: +49 711 685-83840, E-Mail: mathias.liewald@ifu.uni-stuttgart.de

(nach oben)


Vom Laien zum Experten

Dr. Stefanie Merker Presse und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie
Ist es ein Rembrandt oder ein Vermeer? Laien fällt es oft schwer, Gemälde dieser beiden alten Meister zu unterscheiden. Das geübte Auge hingegen hat damit keinerlei Schwierigkeiten. Wissenschaftler:innen am Max-Planck-Institut für Neurobiologie haben nun nachgewiesen, dass auch Mäuse Experten darin werden können, Bilder in Kategorien zu sortieren. Die Studie zeigt, dass Teile dieses Expertenwissens bereits in den frühen visuellen Hirnarealen vorhanden sind. Das verdeutlicht, wie weit verteilt semantische Erinnerungen im Gehirn gespeichert werden.

Haben Sie schon einmal versucht ein Gemälde von Rembrandt von einem von Vermeer zu unterscheiden? Vermutlich würde dies einem Ratespiel ähneln: Die Unterschiede sind für ein ungeübtes Auge subtil. Kunstliebhaber hingegen haben keine Schwierigkeiten bei der Zuordnung und das, obwohl es nur wenige allgemeingültige Anhaltspunkte gibt. Wie ist das möglich?

Das semantische Gedächtnis ist ein Speicherort für Expertenwissen
Ein Schlüssel zum Erfolg ist Üben: Kunstexperten betrachten Tag ein, Tag aus hunderte von Gemälden. Dabei entwickeln sie allmählich ein Gespür für die Merkmale, die bei der Unterscheidung eine Rolle spielen. Dieses Gespür ist nichts Anderes als erlerntes Wissen und wird in ihrem semantischen Gedächtnis gespeichert. Das ist die Sammlung aller abstrakten Informationen, die nicht mit einem bestimmten Erlebnis verknüpft sind: zum Beispiel das allgemeine Wissen, dass Vermeer ein niederländischer Maler ist – im Gegensatz zu der konkreten Erinnerung, wo sie zum ersten Mal ein Vermeer-Gemälde gesehen haben.

Bis heute wissen wir jedoch wenig darüber, wie das semantische Gedächtnis funktioniert. Der Neurobiologe Pieter Goltstein arbeitet zusammen mit Mark Hübener in der Abteilung von Tobias Bonhoeffer und erklärt: „Um zu untersuchen, wie solche Informationen gespeichert werden, müssen wir zunächst herausfinden, wo wir sie im Gehirn finden können. Wir kamen deshalb auf die Idee, Mäusen eine ähnliche Aufgabe wie Kunstexperten zu stellen und zu testen, ob auch sie solch komplexes Wissen erlernen können.“

Mäuse werden zu Experten im Kategorisieren
Zusammen mit Sandra Reinert zeigte Pieter Goltstein Mäusen unterschiedliche Streifenmuster, die sie in zwei Kategorien einteilen sollten. Dazu mussten die Mäuse verschiedene Aspekte abwägen und sowohl die Breite als auch Orientierung der Streifen miteinbeziehen.

Überraschenderweise ordneten die Mäuse nach einer anfänglichen Lernphase die Bilder zuverlässig der richtigen Kategorie zu. Sie waren zu Experten geworden und konnten ihr neu erlerntes Kategorie-Wissen ohne weiteres auf Muster anwenden, die sie während des Lernens noch nicht gesehen hatten – sie extrapolierten die Merkmale der Kategorien, die sie als semantische Information gespeichert hatten.

Der visuelle Kortex hilft beim Kategorisieren
Doch liegt die Information über Kategorien bereits im visuellen Kortex, wo visuelle Reize eintreffen und analysiert werden? Oder findet es sich erst nach vielen anfänglichen Verarbeitungsschritten in höheren Hirnarealen?

Mit einem kleinen Trick gingen die Wissenschaftler:innen dieser Frage auf den Grund: Da Nervenzellen im visuellen Kortex auf visuelle Reize an einem bestimmten Ort reagieren, zeigten sie den Mäusen zunächst nur Streifenmuster in einem Teil ihres Sehfelds. So trainierten die Tiere gezielt eine spezifische Nervenzellgruppe. Verlagerten die Forschenden die Muster an einen anderen Ort, wurden die Reize von anderen Nervenzellen verarbeitet und die Mäuse konnten nicht mehr so gut kategorisieren. Darüber hinaus führte die Inaktivierung des visuellen Kortex zu einem ähnlichen Ergebnis. Zusammen deutete dies darauf hin, dass Nervenzellen im visuellen Kortex am Erlernen von Kategorien beteiligt sind.

Teile semantischer Informationen finden sich bereits im visuellen Kortex
Parallel zum Kategorie-Training konnten die Wissenschaftler:innen wiederholt die Aktivität vieler Nervenzellen messen und Veränderungen im Verlauf des Lernens feststellen. Interessanterweise unterschieden einige Regionen des visuellen Kortex am Ende des Lernprozesses die Kategorien besser. Mark Hübener, der Studienleiter, erklärt: „Die Nervenzellen in diesen Regionen erhalten zweierlei Input. Sie reagieren auf einen bestimmten visuellen Reiz und erhalten zusätzlich die Information, wenn die Maus ein Bild der richtigen Kategorie zugeordnet hat. So können die Nervenzellen wichtige visuelle Reize, die mit Kategorien zusammenhängen, identifizieren und ihre Reaktion darauf verstärken.“

Die Neuronen im visuellen Kortex sind also in der Lage, ihre Reaktion beim Lernen anzupassen. Aber nicht nur das: Bei der Analyse der Daten stach eine Region des visuellen Kortex, genannt POR, besonders hervor. Die Forschenden fanden Anzeichen, dass dort abstrakte Kategorie-Information gespeichert wird. Damit zeigt die Studie, dass abstraktes Lernen bereits auf den ersten Ebenen der visuellen Verarbeitung beginnt.

KONTAKT:
Dr. Christina Bielmeier
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: presse@neuro.mpg.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mark Hübener
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
Email: mark@neuro.mpg.de

Prof. Dr. Tobias Bonhoeffer
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: office.bonhoeffer@neuro.mpg.de

Originalpublikation:
Pieter M. Goltstein, Sandra Reinert, Tobias Bonhoeffer, Mark Hübener
Mouse visual cortex areas represent perceptual and semantic features of learned visual categories
Nature Neuroscience, online September 20, 2021
DOI: 10.1038/s41593-021-00914-5

Weitere Informationen:
https://www.neuro.mpg.de/bonhoeffer/de – Webseite der Forschungsabteilung
https://www.neuro.mpg.de/news/2021-09-bonhoeffer/de – Hier finden Sie eine Audioversion der Pressemitteilung

(nach oben)


Unternehmensgeschichte: Bevölkerung erwartet Selbstkritik bei Fehlern und Krisen

Axel Grehl Pressestelle
Hochschule Pforzheim
Neues Forschungszentrum von Hochschule Pforzheim und Uni Leipzig startet mit Tagung

Ob NS-Vergangenheit oder Managementfehler: Mehr als zwei Drittel der Menschen in Deutschland erwarten von Traditionsunternehmen, dass sie Verantwortung für die eigene Geschichte übernehmen (69 Prozent) – und darüber öffentlich kommunizieren (68 Prozent). Das geht aus einer bevölkerungsrepräsentativen Studie der Hochschule Pforzheim unter 1.004 Befragten hervor. Die Untersuchung ist eines der ersten Ergebnisse des neuen Center for History and Corporate Communication, an dem die Hochschule Pforzheim und die Universität Leipzig beteiligt sind. Es vereint Grundlagenforschung zur Geschichte des Kommunikationsberufsfelds und zu Unternehmensgeschichte als Gegenstand professioneller Kommunikation.

Für 66 Prozent der Befragten sind Unternehmen mit Tradition bei der Jobsuche besonders attraktiv. Als Kunden würden 45 Prozent das Produkt eines Traditionsunternehmens bevorzugen. Unternehmen mit Geschichte müssen sich aber andererseits auch Verbrechen, Skandalen und Katastrophen in der Vergangenheit stellen. Ein Unternehmen, das dieser Verantwortung nicht gerecht wird, käme für 44 Prozent der Befragten als Arbeitgeber nicht infrage und würde immerhin auch von 34 Prozent der Befragten beim Einkauf gemieden. Im Kontext der Entschädigung von NS-Zwangsarbeitern war Unternehmensgeschichte in den 1990ern verstärkt Thema. Jüngst wurden Verstrickungen zur Kolonialzeit sowie Geschäfte mit dem SED-Regime kritisch hinterfragt. „Die Geschichte prägt die Identität von Traditionsunternehmen. Sie darf aber nicht nur mit Höhepunkten ins Schaufenster gestellt werden“, so Professor Dr. Felix Krebber von der Business School der Hochschule Pforzheim. „Viele Großunternehmen gehen heute verantwortungsvoll mit der eigenen Geschichte um und sind selbstkritisch – besonders bei der Aufarbeitung der Verstrickungen im Nationalsozialismus. Andere große Marken werden dieser Verantwortung bis heute nicht gerecht. “

Auch seien die Kaiserzeit oder Profite aus Ost-West-Geschäften auf den Geschichtsseiten der größten deutschen Unternehmen kaum Thema, auch wenn Unternehmen zu dieser Zeit bereits existierten. Die Gesellschaft erwarte zurecht, dass sich Unternehmen ihrer Verantwortung stellen, die eigene Geschichte durch unabhängige Historiker*innen aufarbeiten zu lassen und über die Ergebnisse die Öffentlichkeit zu unterrichten, bekräftigt der Kommunikationswissenschaftler. „Mit dem Center for History and Corporate Communication werden wird durch unsere Forschung Impulse in die Praxis geben, wie verantwortungsvolle Geschichts-Kommunikation aussehen kann und werden Qualitätsstandards definieren“, so Krebber. Im Rahmen einer digitalen Tagung am 23. September an der Uni Leipzig wird das Center offiziell gegründet und es werden diese und weitere Forschungsergebnisse mit Wissenschaft und Praxis diskutiert.

Das Center for History and Corporate Communication ist einer Initiative der Günter-Thiele-Stiftung für Kommunikation und Management im Stifterverband für die Deutsche Wissenschaft in Kooperation mit der Universität Leipzig und der Hochschule Pforzheim. Es bündelt Forschung zur Geschichte des Kommunikationsberufsfelds sowie zur kommunikativen Vermittlung der Unternehmensgeschichte. Geleitet wird es von Prof. (em.) Dr. Günter Bentele (Universität Leipzig) sowie von Prof. Dr. Felix Krebber (Hochschule Pforzheim).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Felix Krebber, Hochschule Pforzheim
E-Mail: felix.krebber@hs-pforzheim.de

(nach oben)


Worauf die Wissenschaft nach der Hochwasserkatastrophe Antworten finden muss

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die Überflutungen in der Eifel im Juli waren weit mehr als ein Problem von zu viel fließendem Wasser. Wie das Mitreißen von Totholz und Sedimenten die Auswirkungen der Flut verstärkt hat – und was daraus für künftige Forschung folgt, schreiben die GFZ-Forscher Michael Dietze und Ugur Öztürk heute in der Zeitschrift Science. Ein Bericht mit Eindrücken vom Ablauf der Flut.

Am 14. Juli 2021 fielen in der Eifel in nur 22 Stunden zwischen 60 und 180 mm Regen, eine Menge, die sonst in mehreren Monaten fällt, und die zu katastrophalen Überflutungen geführt hat. Die Ereignisse waren weitaus zerstörerischer, als bestehende Modelle vorhergesagt hatten. Forschende des Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ machen dafür eine Reihe von Effekten verantwortlich, die bisher in Mitteleuropa kaum aufgetreten und daher in diesen Regionen noch nicht genug berücksichtigt wurden. Dazu gehört insbesondere das Mitreißen von Totholz und Sedimenten, beides Effekte, die mit fortschreitendem Klimawandel weiter an Bedeutung gewinnen dürften. Über die Mechanismen, die die Auswirkungen der Flut verstärkt haben, berichten Michael Dietze und Ugur Öztürk heute in der Zeitschrift Science. Sie geben auch einen Ausblick auf ein neues Forschungsvorhaben, das hier ansetzt, um künftige Vorhersagen realistischer zu gestalten.

Forschende als zufällige Zeugen der Hochwasserkatastrophe
Der 14. Juli ist ein regnerischer Tag. GFZ-Forscher Michael Dietze ist mit Kolleg*innen aus Potsdam und der Uni Bonn auf dem Rückweg von Geländearbeiten in der südlichen Eifel. Im Auto zurück Richtung Norden wird ihnen schnell klar, dass hier gerade mehr passiert als nur ein langer kräftiger Regen: Der Liveview des Pegels Altenahr steigt 15-minütig rasant an, schneller als die eigentliche Vorhersage – und als es den Forschenden lieb ist, denn eigene Messungen sind davon betroffen. Überflutungen der Ahr sind nichts Ungewöhnliches: Im Rahmen eines Forschungsprojektes haben Dietze und Kolleg*innen einige Wochen zuvor auf einer drei Meter hohen Terrasse im Ahrtal mehrere Seismik-Stationen aufgebaut. Damit wollten sie die Bodenbewegungen messen, die durch turbulent fließendes Wasser und Gerölltransport im Fluss bei „regulären“ Hochwassern entstehen. Nun ist der Pegel schon einen Meter über dem Terrassenniveau, die Stationen sind verloren.

Bekannte Effekte – aber aus anderen Gegenden der Welt
Was die Forschenden hier erleben, ist allerdings nur ein kleiner Ausschnitt der eigentlichen Katastrophe, die in den Tälern von Ahr, Erft und Rur ihren Lauf nimmt. „Die Flut in den Tälern der Eifel war weitaus gewaltiger, schneller und unberechenbarer, als wir das für ein solches Ereignis in der Mitte Europas bislang angenommen haben“, sagt Michael Dietze, PostDoc in der Sektion Geomorphologie am GFZ und am Geographischen Institut der Universität Bonn. „Die Ursachen dafür sind vielfältig und uns durchaus bekannt – allerdings bisher nicht aus Mitteleuropa, sondern aus Wüsten und den Tropen.“

Schnell gesättigter Boden
Der Regen konnte nicht mehr in den durch wochenlang auftretende Regenfälle schon gesättigten Untergrund einsickern. Er war auch zu stark, um dann nur als dünner Wasserfilm die Hänge herunterzulaufen. Stattdessen verwandelten sich Hänge regelrecht in breite Flüsse und transportierten das Wasser statt mit einer Geschwindigkeit von einigen Zentimetern plötzlich mit einigen Metern pro Sekunde, also bis zu hundert Mal schneller. Dadurch konnte es in den Haupttälern viel schneller zu einer Flutwelle zusammenlaufen.

Enorme Erosionskraft des Wassers
Zusätzlich entwickelte das Wasser eine enorme Erosionskraft: Zum einen grub es sich in die Hänge und konnte in den so erzeugten Erosionsrinnen nochmals schneller abfließen. Zum anderen mobilisierte es erhebliche Mengen Sediment und Totholz. Einmal in den Tälern angekommen, trieben die Baumstämme und Äste auf die zahlreichen Brücken zu, die es zum Beispiel im Ahrtal gibt. Dort verfingen sie sich und führten zu sogenannten Verklausungen. Dadurch wurde der Abfluss behindert, das Wasser staute sich und erreichte auch höher gelegene Gebiete.

Unerwartete Effekte an Kiesgrube und Straßen
Im Zuge dieser Ereignisse entstanden bisher in der Region nicht für möglich gehaltene Effekte und sogenannte gekoppelte Gefahren. Die normalerweise fünf Meter breite Erft trat bei der Stadt Blessem über die Ufer und ergoss sich über ein Feld direkt in eine Kiesgrube. Auch hier wurde ein schwach geneigter Hang zu einem breiten Fluss und der Grubenrand fraß sich über eine Länge von 300 Metern wie ein Wasserfall stromaufwärts in Richtung Blessem. Dabei unterhöhlte er die ersten Häuser und ließ sie einstürzen.
Auch die Straße durch Blessem wurde zu einem Fluss, der an unbefestigten Rändern beginnend den gesamten Straßenaufbau unter- und wegspülte, sodass allein die Abwasserrohre zurückblieben. Diese Erosion ebbte nur durch Zufall ab, als immer weniger Wasser die Erft herabfloss.

Gekoppelte Gefahren: der Staudamm der Steinbachtalsperre
Eine besondere Gefahr ging von der nur 35 Kilometer stromaufwärts liegenden Steinbachtalsperre aus. Dieser Erddamm hält 1,2 Mio. Kubikmeter Wasser zurück. Er wurde in der Nacht zum 15. Juli auf einer Breite von 150 Metern knietief überspült, weil der Notüberlauf die ankommenden Wassermassen nicht abführen konnte. Der überspülte Damm erodierte massiv, so dass ein Bruch unmittelbar bevorstand. Wäre dies passiert, hätte die Flutwelle die Prozesse in Blessem erneut entfacht, und darüber hinaus in den Ortschaften direkt unterhalb der Talsperre massive Zerstörungen verursacht. „Dieses Beispiel macht deutlich, wie eng gekoppelt auch scheinbar weit voneinander entfernte Örtlichkeiten sind“, betont Dietze.

Ausblick: Identifikation neuer Forschungsansätze
„Mit anhaltendem Klimawandel werden wir Niederschlagsereignisse wie das am 14. Juli 2021 ziemlich häufig erleben. Daher muss die Forschung jetzt beginnen, durch Starkregen ausgelöste Hochwässer nicht nur als Phänomen von zuviel schnell fließendem Wasser zu verstehen, sondern auch die damit einhergehenden selbstverstärkenden Effekte einzubeziehen, die teilweise ebenfalls durch den Klimawandel begünstigt werden“, sagt Dietze. Dazu gehören die Zerschneidung der Hänge vor allem in den oberen Einzugsgebieten, die Mobilisierung von Totholz und von erodierten vitalen Bäumen sowie deren Rolle bei der Verklausung von menschlicher Infrastruktur. Außerdem müssen neue gekoppelte Gefahren identifiziert und berücksichtigt werden.

Neues Forschungsprojekt liefert wichtige Daten für künftige Modelle
Ein wichtiger Schritt in diese Richtung wird sein, die Spuren der Katastrophe vom Juli 2021 rasch und hoch aufgelöst zu sichern. Das gilt vor allem für die Gebiete, in denen die Flut ihre Kraft gewonnen hat und die bisher kaum im öffentlichen Fokus standen: die oberen Einzugsgebiete der Flüsse bis hin in die Quellgebiete ihrer Nebenflüsse. Mit einem kürzlich bewilligten Projekt, gemeinsam finanziert durch das GFZ und das Graduiertenkolleg NatRiskChange der Universität Potsdam, werden jetzt gezielt diese Gebiete beflogen, um die Landschaft aus Flugzeugen heraus mittels Laser abzuscannen. Daraus entstehen dann hochaufgelöste 3D-Modelle der veränderten Landschaft. Sie können mit bestehenden Datensätzen verglichen werden, die bereits vor der Flut gewonnen wurden. So können die Schlüsselinformationen zu erodierten Hängen, mobilisiertem Holz und überfluteten Flächen gesichert und ausgewertet werden, um zukünftige Modelle durch gemessene Daten zu verbessern. Und dann können Dietze und seine Kolleg*innen auch ihre Seismik-Stationen zur Analyse der flutbedingten Sedimentfracht an tatsächlich sicheren Standorten neu installieren.

Verstopfung eines kleinen Zuflusses der Ahr durch hölzerne Abfälle. Das führt zu zeitweiligen Aufstauungen, massiven Sedimentablagerungen und Überschwemmungen. (Foto: M. Dietze, GFZ)
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11520_Flood-debris.jpg

Ein Eigentümer zeigt den Wasserstand des Hochwassers vom 14. Juli an seinem Haus in Walporzheim. Man beachte die ~2,2 m Wasserstandsmarke des Hochwassers von 1804 und die ~0,6 m Marke von 2016 zum Vergleich. (Foto: M. Dietze, GFZ).
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11519_Flutmarke-Walportzheim.jpg

Medienkontakt:
Dr. Uta Deffke
Referentin Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1049
E-Mail: uta.deffke@gfz-potsdam.de

Wissenschaftliche Ansprechpartner:
Dr. Michael Dietze
Sektion Geomorphologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28827
E-Mail: Michael.Dietze@gfz-potsdam.de

Originalpublikation:
Dietze, M., Öztürk, U., A flood of disaster response challenges. Science (2021). DOI: 10.1126/science.abm0617
https://www.science.org/doi/10.1126/science.abm0617

(nach oben)


Kunststoffrecycling aus Altfahrzeugen neu denken

Mandy Schoßig Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie
Stoßfänger, Sitzpolster, Dichtungen, Kabelummantelungen und mehr – rund 1,5 Millionen Tonnen unterschiedlichster Kunststoffe werden jährlich in Pkw in Deutschland verbaut. Bei der heutigen Altfahrzeugaufbereitung kann nur ein geringer Teil der Kunststoffe stofflich wiederverwertet werden, der Großteil geht über industrielle Schredderanlagen in die energetische Verwertung.

Ein neues Projekt will nun die Herausforderungen beim Kunststoffrecycling von Altfahrzeugen mit Hilfe neuer Sortier- und Recyclingverfahren systemisch lösen. Dafür arbeitet das Öko-Institut mit BASF SE, der Volkswagen AG, der SICON GmbH sowie der Technischen Universität Clausthal in einem vom Bundesministerium für Bildung und Forschung geförderten Projekt zusammen.
Die Projektpartner aus Industrie und Wissenschaft entwickeln dafür zunächst ein umfassendes Konzept für die Trennung des hochkomplexen Materialmix, basierend auf einem Prozess, der bereits über die letzten 20 Jahre von Volkswagen und SICON entwickelt wurde. Über optimal austarierte mechanische, chemische und thermische Aufbereitungsverfahren sollen Kunststoffe aus dem Pkw-Sektor umfassend gelenkt und marktgerecht verwertet werden. „Im Rahmen des European Green Deal spielt die Circular Economy eine zentrale Rolle“, erläutert Dr. Winfried Bulach, Projektleiter am Öko-Institut. „Unser Projekt soll dazu einen entscheidenden Beitrag leisten.“
Herausforderungen des Kunststoffrecyclings
Alterungseffekte, Verunreinigungen und geänderte Materialkonzepte stellen mechanische Recyclingverfahren vor große Herausforderungen. Verbesserte Sortiertechniken und das chemische Recycling als komplementäre Lösung zum mechanischen Recycling können dazu beitragen, dass zukünftig die Recyclingquote von Altfahrzeugen im Hinblick auf Kunststoffe gesteigert wird. Davon soll auch die Rezyklateinsatzquote in Neufahrzeugen profitieren. Parallel dazu wird die Wirtschaftlichkeit des Recyclings von Kunststoffen aus Altfahrzeugen verbessert. Für die optimale Nutzung von Potenzialen aus Sekundärrohstoffen werden Industrie 4.0-basierte Methoden zur Steuerung der Stoffströme eingesetzt.
„Die Kunststoffe besser voneinander zu trennen, um sie effektiver zu recyceln, ist ein zentrales Anliegen in unserem Projekt“, betont Heiner Guschall von Projektpartner SICON. „Dafür erarbeiten wir ein Konzept, das für jede der resultierenden Kunststofffraktionen die ökologisch und ökonomisch sinnvollste Verwertung ermöglicht.“
Dies soll die Basis für eine umfassende Umsetzungsphase in einem Folgeprojekt sein. Dabei werden die in den Pilotanlagen bewährten Verfahren optimiert, neue entwickelt und für die unterschiedlichen Teilfraktionen bestmöglich kombiniert.
Dialog mit Praxispartnern für die Umsetzungsphase
Im Dialog mit weiteren Stakeholdern aus Industrie und Wissenschaft evaluieren die Partner die Vorschläge des Projekts in einem Workshop. Dieser hat das Ziel, weitere Partner zu gewinnen und Vorschläge für die Umsetzung in der Praxis zu entwickeln.
Das Projekt „KuRT (Konzeptphase): SyKuRA – Systemisches Kunststoffrecycling aus Altfahrzeugen“ wird vom Bundesministerium für Bildung und Forschung als Teil der Ausschreibung „Ressourceneffiziente Kreislaufwirtschaft – Kunststoffrecyclingtechnologien (KuRT)“ im Rahmenprogramm „Forschung für Nachhaltige Entwicklung – FONA3“ gefördert.

Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.
www.oeko.de | blog.oeko.de | twitter.com/oekoinstitut | www.oeko.de/e-paper

Wissenschaftliche Ansprechpartner:
Dr. Winfried Bulach
Senior Researcher im Institutsbereich
Ressourcen & Mobilität
Öko-Institut e.V., Büro Darmstadt
Telefon: +49 6151 8191-144
E-Mail: w.bulach@oeko.de

Dr. Johannes Betz
Wissenschaftlicher Mitarbeiter im Institutsbereich
Ressourcen & Mobilität
Öko-Institut e.V., Büro Darmstadt
Telefon: +49 6151 8191-174
E-Mail: j.betz@oeko.de

Anhang
PM_SyKuRA_Öko-Institut

(nach oben)


RWI-Konjunkturprognose: Materialengpässe verzögern die wirtschaftliche Erholung

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Das RWI erwartet für dieses Jahr einen Anstieg des Bruttoinlandsprodukts um 3,5 Prozent, für das Jahr 2022 von 4,9 Prozent. Allerdings stellen neben den verbleibenden Risiken der Pandemie derzeit Lieferengpässe bei Rohstoffen und Vorprodukten das größte Hindernis für die wirtschaftliche Erholung dar. Für dieses Jahr erwartet das RWI im Jahresdurchschnitt eine Inflationsrate von 3,0 Prozent. Im kommenden Jahr dürfte sie auf 2,4 Prozent und im Jahr 2023 auf 1,6 Prozent zurückgehen.Die Zahl der Erwerbstätigen dürfte 2021 insgesamt etwa auf dem Niveau von 2020 liegen. Für 2022 und 2023 prognostiziert das RWI einen Anstieg der Erwerbstätigkeit um 1,5 bzw. 1,0 Prozent.

Das Wichtigste in Kürze:
• Das RWI erwartet, dass das deutsche Bruttoinlandsprodukt (BIP) in diesem Jahr um 3,5 Prozent ansteigt. Im Juni war es mit 3,7 Prozent von einem leicht höheren Anstieg für dieses Jahr ausgegangen. Für 2022 prognostiziert das RWI ein Wirtschaftswachstum von 4,9 Prozent (Juni-Prognose: 4,7 Prozent), für 2023 von 1,2 Prozent.

• Aufgrund von Sondereffekten und von Lieferengpässen bei Rohstoffen und Vorprodukten steigt die Inflationsrate stark. In diesem Jahr dürfte sie durchschnittlich bei 3,0 Prozent liegen. Für die kommenden Jahre erwartet das RWI eine Normalisierung der Inflationsrate auf 2,4 Prozent im Jahr 2022 und 1,6 Prozent im Jahr 2023.

• Der Arbeitsmarkt steht vor einer Normalisierung, wobei die Zahl der Menschen in Kurzarbeit erst im ersten Quartal 2022 wieder auf das Vorkrisenniveau sinken dürfte. Durch den Rückgang der Kurzarbeit steigt die durchschnittliche Arbeitszeit in diesem Jahr um 1,8 Prozent im Vergleich zum Vorjahr, während gleichzeitig die Arbeitsproduktivität je Erwerbstätigenstunde um 1,6 Prozent zunimmt. Auch 2022 werden diese Werte in ähnlichem Tempo steigen.

• Die Zahl der Erwerbstätigen dürfte 2021 insgesamt etwa auf dem Niveau von 2020 liegen, wobei die Zahl der sozialversicherungspflichtig Beschäftigten im Verlauf des Jahres leicht zunimmt, während die Zahl der Selbstständigen und ausschließlich geringfügig Beschäftigten sinkt. 2022 und 2023 dürfte die Erwerbstätigkeit durch den Aufschwung am Arbeitsmarkt wieder deutlich steigen, um 1,5 bzw. 1,0 Prozent.
• Das Defizit der öffentlichen Haushalte dürfte im Jahr 2021 gut 158 Milliarden Euro betragen. Ausgabenseitig belasten in diesem Jahr die Impf- und Testkampagne, umfangreiche Corona-Hilfen für Unternehmen sowie steigende Subventionen die öffentlichen Haushalte. Im kommenden Jahr dürfte das Finanzierungsdefizit knapp 63 Milliarden Euro betragen. 2023 rechnet das RWI mit einem Finanzierungsdefizit von knapp 57 Milliarden Euro.

• Die Corona-Pandemie stellt für die wirtschaftliche Erholung in Deutschland nach wie vor ein beachtliches Risiko dar. Da bedeutende Teile der Bevölkerung noch nicht geimpft sind und sich Covid-19 in der Gruppe der Ungeimpften schnell ausbreitet, besteht nach wie vor das Risiko, dass sich die Hospitalisierungsrate in den kommenden Wochen stark erhöht. Allerdings besteht neben einem erneuten Shutdown nun auch die Möglichkeit, den Zugang zu kontaktintensiven Dienstleistungen nur für Geimpfte und Genesene zu erlauben (2G). In diesem Fall sind Wertschöpfungsverluste von 13 Milliarden Euro zu erwarten – verglichen 52 Milliarden Euro im Falle eines erneuten Shutdowns wie im vergangenen Winter.

„Lieferengpässe haben einige Branchen hart getroffen und dämpfen die wirtschaftliche Erholung“, sagt RWI-Konjunkturchef Torsten Schmidt. Er fügt hinzu: „Es bestehen nach wie vor große Risiken in Bezug auf den weiteren Verlauf der Pandemie und die Auslastung des Gesundheitssystems. Ein weiterer Lockdown ist unbedingt zu vermeiden. Aus wirtschaftlicher Sicht wäre es besser, stärker auf das 2G-Modell zu setzen, insbesondere in Regionen mit stark ausgelasteten Kliniken.“

Dieser Pressemitteilung liegt der RWI-Konjunkturbericht 3/2021 zugrunde. Weitere Informationen zur RWI-Konjunkturberichterstattung: http://www.rwi-essen.de/forschung-und-beratung/wachstum-konjunktur-oeffentliche-….

Ihre Ansprechpartner/in dazu:
Prof. Dr. Torsten Schmidt, torsten.schmidt@rwi-essen.de, Tel.: (0201) 8149-287,
Sabine Weiler (Kommunikation), sabine.weiler@rwi-essen.de, Tel.: (0201) 8149-213

Wissenschaftliche Ansprechpartner:
Prof. Dr. Torsten Schmidt, torsten.schmidt@rwi-essen.de, Tel.: (0201) 8149-287

Originalpublikation:
https://www.rwi-essen.de/presse/mitteilung/450/
RWI-Konjunkturbericht Jahrgang 72 (2021), Heft 3, Die wirtschaftliche Entwicklung im Ausland und im Inland zur Jahresmitte 2021

Weitere Informationen:
https://www.rwi-essen.de/kb – Hier finden Sie die RWI-Konjunkturberichte auf der RWI-Homepage

(nach oben)


Seegraswiesen als Vibrionen-Fänger – Kieler Forschende beweisen eine weitere Leistung des Ostsee-Ökosystems

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Sie helfen, den Klimawandel zu mindern und Algenblüten zu verhindern – und sie können laut neuesten Forschungsergebnissen auch die Konzentrationen potenziell gesundheitsschädlicher Bakterien im Meerwasser senken: Seegraswiesen erbringen einer jetzt veröffentlichten Studie von Kieler Forschenden zufolge eine weitere Ökosystemleistung für uns Menschen. Die Ergebnisse liefern einen weiteren Anreiz für den Schutz und die Wiederherstellung dieser lange unterschätzen Ökosysteme in der deutschen Ostsee.

Schon länger ist bekannt, dass Seegraswiesen Nährstoffe aufnehmen und so die Überdüngung der Meere und damit Algenblüten verhindern können. Außerdem wird auch zunehmend ihre wichtige Rolle als mariner Kohlenstoffspeicher wahrgenommen, wodurch sie dem Treibhauseffekt entgegenwirken können. Ein Team aus Forschenden des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel hat in einer jetzt in der Fachzeitschrift Marine Biology veröffentlichten Studie nachgewiesen, dass heimische Seegraswiesen auch die Wasserqualität in Bezug auf potenziell gefährliche Bakterien verbessern können: Wasser aus den dicht bewachsenen untermeerischen Flächen enthält weniger Vibrionen – natürlich vorkommende Bakterien, die in hohen Konzentrationen gesundheitsschädlich sein können.

An fünf Standorten der Kieler Bucht nahmen Taucher gezielt Wasserproben aus bewachsenen und vegetationsfreiem Sandgrund. Im Labor wurden diese auf einer mit Nährlösung bestrichenen Platte aufgebracht. Nach einigen Tagen wurden die sich bildenden Vibrio-Kolonien gezählt. Die Analysen zeigten, dass Wasser aus Seegraswiesen im Vergleich zu unbewachsenen Flächen durchschnittlich von 39 Prozent weniger Vibrionen und 63 Prozent weniger des potenziell gesundheitsschädlichen Typs Vibrio vulnificus/cholerae enthielt.

Der zugrundeliegende Wirkmechanismus soll zukünftig genauer untersucht werden. „Denkbar ist sowohl, dass die erhöhte Sedimentation in der dichten Wiese zum Absetzen feiner Partikel führt, an welchen auch Vibrionen anhaften“, erklärt Professor Thorsten Reusch, Meeresbiologe am GEOMAR und Leiter der Studie. „Aber es könnte auch sein, dass chemische Substanzen aus den Seegrasblättern das Wachstum der Bakterien hemmen.“

„Unsere Pilotstudie war motiviert von einer Science-Veröffentlichung aus dem Jahr 2017, die für tropische Wiesen eine Reduktion von Korallen- und Humanpathogenen überall dort gezeigt hat, wo dichte Seegraswiesen zwischen menschlichen Siedlungen und Riffen wachsen“, so Prof. Thorsten Reusch. „Nun konnten wir ähnliche Funktionen erstmals für unsere heimischen Gewässer nachweisen.“

Die neuen Ergebnisse sind von besonderer Bedeutung, weil alle Klimamodelle für die Zukunft eine überdurchschnittliche Erwärmung in Verbindung mit einer Aussüßung der Ostsee vorhersagen. „Dies sind exakt die Umweltbedingungen, die zur weiteren Ausbreitung von Vibrionen auch an Badestränden im Sommer führen werden“, so Professorin Ute Hentschel Humeida, Mikrobiologin am GEOMAR und Koautorin der Publikation. Die Studie unterstreicht außerdem die entscheidende Bedeutung von Seegraswiesen als naturbasierte Lösung für die Gesundheit von Flachwasser-Ökosystemen und ihrer Wasserqualität. Damit liefert sie weitere Anreize für den Schutz und die Wiederherstellung dieser lange unterschätzten Küstenökosysteme.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Reusch treusch@geomar.de

Originalpublikation:
Reusch, T.B.H., Schubert, P.R., Marten, S.M. Gill, D., Karez, R., Busch, K., Hentschel, U, (2021): Lower Vibrio spp. abundances in Zostera marina leaf canopies suggest a novel ecosystem function for temperate seagrass beds. Marine Biology, doi: https://doi.org/10.1007/s00227-021-03963-3

(nach oben)


Kostengünstige und netzfreundliche Erzeugung von Wasserstoff aus regenerativen Energiequellen im H2Giga-Projekt HyLeiT

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Grüner Wasserstoff zu wirtschaftlichem Preis
Forscher der Professur Leistungselektronik der TU Dresden erforschen die kostengünstige und netzfreundliche Erzeugung von Wasserstoff aus regenerativen Energiequellen in dem H2Giga-Projekt HyLeiT

Der Klimawandel ist eine der größten Herausforderungen unserer Zeit. Das Erreichen der Klimaneutralität in Deutschland bis zum Jahr 2045 erfordert eine Transformation in nahezu allen Lebensbereichen. Erneuerbare Energien werden zukünftig das Rückgrat moderner Volkswirtschaften darstellen. Häufig müssen etablierte Technologien, die auf der Verbrennung fossiler Brennstoffe basieren, durch elektrische Alternativen ersetzt werden. Dies wird besonders beim Thema Elektromobilität deutlich.

In der Praxis können jedoch nicht alle Prozesse auf die Nutzung energiereicher Brennstoffe verzichten. So sind zum Beispiel die Stahlindustrie oder der Flugverkehr auf energiereiche Brennstoffe angewiesen. Gleichzeitig stellt die hohe Volatilität, also die intensiven Schwankungen regenerativer Energiequellen, die Elektroenergieversorgung vor große Herausforderungen. Für beide Probleme stellt die Erzeugung von Grünem Wasserstoff eine attraktive Lösung dar.

So kann mit überschüssiger Elektroenergie Wasserstoff erzeugt und als regenerativer Brennstoff verwendet werden. Allein in Deutschland wird der zukünftige jährliche Wasserstoff-Bedarf mehrere Hundertmillionen Tonnen betragen. Das Thema Wasserstoff stellt für die deutsche Industrie eine große Chance dar, die Zukunft zu gestalten. Notwendig sind effiziente, langlebige, robuste, kostengünstige, skalierbare und netzfreundliche Elektrolyseanlagen.

Die Energieversorgung stellt eine zentrale Komponente einer Wasserstoff-Elektrolyse-Anlage dar. Das Ziel des H2Giga-Projektes HyLeiT ist eine neue Generation von Elektrolyse-Stromrichtern und elektrischer Systemtechnik für die Wasserstoff-Elektrolyse. Im Vergleich zu dem heutigen Stand der Technik sollen durch neue Technologien die Systemkosten der Elektrotechnik vom Netzanschlusspunkt bis zum DC-Anschluss am Elektrolyseur halbiert, sowie Zuverlässigkeit, Sicherheit und Elektroenergiequalität erhöht werden. Dabei sind die gesamte Wirkungskette vom elektrischen Netz bis zur Gasverteilung, die Einbettung in Szenarien mit 100% regenerativer Energie und die weltweite Einsetzbarkeit zu berücksichtigen.

In dem H2Giga-Projekt HyLeiT arbeiten Akteure aus Wissenschaft und Industrie eng zusammen, um eine praxisnahe Forschung und Entwicklung zu gewährleisten. Zu den Projektpartnern gehören das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE (Projektkoordinator), die SMA Solar Technology AG, die Infineon Techno-logies AG, die Technische Universität Dresden und die Hochschule Bonn-Rhein-Sieg. Das H2Giga-Projekt HyLeit wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Der TU Dresden werden dazu etwa 3,6 Millionen Euro zur Verfügung gestellt.

HyLeit ist Teil des Leitprojekts H2Giga. Insgesamt drei Wasserstoff-Leitprojekte des BMBF leisten einen zentralen Beitrag zur Umsetzung der Nationalen Wasserstoffstrategie der Bundesregierung. In Summe bilden diese die größte Förderinitiative des Bundesforschungsministeriums zum Thema Energiewende überhaupt. Sie setzen somit einen entscheidenden Impuls für Deutschlands Einstieg in die Wasserstoffwirtschaft.

Drei Professuren der elektrischen Energietechnik der TU Dresden sind an dem H2Giga-Projekt HyLeit beteiligt. An der Professur Leistungselektronik wird an einer neuen Generation von Elektrolysegleichrichtern geforscht, die sich durch reduzierte Kosten sowie eine Erhöhung der Effizienz, Leistungsdichte und Energiequalität auszeichnen. Dieser im Gesamtprojekt wichtige Teilaspekt stellt einen wichtigen Schritt auf dem Weg zu einer technisch und wirtschaftlich optimierten Lösung der Elektrolyse-Energieversorgung dar. Zur Erhöhung der Effizienz und Zuverlässigkeit forscht die Professur Hochspannungs- und Hochstromtechnik an der elektrischen Verbindungstechnik in Elektrolysegleichrichtern. Dabei stehen insbesondere die thermische Auslegung sowie Untersuchungen zum Kontakt- und Langzeitverhalten im Vordergrund. Die Professur für Elektroenergieversorgung untersucht neuartige Schutzkonzepte für die elektrische Systemtechnik. Hierzu müssen Fehler zuverlässig erkannt und selbständig geklärt werden, wodurch die Robustheit des Systems steigt. Die ausgezeichnete Abstimmung der Forschungsschwerpunkte und –aufgaben sowie eine enge Kooperation der beteiligten Ingenieure ermöglichen die Erarbeitung eines optimalen Gesamtkonzepts für Topologie und Komponenten.

Über die Wasserstoff-Leitprojekte
In den Wasserstoff-Leitprojekten arbeiten über 240 Partner aus Wissenschaft und In-dustrie zusammen. Im Frühjahr sind die Projekte auf Basis unverbindlicher Förder-Inaussichtstellungen gestartet. Insgesamt wird die Förderung etwa 740 Millionen Euro betragen.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Steffen Bernet
TU Dresden
Professur für Leistungselektronik
E-Mail: steffen.bernet@tu-dresden.de
Tel.: 03514 63-42137

(nach oben)


Die Bekämpfung von Diabetes und Adipositas muss vorrangiges Politikziel werden

Michaela Richter Pressestelle
Deutsche Diabetes Gesellschaft
Keine Krankheit belastet das Sozial- und Gesundheitssystem so sehr wie Adipositas – noch nicht einmal die Coronapandemie. Der im Bundestag beratene Gesetzentwurf zur Weiterentwicklung der Gesundheitsversorgung (GVWG) sieht nun die Einführung eines DMP Adipositas vor. Allerdings drängt die Zeit: Daher empfiehlt die Deutsche Diabetes Gesellschaft (DDG), bei der Ausgestaltung des neuen DMP Adipositas bestehende Strukturen und Expertise aus dem DMP für Typ-2-Diabetes zu nutzen. Außerdem müssen in der nächsten Legislaturperiode endlich auch Maßnahmen zur Primärprävention von Übergewicht wie eine gesunde Mehrwertsteuer oder eine verbindliche Ampelkennzeichnung eingeführt werden.

Jeder zweite Erwachsene in Deutschland ist übergewichtig, jeder vierte adipös. Weltweit hat sich in den letzten Jahrzehnten die Zahl der übergewichtigen Menschen erhöht, in Deutschland sogar verdreifacht. Grund dafür ist laut Professor Dr. med. Matthias Blüher, Vorstandsmitglied der DDG und Direktor des Helmholtz Instituts für Metabolismus-, Adipositas- und Gefäßforschung des Helmholtz Zentrums München an der Universitätsmedizin Leipzig, die hierzulande weit verbreitete ungesunde Ernährungsweise, der immobile Lebensstil und die hochtechnisierte Arbeitswelt, die Ernährung und Bewegung zusätzlich negativ beeinflusse.

Über 60 Krankheiten stehen im Zusammenhang mit Übergewicht – allen voran Diabetes, aber auch Krankheiten von Herz und Gefäßen, Leber oder Lunge, Beschwerden des Bewegungs-apparates sowie verschiedene Krebsarten. „Die Adipositas-Welle muss eingedämmt werden, sonst werden wir ganz abgesehen von den individuellen Schicksalen und Problemen auch volkswirtschaftliche Nachteile erleiden“, warnt DDG Präsident Professor Dr. med. Andreas Neu. Denn Adipositas habe dramatische biologische und gesellschaftliche Folgen. Die Fehlzeiten wegen Arbeitsunfähigkeit, aber auch die Zahl der Frühverrentungen steigt bei Menschen mit starkem Übergewicht deutlich an. „30 Milliarden Euro Kosten entfallen jedes Jahr allein auf Gesundheitsmaßnahmen im Zusammenhang mit Adipositas“, so Blüher. Die indirekten Kosten belaufen sich sogar auf 60 Milliarden jährlich.

Das jetzt geplante DMP Adipositas ist ein notwendiger Schritt, um die Versorgung der Menschen mit krankhaftem Übergewicht deutlich zu verbessern und damit auch die Zahl der Neuerkrankungen an Diabetes Typ 2 zu reduzieren. „Viele dachten lange Zeit, man müsse sich doch einfach mehr bewegen und weniger essen“, sagt Blüher. Doch eine Krankheit lasse sich nicht mit Appellen bekämpfen. „Wir müssen verstehen, warum Menschen zu viel essen und sich zu wenig bewegen.“ Um krankmachende Verhaltensmuster aufzubrechen, brauche es ein multimodales Konzept aus Ernährung, Bewegung, Verhaltenstherapie – gegebenenfalls auch einer medikamentösen und chirurgischen Therapie.

„Es ist wichtig, dass das künftige DMP Adipositas genau solche Konzepte bei der Versorgung von Menschen mit starkem Übergewicht unterstützt“, so die Forderung der DDG. Daher sollten bei der Entwicklung des neuen Behandlungsprogramms etablierte Strukturen und Expertise aus dem DMP Diabetes Typ 2 genutzt werden. Damit bekämen Menschen mit Adipositas Zugang zu einer kontinuierlichen, strukturierten und qualitätsgesicherten Therapie. Vor allem die sektorenübergreifende und interdisziplinäre Verzahnung und das wirkungsvolle Zusammenspiel zwischen Ärzteschaft und Diabetes-Beratungsberufen bietet nicht nur optimale Voraussetzungen für die Begleitung von Menschen mit Diabetes, sondern auch mit Adipositas.

Das DMP Adipositas ist ein wichtiger Schritt zur Umsetzung der 2020 verabschiedeten Nationalen Diabetes Strategie. „Unverzichtbar sind aber auch verhältnispräventive Maßnahmen, die sicherstellen, dass Adipositas gar nicht erst auftritt“, betont DDG Geschäftsführerin Barbara Bitzer: Es bedarf einer verbindlichen Lebensmittelkennzeichnung und eines Verbots von Werbung für ungesunde Lebensmittel, die sich an Kinder und Jugendliche richtet. Schon lange fordert die DDG auch die Einführung einer „Gesunden Mehrwertsteuer“, die gesunde Lebensmittel mit geringem Anteil an Zucker, Fetten und/oder Salz steuerlich entlastet, eine Stunde Bewegung am Tag für Kinder und Jugendliche sowie verbindliche Ernährungsstandards für das Essen in Kitas und Schulen. Nur dadurch kann langfristig ein Durchbruch bei der Prävention von Adipositas und Diabetes erzielt werden. „Wie auch immer die künftige Bundesregierung zusammengesetzt sein wird: Ein konkreter Umsetzungsplan für die Bekämpfung dieser Krankheiten muss oberstes Politikziel werden“, so Bitzer.

Link zur Stellungnahme der DDG zum DMP Adipositas vom November 2020:
https://www.deutsche-diabetes-gesellschaft.de/politik/stellungnahmen/stellungnah…

(nach oben)


Schönere Beine, längeres Leben?

Veronika Wagner M.A. Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Forschende der Universitätsmedizin Mainz gewinnen neue Erkenntnisse zur chronischen Venenschwäche – Die chronisch-venöse Insuffizienz (CVI) ist eine Erkrankung der Beinvenen, die zu schweren Venen- und Hautveränderungen bis hin zu chronischen Wunden führen kann. Bislang wurde die Erkrankung vorwiegend als ein ästhetisches und lokales Problem der Venen betrachtet. Jedoch zeigen neue Daten, dass die chronische Venenschwäche mit einem erhöhten Risiko für Herz-Kreislauf-Erkrankungen sowie einer höheren Sterblichkeit einhergeht.

Diese bisher unbekannten Erkenntnisse von Wissenschaftler:innen des Centrums für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz und des Deutschen Zentrums für Herzkreislaufforschung (DZHK) legen nahe, die CVI zukünftig als Vorhersagekriterium für das Auftreten von Herz-Kreislauf-Erkrankungen zu nutzen. Die Ergebnisse der Mainzer Studie wurden jetzt in der Fachzeitschrift „European Heart Journal“ veröffentlicht.

„Unsere Untersuchung ist die erste und umfangreichste bevölkerungsbezogene Studie, die systematisch das gesamte Spektrum der Veneninsuffizienz untersucht und in Verbindung mit etablierten Herz-Kreislauf-Erkrankungen auswertet“, erläutert Dr. Jürgen Prochaska, Oberarzt am Zentrum für Kardiologie der Universitätsmedizin Mainz und Arbeitsgruppenleiter am CTH.

„Wir konnten zeigen, dass die chronisch-venöse Insuffizienz ausgesprochen verbreitet ist: Bei rund 41 Prozent der 40- bis 80-jährigen Probanden der bevölkerungsbasierten Gutenberg-Gesundheitsstudie (GHS) wurde eine symptomatische chronische Venenschwäche mit Ödemen, Hautveränderungen oder offenen Wunden der unteren Gliedmaßen diagnostiziert.“ Die Studiendaten belegen, dass die Häufigkeit der chronisch-venösen Insuffizienz mit zunehmendem Alter deutlich ansteigt. Während bei den 40- bis 50-Jährigen mehr als jeder Fünfte betroffen ist, sind es bei den 70- bis 80-Jährigen sogar mehr als zwei Drittel. Eine weitere Erkenntnis der Studie: Frauen erkranken etwas häufiger als Männer.

Zudem stellte das Mainzer Forscherteam fest, dass Personen mit einer chronisch-venösen Insuffizienz mit einer etwa 60 Prozent höheren Wahrscheinlichkeit gleichzeitig eine schwere Herz-Kreislauf-Erkrankung aufweisen als Personen mit gleichem Alter und Geschlecht ohne CVI. Die Wissenschaftler:innen konnten darüber hinaus zeigen, dass das Risiko, in den nächsten zehn Jahren an einer Herz-Kreislauf-Erkrankung wie Herzinfarkt, Schlaganfall, Herzschwäche oder der Herzrhythmusstörung Vorhofflimmern zu erkranken, bei Personen mit CVI fast doppelt so hoch ist wie bei Personen ohne Zeichen einer Venenschwäche.

„Unsere Daten offenbaren eine weitere alarmierende Erkenntnis“, betont Univ.-Prof. Dr. Philipp Wild, Leiter der Präventiven Kardiologie am Zentrum für Kardiologie der Universitätsmedizin Mainz und Leiter der Klinischen Epidemiologie und Systemmedizin am CTH. „Wir haben in der Studie nachgewiesen, dass die Gesamtsterblichkeit über alle Todesursachen hinweg bei Menschen mit chronisch-venöser Insuffizienz unabhängig von allen anderen Faktoren, wie etwa Alter, Geschlecht, Risikofaktoren und Begleiterkrankungen, deutlich erhöht ist. Dies unterstreicht in Verbindung mit der hohen Verbreitung die Notwendigkeit, die Krankheit ernst zu nehmen und als möglichen Indikator für das Vorliegen einer kardiovaskulären Erkrankung zu nutzen.“ Die Sterblichkeit von Personen mit fortgeschrittener Venenschwäche war im Beobachtungszeitraum von etwas mehr als sechs Jahren um etwa das 1,7-fache höher als bei Personen ohne diese Erkrankung.

Der Direktor des Zentrums für Kardiologie der Universitätsmedizin Mainz, Univ.-Prof. Dr. Thomas Münzel, sieht die gemeinsamen kardiovaskulären Risikofaktoren als eine mögliche Ursache für die Verbindung zwischen arterieller und venöser Erkrankung: „Unsere Daten weisen darauf hin, dass klassische Risikofaktoren für eine Herz-Kreislauf-Erkrankung, beispielsweise Bluthochdruck, Diabetes mellitus, Übergewicht oder Rauchen, zu einer fortgeschrittenen Venenschwäche beitragen. Mit der Diagnose einer chronisch-venösen Insuffizienz sollte daher immer auch nach Risikofaktoren und Herz-Kreislauf-Erkrankungen gesucht werden.“

Die Wissenschaftler:innen teilten die erhobenen Befunde zu den Venenveränderungen systematisch nach Schweregraden ein. Diese reichten von keinen Zeichen einer Venenveränderung bis hin zum Vorliegen einer sehr fortgeschrittenen Veneninsuffizienz. Bei einer deutlichen Mehrheit von rund 90 Prozent zeigte sich eine Venenveränderung: 36,5 Prozent der Personen hatten eine sogenannte Varikosis (z. B. Besenreiser) und 13,3 Prozent wiesen Varizen (Krampfadern) auf. Beides sind Venenveränderungen, die häufig im Laufe des Lebens zu einer fortgeschrittenen Venenschwäche führen. Mit einem Anteil von 40,8 Prozent aller untersuchten Personen wies ein hoher Anteil eine manifeste chronisch-venöse Insuffizienz auf.

Für die Untersuchung wurden die Daten von rund 12.400 Teilnehmenden der Gutenberg-Gesundheitsstudie (GHS) aus Mainz und dem Landkreis Mainz-Bingen sowie von mehr als 2.400 Teilnehmenden der MyoVasc-Studie berücksichtigt. Die Bestimmung des Schweregrads einer Venenveränderung wurde mittels standardisierter digitaler Bildaufnahme, einer klinischen Untersuchung der Beine und per Befragung zu typischen Symptomen erhoben. Zudem lagen Daten zu kardiovaskulären Risikofaktoren und Begleiterkrankungen für alle Studienteilnehmenden vor.

Originalpublikation:
Prochaska JH, Arnold N, Falcke A, Kopp S, Schulz A, Buch G, Moll S, Panova-Noeva M, Jünger C, Eggebrecht L, Pfeiffer N, Beutel M, Binder H, Grabbe S, Lackner KJ, Ten Cate-Hoek A, Espinola-Klein C, Münzel T, Wild PS. Chronic venous insufficiency, cardiovascular disease, and mortality: a population study. Eur Heart J. 2021 Aug 13:ehab495. Online ahead of print. PMID: 34132336.
DOI: 10.1093/eurheartj/ehab495

Kontakt:
Univ.-Prof. Dr. Philipp Wild, Zentrum für Kardiologie und Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz, Telefon 06131 17-7439,
E-Mail: philipp.wild@unimedizin-mainz.de

Pressekontakt:
Veronika Wagner M.A., Unternehmenskommunikation, Universitätsmedizin Mainz,
Telefon: 06131 17-8391, E-Mail: pr@unimedizin-mainz.de

Über die Gutenberg-Gesundheitsstudie (GHS):
Die Gutenberg Gesundheitsstudie (GHS) ist eine interdisziplinäre, populationsbasierte, prospektive, monozentrische Kohorten-Studie, die seit 2007 an der Universitätsmedizin Mainz durchgeführt wird. Bei der GHS handelt es sich um eine der weltweit größten Studien ihrer Art, in die über 15.000 Frauen und Männer aus der rheinland-pfälzischen Landeshauptstadt und dem Landkreis Mainz-Bingen im Alter zwischen 35 und 74 Jahren eingeschlossen wurden. Im Rahmen der Studie werden Herz-Kreislauf-Erkrankungen, Krebserkrankungen, Augenerkrankungen, metabolische Erkrankungen sowie Erkrankungen des Immunsystems und der Psyche untersucht. Ziel der Studie ist es, die Risikovorhersage für den Einzelnen für diese Erkrankungen zu verbessern. Hierzu werden Lebensstil, psychosoziale Faktoren, Umwelt, laborchemische Parameter sowie das Ausmaß der subklinischen Erkrankung berücksichtigt. Eine umfangreiche Biomaterialbank ermöglicht molekularbiologische Untersuchungen, unter anderem auch in einem systembiologischen Ansatz. Weitere Informationen im Internet unter www.gutenberg-gesundheitsstudie.de

Über die MyoVasc-Studie
Die MyoVasc-Studie ist eine epidemiologische, prospektive Kohortenstudie zur Untersuchung der Herzinsuffizienz und der Interaktion mit Gefäßerkrankungen. Die Studie wird seit 2012 durch die Präventive Kardiologie und Medizinische Prävention (Leitung: Univ.-Prof. Dr. Philipp Wild) am Zentrum für Kardiologie der Universitätsmedizin Mainz durchgeführt. Insgesamt werden mehr als 3.200 Personen mit verschiedenen Formen der Herzinsuffizienz und Kontrollpersonen ohne Herzinsuffizienz über jeweils sechs Jahre regelmäßig untersucht. Ziel ist, den Verlauf der Herzinsuffizienz noch besser zu verstehen und Risikofaktoren zu identifizieren. Weitere Informationen im Internet unter Präventive Kardiologie und Medizinische Prävention | MyoVasc (unimedizin-mainz.de)
Über das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK)
Das Bundesministerium für Bildung und Forschung (BMBF) hat im Rahmen seiner Bemühungen, optimale Forschungsbedingungen zur Bekämpfung von Volkskrankheiten zu schaffen, die Deutschen Zentren der Gesundheitsforschung (DZG) gegründet. Eines dieser sechs Zentren ist das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK). Dieses Zentrum setzt sich aus insgesamt 29 Institutionen zusammen, die auf sieben Standorte verteilt sind. Die Ziele des Zentrums sind die Verbesserung von Prävention, Diagnostik und Therapie von kardiovaskulären Erkrankungen. Die Universitätsmedizin Mainz gehört dem Standort RheinMain des DZHK an und hat im Netzwerk den Schwerpunkt in der patientenorientierten Forschung zu kardiovaskulären Erkrankungen.

Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten und jährlich mehr als 300.000 Menschen stationär und ambulant versorgen. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.000 Studierende der Medizin und Zahnmedizin sowie mehr als 600 Fachkräfte in den verschiedensten Gesundheitsfachberufen, kaufmännischen und technischen Berufen werden hier ausgebildet. Mit rund 8.600 Mitarbeitenden ist die Universitätsmedizin Mainz zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter www.unimedizin-mainz.de.

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Philipp Wild, Zentrum für Kardiologie und Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz, Telefon 06131 17-7439,
E-Mail: philipp.wild@unimedizin-mainz.de

Originalpublikation:
Prochaska JH, Arnold N, Falcke A, Kopp S, Schulz A, Buch G, Moll S, Panova-Noeva M, Jünger C, Eggebrecht L, Pfeiffer N, Beutel M, Binder H, Grabbe S, Lackner KJ, Ten Cate-Hoek A, Espinola-Klein C, Münzel T, Wild PS. Chronic venous insufficiency, cardiovascular disease, and mortality: a population study. Eur Heart J. 2021 Aug 13:ehab495. Online ahead of print. PMID: 34132336.

https://doi.org/10.1093/eurheartj/ehab495

(nach oben)


Ökoeffizientes Düngen schont Natur, Gesundheit und Geldbeutel

Dr. Katharina Baumeister Corporate Communications Center
Technische Universität München
Harnstoff ist ein wertvoller Stickstoff-Dünger und wird in der Landwirtschaft regelmäßig zur Düngung großer Ackerflächen genutzt. Die Freisetzung von Harnstoff in die Atmosphäre hat jedoch weitreichende Folgen für die Umwelt und die menschliche Gesundheit. Abhilfe schaffen kann der Zusatz von „Urease-Inhibitoren“, die die gasförmigen Ammoniak-Verluste verringern. Ein Forscherteam der Technischen Universität München (TUM) hat berechnet, wie durch den Einsatz ökoeffizienter Dünger Ausgaben in Milliardenhöhe im Umwelt- und Gesundheitsbereich eingespart werden können.

Harnstoff hilft den Pflanzen beim Wachstum. Über die Hälfte aller synthetischen Dünger, die weltweit genutzt werden, basieren auf diesem Stoff, da er einfach zu lagern, transportieren und auszubringen ist. „Harnstoff als Dünger wird jedoch nur in geringem Maße direkt von den Pflanzen aufgenommen. Erst nach seiner Umwandlung in Ammonium oder Nitrat steht er den Pflanzen als Stickstoff-Quelle zur Verfügung“, erklärt Urs Schmidhalter, Professor am Lehrstuhl für Pflanzenernährung der TUM.

Harnstoff tritt in Böden und Gewässer ein
Bei dieser Umwandlung wird Ammoniak freigesetzt, das sich in der Atmosphäre verflüchtigt und auch in tiefere Bodenschichten und damit auch in das Grundwasser eindringt. Das bringt zweierlei Probleme mit sich: Zum einen bedeuten die Stickstoff-Verluste einen hohen finanziellen Aufwand und Ertragseinbußen für die Landwirte, zum anderen sind sie verantwortlich für die Versauerung und Nährstoffanreicherung in Böden und Gewässern.

80 bis 95 Prozent der gesamten Ammoniak-Emissionen in der Europäischen Union waren 2018 auf diese Stickstoff-Verluste zurückzuführen. Synthetische und organische Düngemittel tragen zu den Verlusten wesentlich bei. Aus der Feinstaubbildung von Ammoniak können damit Gesundheitsschäden wie Atemwegserkrankungen sowie Herz-Kreislauf-Erkrankungen entstehen.

Austritt von Ammoniak in die Atmosphäre kann verringert werden
Doch es gibt eine Lösung: Der Zusatz von sogenannten „Urease-Inhibitoren“ verringert die gasförmigen Ammoniak-Verluste. Diese Enzyme werden dem Düngemittel beigemischt und blockieren die Urease-Enzyme für einen gewissen Zeitraum, der für die Umwandlung von Harnstoff in Ammonium und Kohlendioxid nötig ist. „Studien haben gezeigt, dass solche Urease-Inhibitoren die Emissionen um 50 bis 80 Prozent reduzieren können. Statt sich in der Atmosphäre zu verflüchtigen steht also eine deutlich größere Stickstoff-Menge den Pflanzen zur Ertragsbildung zur Verfügung“, sagt Schmidhalter.

Deutschland ist das erste Land, das den Zusatz von Urease-Inhibitatoren zu granuliertem Harnstoff durch die nationale Düngemittelverordnung 2020 bereits vorschreibt. Die Europäische Union verlangt bis 2030 verpflichtend eine Reduktion von Ammoniak-Emissionen von allen Mitgliedsländern.

Ökoeffizientes Düngen als kostengünstige Schutzmaßnahme
Ein Forscherteam des Lehrstuhls für Pflanzenernährung an der TUM hat nun ein Konzept erstellt, um den gesellschaftlichen und ökologischen Nutzen des Einsatzes solcher Urease-Inhibitoren zu berechnen. Dabei errechnen sie einen Nutzen der Harnstoff-Emissionsminderung für die Ökosysteme und die menschliche Gesundheit von durchschnittlich 17,5 Euro pro Kilogramm Harnstoff-Ausstoß. Die Kosten für den Harnstoffdünger erhöhen sich dabei nur um rund 10 Prozent, welches Mehrkosten von weniger als 10 Cent pro Kilogramm Stickstoff entspricht.

„Die Kosten-Nutzen Abschätzung für die Maßnahmen zur Verringerung des Harnstoff-Ausstoßes wird es den politischen Entscheidungsträgern ermöglichen, die spezifischen Maßnahmen umzusetzen“, meinen Schmidhalter und sein Mitarbeiter Privatdozent Yuncai Hu. Ihre Berechnungen sind auch für andere Regionen weltweit hilfreich. Während die Europäische Union 5 Prozent der weltweiten Harnstoff-Emissionen produziert, sind China für 30 Prozent, Indien für 24 Prozent und die USA für weitere 5,4 Prozent verantwortlich.

„Für das Jahr 2018 betragen die für Deutschland berechneten Kosteneinsparungen bei Einsatz von Urease-Hemmstoffen 0,3 Milliarden Euro, für Europa 3 Milliarden, für China 9 Milliarden und für die ganze Welt 63 Milliarden Euro. Wir haben diese Zahlen ergänzend zum Artikel berechnet und die allerneuesten Informationen mit einbezogen“, sagt Prof. Schmidhalter.

Der Einsatz von Urease-Hemmstoffen stellt laut Schmidhalter die kostengünstigste Maßnahme zur Reduktion von Ammoniak-Emissionen aus der Landwirtschaft dar. „Weitere Einsparungen, insbesondere aus der Tierhaltung, werden sehr viel kostenintensiver sein“, begründet Schmidhalter.

Wissenschaftliche Ansprechpartner:
Prof. Urs Schmidhalter
TUM School of Life Sciences
Lehrstuhl für Pflanzenernährung
Tel: 08161/ 71-3391
E-Mail: schmidhalter@wzw.tum.de

Originalpublikation:
Yuncai Hu und Urs Schmidhalter (2021): Urease inhibitors: opportunities for meeting EU national obligations to reduce ammonia emission ceilings by 2030 in EU countries. Environ. Res. Lett. 16 084047. URL: https://iopscience.iop.org/article/10.1088/1748-9326/ac16fe

Weitere Informationen:
https://mediatum.ub.tum.de/1624250 (Bildmaterial)
https://www.wzw.tum.de/index.php?id=2 (TUM School of Life Sciences)
https://www.hef.tum.de/startseite/ (Hans-Eisenmann-Forum für Agrarwissenschaften an der TUM)

(nach oben)


Warum uns mit dem Alter Wörter schlechter einfallen

Bettina Hennebach Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kognitions- und Neurowissenschaften
Wenn wir älter werden, fällt es uns zunehmend schwerer, im entscheidenden Moment die richtigen Wörter parat zu haben – und das, obwohl unser Wortschatz im Laufe des Lebens eigentlich kontinuierlich anwächst. Bislang war unklar, woran das liegt. Forscherinnen das Max-Planck-Instituts für Kognitions- und Neurowissenschaften und der Universität Leipzig haben nun herausgefunden: Es sind die Netzwerke im Gehirn, die ihre Kommunikation im Laufe der Zeit verändern. Das macht sie ineffizienter.

Untersucht haben die Forscher diese Zusammenhänge mithilfe von zwei Gruppen – jüngeren StudienteilnehmerInnen zwischen 20 und 35 Jahren und älteren zwischen 60 und 70 Jahren. Beide Gruppen sollten im MRT-Scanner Wörter nennen, die zu bestimmten Kategorien gehören, darunter Tiere, Metalle oder Fahrzeuge.
Dabei wurde deutlich: Beide Altersgruppen waren zwar gut darin, Begriffe zu finden. Die Jüngeren waren jedoch etwas schneller. Der Grund dafür könnte in den unterschiedlichen Hirnaktivitäten liegen. Bei den Jüngeren waren zum einen nicht nur die Sprachareale selbst aktiver. Bei ihnen zeigte sich auch ein intensiverer Austausch innerhalb zwei entscheidender Netzwerke: Dem Netzwerk für das semantische Gedächtnis, in dem Faktenwissen abgespeichert ist, und dem exekutiven Netzwerk, das für allgemeine Funktionen wie Aufmerksamkeit und Gedächtnis zuständig ist. Bei den Älteren war es umgekehrt. Hier zeigten exekutive Areale stärkere Aktivität, was darauf hinweist, dass die Aufgabe für diese Personen insgesamt schwieriger zu bewältigen war. Außerdem war der Austausch innerhalb der entscheidenden Netzwerke weniger effektiv als bei den Jüngeren. Am ehesten profitierte die ältere Gruppe vom Austausch zwischen den Netzwerken, der ist allerdings mit Einbußen verbunden. „Die Kommunikation innerhalb von neuronalen Netzwerken ist effizienter und damit schneller als zwischen ihnen“, erklärt Sandra Martin, Doktorandin am MPI CBS und Erstautorin der zugrundeliegenden Studie, die jetzt im Fachmagazin Cerebral Cortex erschienen ist.
Warum sich diese Aktivitätsmuster mit dem Alter verschieben, ist bislang nicht vollständig geklärt. Eine Theorie ist, so Martin, dass man sich im Laufe der Jahre mehr auf das Sprachwissen verlasse, das man habe, sodass der Austausch zwischen Netzwerken in den Fokus rückt, während sich jüngere Menschen stärker auf ihr schnelles Arbeitsgedächtnis und kognitive Kontrollprozesse verlassen. „Auf der strukturellen Ebene könnte außerdem der Abbau von grauer Hirnsubstanz eine Rolle spielen, der durch den Austausch zwischen den Netzwerken kompensiert wird“, sagt Martin.

Wissenschaftliche Ansprechpartner:
Sandra Martin, Doktorandin
martin@cbs.mpg.de

Gesa Hartwigsen, Forschungsgruppenleiterin
hartwigsen@cbs.mpg.de

Originalpublikation:
„Age-Dependent Contribution of Domain-General Networks to Semantic Cognition“ in Cerebral Cortex:
https://academic.oup.com/cercor/advance-article/doi/10.1093/cercor/bhab252/63603…

(nach oben)


BAuA stellt Daten zur mentalen Gesundheit bei der Arbeit bereit

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Ab sofort können Wissenschaftlerinnen und Wissenschaftler Daten der Studie zur Mentalen Gesundheit bei der Arbeit (S-MGA) der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) für ihre Forschung nutzen. Dazu stellt das Forschungsdatenzentrum der BAuA einen Scientific Use File zur Verfügung, der Daten aus der ersten und zweiten Befragungswelle der Studie enthält.

Die Studie zur Mentalen Gesundheit bei der Arbeit entstand in Zusammenarbeit zwischen der BAuA, dem Institut für Arbeitsmarkt- und Berufsforschung sowie dem infas Institut für angewandte Sozialwissenschaft. Die Studie untersucht Zusammenhänge zwischen Arbeitsbedingungen, mentaler Gesundheit, Arbeitsfähigkeit und Erwerbsteilhabe im Längsschnitt. Hierfür wurde eine repräsentative Stichprobe von sozialversicherungspflichtig Beschäftigten der Geburtsjahrgänge 1951 bis 1980 in ganz Deutschland wiederholt befragt. An der ersten Welle 2011/12 nahmen 4.511 Befragte teil, von denen 2.637 im Jahr 2017 wiederbefragt werden konnten.

Das Forschungsdatenzentrum der BAuA hat jetzt für die Weitergabe der in beiden Wellen erhobenen Daten an die wissenschaftliche Forschung einen Scientific Use File bereitgestellt. Dazu wurden die Befragungsdaten gezielt anonymisiert. Die dazugehörige umfangreiche Datendokumentation stellt den Inhalt des Datensatzes einschließlich der Aufbereitungs- und Anonymisierungsschritte dar. Die Daten für wissenschaftliche Zwecke stehen kostenfrei zur Verfügung. Den Datenzugang gibt es über einen Antrag an das Forschungsdatenzentrum der BAuA. Dazu schließt das Forschungsdatenzentrum einen Vertrag mit den Nutzenden über die Rechte und Pflichten bei der wissenschaftlichen Auswertung. Weiterführende Informationen zum Datensatz und zum Datenzugang finden sich auf der Homepage der BAuA unter www.baua.de/fdz

Das Forschungsdatenzentrum der BAuA, das der Rat für Sozial- und Wirtschaftsdaten im Juli 2021 akkreditierte, stellt darüber hinaus weitere Daten aus der Forschung der BAuA zur Verfügung.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 750 Beschäftigte.
www.baua.de

(nach oben)


Neues Fact Sheet zu Erkenntnissen zum Klimawandel im Ostseeraum

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Wie verläuft der Klimawandel in der Ostsee und was sind mögliche Auswirkungen auf die Meeresumwelt? Baltic Earth und HELCOM haben jetzt eine Zusammenfassung der aktuellen Forschungsergebnisse in Form eines kompakten Faktenblatts (Climate Change Fact Sheet) herausgegeben. Das Fact Sheet wurde am Freitag, 3. September 10:00 bis 12:00, im Rahmen einer virtuellen Pressekonferenz veröffentlicht.

Programm der Pressekonferenz
1. Vorstellung des Baltic Sea Climate Change Fact Sheets
2. Präsentation der wichtigsten Ergebnisse zum Klimawandel in der Ostsee
3. Fragen und Antworten mit Medienvertretern und Expertinnen und Experten aus dem Bereich Klimawandel von Baltic Earth und HELCOM

Grundlage für Entscheidungsträger und Information für die Öffentlichkeit
„Das Fact Sheet richtet sich vor allem an politische Entscheidungsträger, damit sie eine wissenschaftsbasierte und dabei gut verständliche Übersicht darüber erhalten, wie sich der Klimawandel bereits jetzt schon auf die Ostsee auswirkt und was wir für die Zukunft erwarten“, sagt Prof. Markus Meier vom Leibniz-Institut für Ostseeforschung Warnemünde und Vorsitzender der Baltic Earth Steuergruppe, der das Fact Sheet als führender Experte für den Klimawandel in der Ostseeregion zusammen mit einer internationalen Expertengruppe erarbeitet hat. „Mit dem Fact Sheet wollen wir Entscheidungsträgern helfen, sich in verständlicher Form über den aktuellen wissenschaftlichen Kenntnisstand zum Klimawandel und seinen Auswirkungen auf die marine Umwelt zu informieren“, sagt Jannica Haldin, die bei HELCOM die Arbeit zum Klimawandel leitet.

Das inhaltlich umfassende, kompakte und für Laien verständliche Fact Sheet ist eine Fortsetzung und Zusammenfassung der beiden bisherigen Ostsee-Klimaberichte (BACC), die sich als regionale Gegenstücke zu den global angelegten Berichten des Weltklimarates IPCC verstehen. „Die Erkenntnisse aus den BACC-Büchern von 2008 und 2015 sind weitestgehend immer noch gültig, und auch die neuen Baltic Earth Assessment Reports (BEAR) haben zur Erarbeitung des Fact Sheets beigetragen“, sagt Marcus Reckermann vom Internationalen Baltic Earth Sekretariat am Helmholtz-Zentrum Hereon. „So können sich auch interessierte Bürgerinnen und Bürger zu diesem Thema informieren“, so Reckermann.

Wassertemperaturen und Meeresspiegel steigen, Eisbedeckung nimmt ab
Das Faktenblatt zeigt auf, dass die Wassertemperatur und der Meeresspiegel in der Ostsee ansteigen und die Meereisbedeckung abnimmt, was wiederum Auswirkungen auf Ökosysteme und Meerestiere, aber auch auf die maritime Wirtschaft wie Schifffahrt, Fischerei und Aquakultur hat: „Die Wassertemperaturen der Ostsee sind in den letzten 100 Jahren deutlich angestiegen und werden im 21. Jahrhundert voraussichtlich weiter ansteigen“, führt Ozeanograph Meier aus und fügt hinzu, dass laut aktuellen Modellberechnungen die Ostsee bis zum Ende des Jahrhunderts in weiten Teilen im Durchschnitt eisfrei sein werde.

Das gemeinsam von Baltic Earth und HELCOM entwickelte Fact Sheet enthält Informationen über 34 Parameter, von der Luft- und Wassertemperatur bis hin zu den Ökosystemleistungen der Meere und Küsten, aufgeteilt in verschiedene Kategorien: Energie- und Wasserkreislauf, Kohlen- und Nährstoffkreislauf, Meeresspiegel und Windbedingungen, Biota und Ökosysteme, sowie menschliche Aktivitäten. Rund 100 Experten aus dem gesamten Ostseeraum waren im speziell für die Erstellung dieses Faktenblatts gebildeten Expertennetzwerks für den Klimawandel (EN CLIME) beteiligt. Es ist geplant, das Faktenblatt alle sieben Jahre zu aktualisieren.

Über Baltic Earth
Baltic Earth ist ein internationales wissenschaftliches Netzwerk, das ein verbessertes Verständnis des Erdsystems der Ostseeregion anstrebt als Grundlage für ein wissenschaftsbasiertes Management angesichts der Auswirkungen von Klima, Umwelt und Mensch in der Region. Baltic Earth wirddurch das Internationale Baltic Earth Sekretariat am Helmholtz-Zentrum Hereon koordiniert.
https://baltic.earth

Über HELCOM
Die Kommission für den Schutz der Meeresumwelt der Ostsee – auch bekannt als Helsinki-Kommission oder HELCOM – ist eine zwischenstaatliche Organisation, die 1974 gegründet wurde, um die Meeresumwelt der Ostsee vor Verschmutzungsquellen zu schützen. Ihre Mitglieder sind die neun Ostseeanrainerstaaten und die Europäische Union.
https://www.helcom.fi

Wissenschaftliche Ansprechpartner:
Für das Climate Change Fact Sheet und Baltic Earth:
Dr. Marcus Reckermann
Baltic Earth Sekretariat
Helmholtz-Zentrum Hereon
+49 (0)4152 87-1693
marcus.reckermann@hereon.de

Für HELCOM:
Dominik Littfass
HELCOM
dominik.littfass@helcom.fi
+358 40 647 3996

Weitere Informationen:
https://helcom.fi/ccfs-launch Anmeldung zur Pressekonferenz
https://helcom.fi/wp-content/uploads/2021/08/CCFS-embargoed.zip Climate Change Fact Sheet Medienvorschau

(nach oben)


Kopfschmerztag 2021: Auswirkungen des Corona-Lockdowns auf Patientinnen und Patienten mit primären Kopfschmerzen

Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.
Eine in Deutschland durchgeführte Studie [1] untersuchte, welche Auswirkungen der Lockdown auf Patientinnen und Patienten mit primären Kopfschmerzerkrankungen hatte. Es wurden die Einträge der Studienteilnehmenden in ein digitales Kopfschmerztagebuch analysiert. Zwar gaben viele eine anfängliche Stressreduktion durch den Lockdown an, aber es gab keine langfristigen positiven Auswirkungen auf die primären Kopfschmerzerkrankungen. Eine ähnliche Erhebung [2], die in Italien an Patientinnen/Patienten mit Migräne durchgeführt worden war, ergab, dass womöglich die Stressreduktion durch die Arbeit im Homeoffice positive Effekte hatte.

Am 5. September ist Kopfschmerztag. Ziel des Aktionstags ist, auf die häufig unterschätzten Kopfschmerzerkrankungen und das Leiden der Betroffenen hinzuweisen. Aktuell untersuchten zwei Erhebungen, wie es Kopfschmerzpatientinnen und -patienten im Lockdown ergangen ist.

Eine Studie [1] analysierte die Daten von deutschen Patientinnen und Patienten mit primären Kopfschmerzerkrankungen, die ein digitales Kopfschmerztagebuch mit der App „M-sense“ führten und die in den 28 Tagen vor dem Lockdown sowie in den ersten 28 Tag des Lockdowns regelmäßig ihre Daten eingepflegt hatten. Insgesamt konnten die Daten von 2.325 App-Nutzerinnen und -Nutzern ausgewertet werden. Analysiert wurden mögliche Veränderungen im Hinblick auf die monatlichen Kopfschmerztage, die monatlichen Migränetage, der akuten Bedarfsmedikation und der Schmerzintensität. Außerdem wurde erfasst, ob sich Schlafdauer, Schlafqualität, Lebensenergie, Gemütszustand, Stress- und Aktivitätslevel im Lockdown verändert hatten.

Im Ergebnis zeigte sich, dass es keinen signifikanten Unterschied im Hinblick auf die Kopfschmerztage gab (7,01 ± 5,64 vor dem Lockdown vs. 6,89 ± 5,47 währenddessen, p>0,999). Auch in Bezug auf die monatlichen Migränetage und die Schmerzintensität konnte kein Unterschied festgestellt werden. Allerdings hatte sich die Anzahl der Tage, an denen die Betroffenen eine Akuttherapie benötigten, signifikant reduziert – von 4,50 ± 3,88 auf 4,27 ± 3,81 (p < 0.001). Auch berichteten die App-User einen geringeren Stress- und Aktivitätslevel sowie längere Schlafzeiten, bessere Laune und mehr Energie. „Demnach war der Lockdown in einem gewissen Umfang positiv für Menschen mit Kopfschmerzerkrankungen. Es ist bekannt, dass es einen Zusammenhang zwischen hoher Arbeitsbelastung, mangelnder Erholung und Kopfschmerzen gibt, und offensichtlich führte der Lockdown dazu, dass die Betroffenen etwas ‚herunterfahren‘ konnten. Viele Arbeitnehmerinnen und Arbeitnehmer waren in Kurzarbeit und bei den anderen fielen die Wegezeiten zur Arbeit weg, was zu mehr Freizeit führte, außerdem dauerte es oft mehrere Tage oder gar Wochen, bis eine funktionierende Homeoffice-Infrastruktur etabliert war und sie in gewohnter Weise weiterarbeiten konnten“, erklärt Prof. Peter Berlit, Generalsekretär der DGN.

Allerdings war der positive Effekt nicht nachhaltig: In einer weiterführenden Analyse der Daten von 439 der Nutzerinnen und Nutzer wurden die monatlichen Kopfschmerztage, die monatlichen Migränetage, die akute Bedarfsmedikation und die Schmerzintensität dann erneut nach drei Monaten erhoben und mit den Ausgangswerten von vor dem Lockdown verglichen. Es zeigte sich, dass es nun keinerlei Unterschiede mehr gab, auch nicht in Bezug auf die Akutmedikation. Die Autorinnen und Autoren schlussfolgern, dass die anfängliche Stressreduktion durch den Lockdown keine langfristigen Auswirkungen auf die primären Kopfschmerzerkrankungen hatte. „Womöglich brachte der Lockdown neue Stressoren mit sich, durch das Homeschooling, die soziale Isolation oder auch durch Zukunftsängste und finanzielle Sorgen“, erklärt Prof. Berlit weiter.

Eine ähnliche Erhebung [2] war in Italien an Migränepatientinnen und -patienten mittels eines E-Mail-Fragebogens durchgeführt worden. 92 Betroffene nahmen an der Umfrage teil. Die Attackenhäufigkeit war bei 40,2% der Befragten während des Lockdowns konstant geblieben, bei 33,7% hatte sie sich erhöht, bei 26,1% reduziert. Die Dauer der Attacken war bei 55,4% gleichgeblieben, bei 23,9% war sie länger geworden, bei 20,7% hatte sie sich verkürzt. Der Migräneschmerz war bei 65,2% gleich oder vermindert, bei 34,8% hatte die Schmerzintensität zugenommen. Die Wirksamkeit der Migränemedikamente gaben 73,9% der Befragten mit gleich gut an, 17,4% nahmen sie als vermindert wahr, 8,7% als verbessert. Zusammenfassend hatte der Lockdown in dieser Erhebung bei ca. der Hälfte der Patientinnen und Patienten keinerlei Auswirkungen, bei einem Viertel führte er zu Verbesserungen, bei einem anderen Viertel zu Verschlechterungen.

Was aber besonders interessant war: Die Arbeitsgruppe analysierte auch Faktoren, die auf die Migräne Einfluss nehmen: Interessant war das Ergebnis, dass die Patientinnen/Patienten, die im Homeoffice arbeiteten, weniger Medikamente benötigten, eine geringere Schmerzintensität hatten sowie eine kürzere Attackendauer. Die Autorinnen und Autoren schlussfolgern, dass das Arbeiten im Homeoffice ein möglicher Weg sein könnte, um die Lebensqualität von Menschen mit Migräne zu verbessern. „Diese Hypothese ist nicht abwegig, denn wir wissen, dass bestimmte Trigger, wie beispielsweise Stress oder Lärm, Migräne-Attacken auslösen. Im Großraumbüro kann man sich dem weniger gut entziehen als im Homeoffice. Auch hat man zuhause immer einen Rückzugsraum und kann sich ‚rausnehmen‘, wenn eine Attacke beginnt, was die Intensität und Länge der Schmerzen günstig beeinflussen kann“, erklärt DGN-Pressesprecher Prof. Dr. Hans-Christoph Diener. „Arbeiten im Homeoffice kann also für Patientinnen und Patienten mit Migräne durchaus sinnvoll sein.“ Weitere Tipps, wie Betroffene mit der Migräne umgehen können, welche attackenauslösenden Faktoren es gibt und wie die Erkrankung durch medikamentöse und nichtmedikamentöse Therapien behandelt werden kann, finden sich im „Migräne-Therapiekompass“ von Prof. Diener [3].

Literatur
[1] Raffaelli, B., Mecklenburg, J., Scholler, S. et al. Primary headaches during the COVID-19 lockdown in Germany: analysis of data from 2325 patients using an electronic headache diary. J Headache Pain 22, 59 (2021).
https://thejournalofheadacheandpain.biomedcentral.com/articles/10.1186/s10194-02…

[2] Currò, C.T., Ciacciarelli, A., Vitale, C. et al. Chronic migraine in the first COVID-19 lockdown: the impact of sleep, remote working, and other life/psychological changes. Neurol Sci (2021).
https://link.springer.com/article/10.1007/s10072-021-05521-7

[3] Diener C. Der Migräne-Therapiekompass. Migräneattacken vorbeugen: Welche Medikamente und andere Therapien wirklich helfen. Trias Verlag. ISBN: 9783432114484

Pressekontakt
Pressestelle der Deutschen Gesellschaft für Neurologie
c/o Dr. Bettina Albers, albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als wissenschaftliche Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren über 10.000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern und zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org

Präsident: Prof. Dr. med. Christian Gerloff
Stellvertretender Präsident: Prof. Dr. Gereon R. Fink
Past-Präsidentin: Prof. Dr. med. Christine Klein
Generalsekretär: Prof. Dr. Peter Berlit
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org

Originalpublikation:
https://doi.org/10.1186/s10194-021-01273-z

(nach oben)


Ganz genau: Präzision für die Energiewende

Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Wie die Forschungsgruppe Photovoltaik der Hochschule Coburg erneuerbare Energien mit genauer Messtechnik unterstützt.

Minimale Abweichungen sind ok. „Aber wenn wir einen Liter Milch kaufen“, sagt Prof. Dr. Bernd Hüttl, „erwarten wir auch einen Liter.“ Nicht ein Tässchen mehr oder weniger. Der Professor für erneuerbare Energien der Hochschule Coburg versteht, dass die Kundschaft es genau nimmt. „Und bei der Photovoltaik wollen die Kunden eben genau wissen, wieviel Strom eine Anlage produziert. Die Banken als Geldgeber wollen es wissen.“ Die Hersteller würden es also gern exakt angeben, aber das ist nicht ganz einfach: Elektrische Parameter können zwar im Labor präzise gemessen werden, aber draußen verändern Wind und Wetter ständig die Bedingungen. Um solche Einflüsse wissenschaftlich zu untersuchen, betreibt die Hochschule Coburg ein Freiluftlabor auf dem Dach. Das Bundesforschungsministerium fördert das Projekt PV-FeldLab unter anderem mit dem Ziel, eine neue Messtechnik zu entwickeln.

Diffuse Strahlung
Das Leistungsverhalten und der Ertrag der Photovoltaik-Anlagen im so genannten Freifeld sollen damit genauso gut analysiert werden können wie im Labor. An dem Projekt arbeiten auch Studierende wie Tamara Beck mit: „Die natürliche Sonnenstrahlung besteht aus direkter, aber auch aus diffuser Strahlung“, erklärt sie. Diffuse Strahlung entsteht durch Streuung an Dunst oder Wolken. Sie dringt schlechter in die Solarmodule ein und reduziert etwas deren Wirkungsgrad, also die Effektivität. „Das muss bei Außenmessungen im Vergleich zu Laborbedingungen berücksichtigt werden.“ In ihrer Bachelorarbeit im Studiengang Energietechnik und Erneuerbare Energien hat Beck analysiert, wie stark die Reduktion der Effizienz bei natürlicher Solarstrahlung tatsächlich ist. „Das wurde erstmals untersucht.“ Hüttl freut sich, dass die Studentin mit den Messergebnissen auf dem Hochschuldach einen mathematischen Faktor bestimmt hat: Er zeigt, wie sich bei klarem Himmel die Energieausbeute einer Photovoltaikanlage durch die diffuse Strahlung reduziert – im Vergleich zur direkten Strahlung unter Laborbedingungen.

Coburg bei der europäischen Photovoltaikkonferenz
Becks Arbeit trägt zur exakten Kalibrierung der Photovoltaikmodule bei und fließt in eine größere Arbeit der Hochschule Coburg ein: Darwin Daume baut das Gesamtsystem zur Messung der elektrischen Leistung von Photovoltaikkraftwerken auf. Der Student hat bereits seinen Bachelor hier absolviert und schreibt nun seine Masterarbeit in Elektro- und Informationstechnik. Daume fügt verschiedene Methoden der Photovoltaikanalyse zu einem neuen Gesamtkonzept zusammen. Gemeinsam mit ihrem Professor präsentieren die Studierenden ihre Ergebnisse bei der EUPVSEC, der größten internationalen Photovoltaik-Konferenz Europas, die jedes Jahr im Herbst stattfindet. „In diesem Jahr leider nicht in Lissabon sondern nur online“, bedauert Hüttl. Er legt auch als Dekan der Fakultät Elektrotechnik und Informatik Wert darauf, dass die Studierenden möglichst viele, spannende Aspekte der Praxis kennen lernen. Im Oktober startet das neue Semester, und wie in den vielen anderen Studiengängen können sich Interessenten für Elektro- und Informationstechnik und für Energietechnik und Erneuerbare Energien im September noch bei der Hochschule Coburg bewerben. Tamara Beck fängt jetzt als Masterandin an. Darwin Daume arbeitet weiter am Messsystem.

Exakte Messung – weniger Ausfälle
„Die Genauigkeit der elektrischen Leistungsbestimmungen hat sich ja schon deutlich verbessert“, sagt Hüttl. Als er 2008 anfing, sich mit Photovoltaik zu beschäftigen, wurde die Leistung mit plus/minus fünf Prozent angegeben. Beim Liter Milch wären das 50 Milliliter mögliche Abweichung. Bei der Photovoltaik konnte die Messunsicherheit inzwischen auf etwa 1,5 Prozent gesenkt werden. „Unser neues Messverfahren wird auch helfen, die Standardisierung von Freifeldmessungen weiterzuentwickeln.“ Kommendes Jahr werde die neue Messmethode gemeinsam mit den Firmen IBC Solar und smart blue im Feld getestet. Alterungen und Fehler der Solarmodule sollen damit in Photovoltaik-Kraftwerken lokalisiert und Fehlertypen identifiziert werden, so dass die Betreiber eventuelle Ausfälle schnell erkennen oder sogar vorher vermeiden können.

(nach oben)


Neue Studie zeigt: Auch ältere Menschen profitieren von einer strikteren Blutdrucksenkung

Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Ende August wurde im „The New England Journal of Medicine“ eine Studie [1] publiziert, die aufhorchen lässt. Demnach erleiden ältere Menschen weniger Herz- und Gefäßerkrankungen, wenn ihr systolischer Blutdruckwert konsequent unter 130 mm Hg gesenkt wird. Im Vergleich zu Gleichaltrigen, deren Blutdruckwerte darüber lagen, war in der Gruppe der strikt eingestellten Patientinnen und Patienten die kardiovaskuläre Sterblichkeit um ein Viertel geringer und die Schlaganfallrate konnte sogar um ein Drittel gesenkt werden. Das Brisante an dem Ergebnis: Die europäischen Leitlinien der EHS/ESC empfehlen, bei über 65-Jährigen die systolischen Werte nicht unter 130 mm Hg zu senken. Zeit für ein Update?

Eine große chinesische Studie [1] mit mehr als 8.500 Teilnehmenden im Alter zwischen 60 und 80 Jahren verglich den Effekt einer strikteren Blutdrucksenkung (systolische Werte zwischen 110-130 mm Hg) mit dem einer weniger konsequenten (Werte zwischen 130-150 mm Hg) im Hinblick auf verschiedene kardiovaskuläre Endpunkte, darunter die kardiovaskuläre Sterblichkeit, das akute Koronarsyndrom, akute dekompensierte Herzinsuffizienz, Vorhofflimmern und Schlaganfall. Während des Follow-ups (im Median 3,34 Jahre) erlebten 147 Patientinnen und Patienten in der intensiv behandelten Gruppe einen der kardiovaskulären Endpunkte, in der Placebogruppe waren es lediglich 196 (p=0,007). Die HR (Hazard Ratio) betrug 0,74: Die striktere Blutdruckeinstellung konnte also jedes viertes Ereignis verhindern.

Betrachtetet man die einzelnen Endpunkte gesondert, war der Effekt bei einigen deutlich größer als bei anderen. Die Rate akuter Dekompensation der chronischen Herzinsuffizienz, ein u.U. lebensbedrohlicher Notfall, bei dem der Körper nicht mehr in der Lage ist, die Herzschwäche auszugleichen, war in der Gruppe der strikt eingestellten Patientinnen und Patienten auf ein Drittel reduziert (HR: 0,27) – zwei von drei kardialen Dekompensationen konnten also verhindert werden. Auch der Effekt der strikteren Blutdruckeinstellung auf die Schlaganfallrate und Rate des akuten Koronarsyndroms war beträchtlich. Die HR betrug für beide 0,67, es konnte also fast jeder dritte Schlaganfall und fast jedes dritte akute Koronarsyndrom verhindert werden.

„Dieser große Effekt ist insofern erstaunlich, da die Gruppen hinsichtlich ihrer real erreichten Zielwerte gar nicht so weit auseinanderlagen. Die mittleren systolischen Blutdruckwerte betrugen 126,7 mm Hg in der intensiv behandelten Gruppe und 135,9 mm Hg in der Vergleichsgruppe. Das bedeutet, dass selbst die weniger strikt behandelten Patientinnen und Patienten systolische Blutdruckwerte unter 140 mm Hg hatten, das ist die rote Linie, ab der die europäischen Leitlinien des ESC/ESH [2] erst generell eine medikamentöse Therapie empfehlen “, kommentiert Prof. Ulrich Wenzel, Vorstandsvorsitzender der Deutschen Hochdruckliga. „Doch gerade bei älteren Patienten sind wir großzügiger und tolerieren auch systolische Werte bis zu 140 mm Hg. Bei den über 65-Jährigen empfehlen die europäischen Leitlinien [2], die systolischen Werte nicht unter 130 mm Hg zu senken.“ Als Gründe führt der Experte an, dass es bei einer zu schnellen und zu tiefen Senkung zu Unwohlsein und Schwindel und in Folge zu Stürzen kommen kann und die Datenlage bislang so aussah, dass die Risiken den Nutzen zu überwiegen schienen. Auch in der vorliegenden Studie traten in der intensiv behandelten Gruppe mehr Fälle von Hypotonie auf (3,4% vs. 2,6%, p=0,03). Kritisch muss außerdem angemerkt werden, dass es sich in dieser Studienpopulation nicht wirklich um hochbetagte Menschen handelte. Zwar konnten Patientinnen und Patienten zwischen 60 und 80 Jahren eingeschlossen werden, das Durchschnittsalter betrug in dieser Studie aber letztlich „nur“ 66,2 Jahre.

„Mit den vorliegenden Daten müssen wir nun wahrscheinlich umdenken und zumindest die Altersgrenze von 65 Jahren für eine intensivere Therapie hinterfragen, denn der kardiovaskuläre Nutzen der strikteren Blutdruckeinstellung war doch erheblich“, so das Fazit von Professor Wenzel. Die amerikanischen Leitlinien [3] empfehlen ohnehin seit längerem auch bei älteren Patientinnen und Patienten eine konsequente Blutdrucksenkung auf Werte unter 130 mm Hg.

Referenz
[1] Zhang W, Zhang S, Deng Y et al. Trial of Intensive Blood-Pressure Control in Older Patients with Hypertension. NEJM, August 30, 2021. DOI: 10.1056/NEJMoa2111437
[2] Williams B, Mancia G, Spiering W et al.; ESC Scientific Document Group. 2018 ESC/ESH Guidelines for the management of arterial hypertension. Eur Heart J. 2018 Sep 1;39(33):3021-3104
[3] Whelton PK, Carey RM, Aronow WS et al. ACC/AHA/AAPA/ABC/ACPM/AGS/APhA/ASH/ASPC/NMA/PCNA Guideline for the Prevention, Detection, Evaluation, and Management of High Blood Pressure in Adults: A Report of the American College of Cardiology/American Heart Association Task Force on Clinical Practice Guidelines. J Am Coll Cardiol 2018; 71: e127-e248.

Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423

Weitere Informationen:
http://www.hochdruckliga.de

(nach oben)


Länderübergreifender Raumordnungsplan für den Hochwasserschutz in Kraft getreten

Christian Schlag Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
Am 1. September 2021 ist der länderübergreifende Raumordnungsplan des Bundesministeriums des Innern, für Bau und Heimat (BMI) für den Hochwasserschutz nach eingehenden Voruntersuchungen und nach umfassender Beteiligung der Öffentlichkeit und öffentlicher Stellen in Kraft getreten.

Am 1. September 2021 ist der länderübergreifende Raumordnungsplan des Bundesministeriums des Innern, für Bau und Heimat (BMI) für den Hochwasserschutz nach eingehenden Voruntersuchungen und nach umfassender Beteiligung der Öffentlichkeit und öffentlicher Stellen in Kraft getreten.

Dr. Markus Kerber, Staatssekretär im BMI: „Die jüngste Flutkatastrophe in Rheinland-Pfalz und in Nordrhein-Westfalen zeigt, dass es beim Hochwasserschutz nicht nur um herkömmliche Flusshochwasser gehen darf. Es sind auch Hochwasserereignisse in den Blick zu nehmen, die durch Starkregen hervorgerufen werden. Diese Ereignisse werden durch den Klimawandel weiter zunehmen. Daher müssen wir dem Wasser mehr Raum geben, und das Wasser muss überall so gut wie möglich im Boden versickern können.“

Entsprechend trifft der Raumordnungsplan neben Regelungen zum Hochwasserrisikomanagement, insbesondere im Hinblick auf Siedlungsentwicklung und Kritische Infrastrukturen, auch Regelungen zur Gewinnung und Freihaltung von Retentionsflächen sowie zur Erhaltung und Verbesserung des Wasserversickerungs- und Wasserrückhaltevermögens des Bodens.

Der Raumordnungsplan wurde vom BMI in Zusammenarbeit mit dem Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) entwickelt. Er soll das für den Hochwasserschutz primär zuständige Wasserrecht, aber auch die unterschiedliche Hochwasservorsorge der einzelnen Landesraumordnungsplanungen unterstützen.

Dr. Markus Eltges, Leiter des BBSR: „Hochwasser macht nicht an Landesgrenzen halt, daher müssen Schutzmaßnahmen die Flussgebiete als Ganzes erfassen. Mithilfe des länderübergreifenden Raumordnungsplans setzen wir erstmals bundesweit einheitlich geltende raumordnerische Standards in der Hochwasservorsorge. Jetzt kommt es darauf an, dass die Regelungen des Raumordnungsplans in den Ländern und vor Ort schnellstmöglich aufgegriffen und von der Wasserwirtschaft flankiert werden.“

Der länderübergreifende Raumordnungsplan für den Hochwasserschutz ist ein Vorhaben des Koalitionsvertrages von CDU/CSU und SPD. Weitere Informationen finden Sie unter: www.bmi.bund.de und www.bbsr.bund.de

Kontakt
Christian Schlag
Stab Direktor und Professor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
im Bundesamt für Bauwesen und Raumordnung (BBR)
Deichmanns Aue 31–37
53179 Bonn
Telefon: +49 228 99 401-1484
christian.schlag@bbr.bund.de

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) berät als Ressortforschungseinrichtung die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

(nach oben)


Totholz als Kohlenstoff-Speicher: Insekten beschleunigen den Abbau am Kilimanjaro

Christian Wißler Pressestelle
Universität Bayreuth
Weltweit bewirken klimatische Einflüsse, Insekten und andere Gliederfüßer sowie Mikroorganismen eine ständige Zersetzung von Totholz. Dieser natürliche Abbau setzt erhebliche Mengen von Kohlenstoff in die Umwelt frei und hat daher großen Einfluss auf den Kohlenstoff-Kreislauf der Erde. Dies belegt eine neue, in „Nature“ veröffentlichte Studie. In 55 Wald-Standorten auf sechs Kontinenten wurden Geschwindigkeit und Ursachen des Totholz-Abbaus untersucht. Dr. Andreas Hemp und Dr. Claudia Hemp von der Universität Bayreuth haben in diesem Rahmen den Totholz-Abbau in verschiedenen Klimazonen am Kilimanjaro erforscht.

Die beiden Biologen, die eine Forschungsstation am Kilimanjaro leiten, haben gemeinsam mit tansanischen Partnern zwei Waldflächen untersucht: eine Baumsavanne am Bergfuß des Kilimanjaro in 1.000 Metern Höhe, wo die mittlere Jahrestemperatur bei 23,9 Grad Celsius liegt, und einen Bergwald in 1.600 Metern Höhe. Hier ist es erheblich kühler, die mittlere Jahrestemperatur beträgt 16,5 Grad Celsius. Vor wenigen Jahren hat Dr. Andreas Hemp hier in einer Schlucht die höchsten Bäume Afrikas entdeckt. Wie sich bei den Messungen herausstellte, werden in der Baumsavanne jährlich etwa 21 Prozent des Totholzes auf natürlichem Weg abgebaut. Im etwas höher gelegenen Wald sind es hingegen nur 16 Prozent.

Der Unterschied ist darin begründet, dass in der Savanne erheblich mehr Insekten, vor allem Termiten, sowie zahlreiche andere Gliederfüßer (Arthropoden) heimisch sind. Sie dringen in das Totholz ein und leben von den darin enthaltenen Nährstoffen. In der Savanne gehen jährlich fast 30 Prozent des Totholzabbaus auf Insekten und andere Gliederfüßer zurück, im Bergwald ist ihr Einfluss hingegen nicht signifikant. Diesen Unterschied haben die Wissenschaftler festgestellt, indem sie auf beiden Untersuchungsflächen Totholz aufgeschichtet und in käfigartige undurchdringliche Netze eingehüllt haben. Unter den Netzen wurde der natürliche Holzabbau durch klimatische Einflüsse und Mikroorganismen, aber nicht durch Gliederfüßer vorangetrieben. Auch an allen anderen Wald-Standorten, die im Rahmen der weltweiten Studie untersucht wurden, dienten käfigartige Netze der Isolation des Totholzes von Insekten, Käfern und anderen Gliederfüßern.

„Unsere Untersuchungen belegen die wichtige Rolle des Zusammenwirkens von Klima und Gliederfüßern beim Totholz-Abbau in den Tropen. In einer weiteren, noch unveröffentlichten Studie zusammen mit Forschern der Universität Bern haben wir am Kilimanjaro beobachtet, dass die Totholzvorräte in mittleren Höhenlagen – also zwischen 1.500 und 3.000 Metern – deutlich höher liegen als weiter unten in der Baumsavanne. Hier finden Termiten, Käfer und andere Insekten offensichtlich besonders günstige Lebensbedingungen vor. Zugleich werden größere Totholzmengen in der Baumsavanne auch vom Menschen als Brennmaterial genutzt. Darüber hinaus ist zu berücksichtigen, dass die meisten Regenfälle am Kilimanjaro über den mittleren Höhenlagen niedergehen. Daher können Bäume hier sehr gut gedeihen, so dass auch aus diesem Grund die oberirdische Holzbiomasse – und somit auch die Menge des Totholzes – hier ihr Maximum erreicht“, sagt Dr. Andreas Hemp.

Vor kurzem hat er an einer anderen in „Nature“ veröffentlichten Studie mitgewirkt, die deutlich macht, welche große Bedeutung die tropischen Bergwälder Afrikas als Kohlenstoff-Speicher der Erde haben. Die oberirdische Biomasse dieser Bergwälder leistet einen erheblichen Beitrag zum Klimaschutz. „Unsere Untersuchungen haben ergeben, dass in den klimatisch unterschiedlichen Regionen des Kilimanjaro bis zu 37 Prozent der oberirdischen Holzbiomasse aus Totholz besteht. Insofern ist auch Totholz ein nicht zu unterschätzender Kohlenstoff-Speicher,“ sagt der Bayreuther Biologe.

„Die gesamte Bergregion des Klimamanjaro ist deshalb so faszinierend, weil sie sich auf mehrere Klimazonen verteilt, in denen ganz unterschiedliche Tier- und Pflanzenarten heimisch sind. Über das Zusammenwirken dieser Faktoren bei der Entstehung und dem Abbau von Totholz – und damit auch bei der Speicherung und Freisetzung von Kohlenstoff – ist im Einzelnen noch wenig bekannt. Hier sollten weitere Forschungsarbeiten ansetzen. Die Einflüsse der zunehmend intensiven Landnutzung durch den Menschen sollten dabei mitberücksichtigt werden,“ ergänzt Dr. Claudia Hemp.

Wissenschaftliche Ansprechpartner:
PD Dr. Andreas Hemp / Dr. Claudia Hemp*
Pflanzensystematik
Universität Bayreuth
Telefon: +49 (0) 921 / 55-2464 oder +49 (0)9246 / 980979
E-Mail: andreas.hemp@uni-bayreuth.de / claudia.hemp@uni-bayreuth.de
*Dr. Claudia Hemp ist zugleich Mitarbeiterin am Senckenberg Biodiversität und Klima Forschungszentrum (SBiK-F) in Frankfurt am Main.

Originalpublikation:
Seibold et al.: The contribution of insects to global forest deadwood decomposition. Nature (2021). DOI: https://dx.doi.org/10.1038/s41586-021-03740-8

(nach oben)


Woher kommt der Montagsblues? – Studie der Universität Leipzig zu gefühlt schwierigstem Arbeitstag der Woche

Susann Huster Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig
Der Montagsblues: Die meisten Menschen kennen das mulmige Gefühl zu Beginn der neuen Arbeitswoche. Es bindet bei Erwerbstätigen erstaunlich viel Energie und zehrt oft das Erholungspolster vom Wochenende schnell auf. Doch warum empfinden wir gerade den Montag oft als schwierigsten Tag der Arbeitswoche? – Der Arbeitspsychologe Dr. Oliver Weigelt und sein Team vom Institut für Psychologie – Wilhelm Wundt der Universität Leipzig haben sich in einer Studie mit dieser Thematik befasst und ihre Forschungsergebnisse im „Journal of Organizational Behavior“ veröffentlicht.

Im Rahmen einer Tagebuchstudie haben sie 87 Personen an zwei Wochenenden und in der dazwischenliegende Arbeitswoche morgens, mittags und nachmittags zu ihrem momentanen Erleben von Vitalität und Erschöpfung befragt. Außerdem wurden die Teilnehmenden morgens nach ihren Erholungserfahrungen am Vortag, nach ihrer Schlafqualität in der zurückliegenden Nacht und an Arbeitstagen zu ihren Erwartungen an den bevorstehenden Arbeitstag befragt. Am Ende von Arbeitstagen wurde zudem erfasst, wie sehr sich Personen an diesem Tag bei der Arbeit angestrengt hatten.

Entgegen der Empfindung des „Montagsblues“ fanden die Forschenden heraus, dass das Wohlbefinden montags nicht geringer ist als dienstags, mittwochs und donnerstags. „Der Kontrast zwischen Sonntag und Montag führt aber unter Umständen dazu, dass der erste Tag der Arbeitswoche als schlimmster Tag in der Woche wahrgenommen wird. Entgegen den Erwartungen fanden wir keine Belege dafür, dass Erschöpfung im Verlauf einer Arbeitswoche ansteigt“, sagt Weigelt. Vitalität und Erschöpfung entwickelten sich unabhängig von den beruflichen Anstrengungen, die Personen aufbringen.

Vorfreude auf neue Arbeitsaufgaben hilft gegen Montagsblues
Positive Erwartungen an den ersten Arbeitstag der Woche – also Vorfreude auf die bevorstehenden Aufgaben, helfen aber, möglichst viel von dem Schwung des Wochenendes mit in die neue Arbeitswoche zu nehmen und damit weniger Montagsblues zu erleben. Die Vitalität von erwerbstätigen Personen folgt einem Auf und Ab im Verlauf der Sieben-Tage-Woche. „Insbesondere am Übergang zwischen Wochenende und Arbeitswoche zeigen sich starke Veränderungen“, erklärt der Arbeitspsychologe weiter. Zum einen steige die Vitalität schon vor dem eigentlichen Beginn des Wochenendes im Sinne eines „Thank-God-It‘s-Friday“-Effekts. Dieser und die günstige Wirkung von Vorfreude zu Beginn der Arbeitswoche könnten negative Effekte der Arbeit ausgleichen.

Weigelt und sein Team fanden auch heraus, dass sich die Probandinnen und Probanden besser fühlten, wenn sie im Vergleich zur Arbeitswoche am Wochenende besser schlafen konnten. Umgekehrt zeigte sich bei ihnen ein Verlust im Wohlbefinden durch schlechtere Schlafqualität in der Nacht von Sonntag zu Montag. Aus Perspektive der Erholungsforschung sollten wir uns am Ende eines Wochenendes besser fühlen als vorher, weil die arbeitsfreie Zeit Gelegenheit bietet, den persönlichen Akku wiederaufzuladen. Dieser Überlegung widerspricht die empirische Forschung zum so genannten Montagsblues, die nahelegt, dass wir uns nach dem Wochenende schlechter fühlen als vorher. „Ziel unserer Studie war es, beide Perspektiven miteinander zu verbinden und besser zu verstehen, wann und wie sich das Wohlbefinden gemessen an Vitalität und Erschöpfung im Verlauf der Sieben-Tage-Woche verändert und wovon diese Veränderungen genau abhängen“, so Weigelt. Die Forschenden gingen davon aus, dass sich das Wohlbefinden im Verlauf des Wochenendes zwar kontinuierlich verbessert, aber beim Übergang vom Wochenende zurück zur Arbeitswoche mindestens einen Teil dieses aufgebauten Polsters wieder verbraucht ist, etwa weil Erwerbstätige ihren Tagesrhythmus umstellen müssen. Sie untersuchten außerdem vergleichend mögliche Ursachen für die Verbesserung des Wohlbefindens. Neben stark beforschten Erholungserfahrungen wie dem Abschalten von der Arbeit, der Entspannung, der Autonomie und dem Bewältigen von Herausforderungen analysierten sie insbesondere Veränderungen in der Schlafqualität.

Originalpublikation im „Journal of Organizational Behavior“:
„Continuity in transition: Combining recovery and day-of-week perspectives to understand changes in employee energy across the 7-day week“, doi.org/10.1002/job.2514

Wissenschaftliche Ansprechpartner:
Dr. Oliver Weigelt
Institut für Psychologie – Wilhelm Wundt der Universität Leipzig
Telefon: +49 341 9735956
E-Mail: oliver.weigelt@uni-leipzig.de

Weitere Informationen:
https://onlinelibrary.wiley.com/doi/10.1002/job.2514

(nach oben)


Boomender Klettersport: Verletzungen und Überlastungen an der Hand

Kathrin Reisinger Presse- und Öffentlichkeitsarbeit
Gesellschaft für Orthopädisch-Traumatologische Sportmedizin (GOTS)
Unsere Hände und vor allem die Finger sind zum Greifen gemacht. Im Alltag halten sie viele Bewegungen aus, ohne dass es je zu Überlastungen kommt. Anders sieht es im Klettersport aus. Der boomende Sport fordert die Aktiven zu immer kniffligeren Aktionen heraus. Epiphysenverletzungen, Ringbandverletzungen und Knotenbildungen in der Hohlhand können zum Beispiel die Folge sein.

In Deutschland entstehen immer mehr Kletterhallen. Längst ist der Klettersport nicht mehr an bestimmte Fels-Regionen gebunden. Und längst sind nicht mehr alle Sportler ausreichend trainiert, ehe es an bestimmten Abschnitten an den Wänden hoch hinaus geht.

Unter den Athleten der 10- bis 16-Jährigen, die sehr schnell sehr schwere Routen klettern, können Belastungen an den Wachstumsfugen der Finger entstehen. „Die Wachstumsfugen an den Fingergelenken werden, abhängig von den Klettergriffen und der Greif- und Klettertechnik, in Mitleidenschaft gezogen. Manchmal ist es sogar ein Bruch des Knochens“, erklärt Dr. med. Uwe Flötgen, Leitender Arzt der Sportorthopädie an der Klinik für Orthopädie des Heinrich-Braun-Klinikums Zwickau.

Schmerzen beim Festhalten und ein entsprechender Druckschmerz geben Hinweise. Je nach Verdacht erfolgt die weitere Diagnostik mittels Röntgen und/oder MRT. Liegen schwerwiegende Schäden vor, hilft nur noch eine Operation. Bei Epiphysenfugen-Verletzungen kann es zum Fehlwachstum des Fingers und zu vorzeitigem Gelenkverschleiß kommen.

Bei Kletterern, die viel an 1 oder 2 Fingerlöchern oder kleinen Leisten als Haltegriffe trainieren, können durch Belastungszüge an nur einem Finger ein oder mehrere Ringbänder reißen, welche die Beugesehnen halten müssen, so Flötgen. Hier erfolgt die Diagnostik per Ultraschall. Die Spannbreite der Therapie geht von einem Tape oder thermoplastischen Ring bis hin zur OP, wenn mehrere Ringbänder betroffen sind. Wird diese Verletzung nicht behandelt kann es zum „Bowstring-Phänomen“ kommen, bei dem die Sehne vom Knochen weggeht.

Weiterhin können Überlastungen zu Knotenbildungen und Verhärtungen in der Hohlhand führen. Der „Morbus Dupuytren“ ist meist bei 50 bis 60Jährigen anzutreffen. Doch bei Kletterern kann das schon Mitte 20 beginnen. Mikroverletzungen sorgen für eine Erkrankung der Hohlhandfaszie, einer straffen Bindegewebsschicht. Die Finger sind immer schwerer oder gar nicht mehr zu strecken, dazu kommen tastbare, teils schmerzhafte Knoten. Hierbei sind überwiegend Männer betroffen. In frühen Stadien sollte auf keinen Fall operiert werden. Per Nadelfasziotomie (Fibrosenperforation) werden die Dupuytren-Stränge so weit eingekerbt, bis sie gestreckt und zerrissen werden können. Alternativ kann aber die Injektion von Kollagenasen erfolgen. Enzyme lösen dabei das Kollagen auf.

Weitere Informationen:
https://www.zkos.de/

(nach oben)


TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Straßen als blaugrüne Oasen

Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss, um die Metropolen an die Folgen des Klimawandels anpassen zu können

Viel ist derzeit von der Schwammstadt im Zusammenhang mit den Flutereignissen, die sich Mitte Juli in Rheinland-Pfalz und Nordrhein-Westfalen ereigneten, die Rede. Schwammstadt bedeutet, dass eine Stadt in der Lage sein soll, bei Hochwasser und Starkregen das Wasser – eben wie ein Schwamm – aufzusaugen. Matthias Barjenbruch sieht diesen Begriff jedoch kritisch. Seiner Meinung nach erfasst er ein gravierendes Problem, worunter Städte zunehmend leiden, nicht: Es ist die Hitze. Städte werden zu Glutinseln, heizen sich für Menschen zum Teil lebensgefährlich auf. Anfang August herrschten in Athen über Tage 43 Grad Celsius, in der Nacht 30 Grad Celsius. „Deshalb müssen Städte auch in der Lage sein, Wasser zur Kühlung wieder verdunsten zu lassen. Dabei spielt die urbane Vegetation eine wichtige Rolle“, sagt der Professor für Siedlungswasserwirtschaft an der TU Berlin.

Starkregen und Hitzewellen beurteilt die Wissenschaft mittlerweile als Folgen des Klimawandels. „Für die Stadtentwicklung heißt das, dass vielfältige Strategien gleichzeitig und gleichrangig verfolgt werden müssen, damit sich die Städte diesen Klimafolgen anpassen können. Für die Nutzung städtischer Flächen bedeutet das, dass Straßen, Dächer, Fassaden, Gehwege, Spielplätze, Grünflächen, Parks, Parkplätze – nicht mehr nebeneinander, sondern in Bezug zueinander entwickelt und diese Flächen multifunktional genutzt werden müssen. Die Herausforderung für die Stadtentwickler besteht in einer transdisziplinären Planung aller Sektoren. Straßen-, Wasser-, Wohnungsbau, Grünflächen, Verkehr – alles muss zusammengedacht werden, um zu integrierten Lösungen zu gelangen“, sagt Matthias Barjenbruch.

Was es bedeutet, wenn Hitzeprävention und Vermeidung von Überflutungen bei Starkregen transdisziplinär angegangen werden müssen und Flächen wie der Straßenraum multifunktional werden mit dem Ziel, klimaangepasst zu sein, das untersucht ein Konsortium von acht Forschungseinrichtungen sowie Planungs- und Ingenieurbüros unter Beteiligung der TU-Fachgebiete Siedlungswasserwirtschaft und Ökohydrologie und Landschaftsbewertung in dem Projekt „BlueGreenStreets“ – als multicodierte Strategie zur Klimafolgenanpassungen“.

In diesem „BlueGreenStreets“-Konzept sind Straßen nicht nur Straßen, sondern werden zu sogenannten Retentionsräumen, also Räumen, die bei Starkregen die Wassermassen zurückhalten und auch ableiten können. Das kann dadurch geschehen, dass das Regenwasser dezentral im oder neben dem Straßenraum versickert wird, indem zum Beispiel die Parkstände für Autos tiefergelegt werden. Oder Straßen übernehmen bei Starkregen die Funktion von Notwasserwegen durch den Einbau von Mittelrinnen (V-Profil) in die Straßen, von Hochborden oder Schwellen. Dadurch kann das oberflächige Niederschlagswasser kontrolliert auf angrenzende Freiräume wie Parks, Grünflächen, Spielplätze oder unversiegelte Parkplätze geleitet werden, wo es versickert. Häuser, Straßen, aber auch die Kanalisation werden so vor Überflutung geschützt, und diese gezielte Ableitung des Niederschlages reduziert Überflutungsschäden. In Dürrephasen wiederum steht das versickerte Regenwasser der urbanen Vegetation zur Verfügung, kann über die Pflanzen verdunsten, was Kühlung bringt, und ist nicht über die Kanalisation abgeflossen.

Und Bäume sind in diesem Konzept mehr als Bäume. Sie fungieren als temporäre Zwischenspeicher, indem verschiedene Typen von Versickerungsbaumgruben angelegt werden. Ein solcher Versickerungsbaumgruben-Typ ist die Baumrigole. Das sind Versickerungsflächen für Regenwasser, das unter anderem von Dach- und Verkehrsflächen wie Parkplätzen zu den Bäumen geleitet wird. Unterirdisch werden die Baumrigolen durch ein Drainagesystem ent- und bewässert. Das ermöglicht, den Baum in Dürrephasen mit Wasser zu versorgen. Dadurch bleiben die Straßenbäume als Elemente der Wasserspeicherung, Verschattung, Verdunstung und Kühlung erhalten und können die starke Aufheizung von Gehwegen und Straßen bei Hitze mildern. Die Aufenthaltsqualität des Straßenraums verbessert sich. Zudem sind Baumrigolen so konstruiert, dass sie den Baumwurzeln genügend Raum geben. Lebenswichtig für die Bäume.

Weitere Elemente der Hitzeprävention sind im Straßenraum angelegte Verdunstungsbeete mit verdunstungsintensiven Pflanzen sowie begrünte Dächer und Fassaden. Hierbei übernehmen Dächer und Fassaden die zusätzliche Funktion eines Wasserspeichers und dienen ebenfalls der Verschattung, Verdunstung und damit der Kühlung des städtischen Raums.

All diese Beispiele zeigen, wie sich urbane Vegetation und urbanes Wasser bedingen. Ohne entsiegelte Flächen und intaktes städtisches Grün und ohne gezielte Nutzung des Regenwassers zum Erhalt des städtischen Grüns – keine Versickerungs-, Speicher- und Verdunstungsleistung bei Starkregen und Hitzeperioden. „Ziel von Stadtentwicklung muss es deshalb zukünftig sein, die urbane Vegetation mit der urbanen Wasserinfrastruktur zu koppeln, was bislang kaum geschieht, aber nur so können Starkregen und Hitzeperioden von der Stadt abgepuffert werden“, sagt Matthias Barjenbruch, dessen Team in dem Projekt „BlueGreenStreets“ die Schadstoffbelastung des Straßenwassers untersucht. Das Team des Fachgebiets Ökohydrologie und Landschaftsbewertung unter der Leitung von Prof. Dr. Eva Paton erforscht den Wasserverbrauch und die Verdunstungsleistungen von Stadtbäumen und Fassadenbegrünungen im urbanen Raum.

Das Vorhaben „BlueGreenStreets“ wird im Rahmen der Fördermaßnahme „Ressourceneffiziente Stadtquartiere für die Zukunft“ des Bundesministeriums für Bildung und Forschung gefördert.

Lesen Sie auch das Interview mit Prof. Dr. Eva Paton über den Zusammenhang von Dürre und extremem Starkregen und ihren Folgen: http://www.tu.berlin/go32586

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Matthias Barjenbruch
TU Berlin
Fachgebiet Siedlungswasserwirtschaft
E-Mail: matthias.barjenbruch@tu-berlin.de

Prof. Dr. Eva Paton und Dr. Björn Kluge
TU Berlin
Fachgebiet Ökohydrologie und Landschaftsbewertung
E-Mail: eva.paton@tu-berlin.de; bjoern.kluge@tu-berlin.de

(nach oben)


Neues Beratungstool für die Überflutungsvorsorge in Kommunen

Gerhard Radlmayr Zentrum für Forschung und Wissenstransfer
Hochschule Weihenstephan-Triesdorf
Im Verbundprojekt „Anreizsysteme für die kommunale Überflutungsvorsorge (AKUT)“ haben Forscher:innen der Hochschule Weihenstephan-Triesdorf (HSWT) und der Hochschule Mainz (HS Mainz) zusammen mit Praxis- und kommunalen Partnern ein Beratungstool entwickelt, das kommunale Mitarbeiter:innen und Fachplaner:innen dabei unterstützt, Überflutungsschäden in Kommunen vorzubeugen. Im Mittelpunkt steht der Ansatz, alle Akteur:innen zusammenzubringen, Zielkonflikte zu überwinden und gemeinsam effiziente Gesamtlösungen zu generieren. Um das zu erreichen, setzt die Methode auf ein ortspezifisches Optimierungs- und Anreizsystem.

Infolge des Klimawandels nehmen Starkregenereignisse, wie sie in diesem Sommer aufgetreten sind, in Häufigkeit und Intensität zu. Grundsätzlich können sie alle Regionen Deutschlands treffen. Deshalb ist die Überflutungssicherheit eine der zentralen Herausforderungen für die Siedlungsentwässerung. Bei dieser komplexen Aufgabe müssen verschiedene kommunale und private Akteur:innen, also zum Beispiel Bürger:innen, Landwirt:innen, lokale Wirtschaft und Forstwirtschaft, interdisziplinär zusammenwirken. Für ein wirksames Vorsorgekonzept ist es erforderlich, Maßnahmen umsetzen, die sowohl dem Einzelnen als auch der Allgemeinheit dienen. So ist es beispielsweise häufig so, dass Überflutungsschutzmaßnahmen auf Grundstücken von Privatleuten oder Unternehmen umgesetzt werden müssen.

Wesentliche Voraussetzung für eine fruchtbare Zusammenarbeit ist ein Verständnis der Überflutungsvorsorge als kommunale Gemeinschaftsaufgabe, die nur gemeinsam bewältigt werden kann. Derzeit fehlt bei den einzelnen Akteur:innen jedoch die Bereitschaft, sich einem optimierten Gesamtlösungsprozess unterzuordnen. Hierbei mangelt es häufig an entsprechenden Anreizen.

Damit alle an einem Strang ziehen: Ortsspezifische, optimierte Strategien
Diesem Problem begegnet das Beratungstool ‚AKUT‘. Es unterstützt Kommunen dabei, geeignete Vorkehrungen zu identifizieren und erleichtert so der lokalen Politik die Entscheidung über umzusetzende Maßnahmen. AKUT berücksichtigt dabei explizit das notwendige Zusammenwirken der verschiedenen Akteur:innen sowie die entsprechenden Anreize, welche diese dazu motivieren sollen, die Schritte umzusetzen. Das Tool kann nach kurzer Einarbeitung auch ohne IT-Fachwissen genutzt werden.

Anwender:innen zeichnen zunächst an möglichen Standorten Überflutungsschutzmaßnahmen zur Rückhaltung, beispielsweise Becken, Mulden, Flächen, oder Ableitung, zum Beispiel Rinnen, Gräben oder Böschungen, auf einer interaktiven Karte ein. AKUT bestimmt anschließend mittels eines mathematischen Modells eine optimale Auswahl aus diesen möglichen Maßnahmen. Dabei stellt es verschiedene Zusammenhänge dar, etwa die akteursbezogene Gefährdungslage und das zu erwartende Schadensausmaß, Wirksamkeit und Umsetzbarkeit der Vorsorgemaßnahmen sowie die erforderlichen individuellen Anreize. So ermittelt das Tool unter Berücksichtigung der ortspezifischen Gegebenheiten der Kommune und der Beteiligungsbereitschaft der verschiedenen Akteur:innen eine optimale Handlungsstrategie. Diese beinhaltet eine Kombination baulicher Maßnahmen inklusive der zugehörigen Kosten und erforderlichen Anreize. Kartendarstellungen vor und nach der Optimierung veranschaulichen die zu erwartende Wirkung auf die Gefährdungslage.

Die Leitung des vom Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU) geförderten Projekts lag bei Prof. Dr. Inka Kaufmann Alves von der HS Mainz, auf HSWT-Seite wurde es von Prof. Dr. Clemens Thielen durchgeführt. Neben den beiden Hochschulen waren an dem Vorhaben die igr GmbH und die Verbandsgemeinde Enkenbach-Alsenborn beteiligt. Unterstützt wurde es zudem durch die Verbandsgemeinde Nordpfälzer Land, die Kommunalwirtschaft Mittlere Bergstraße in Hessen, die Gemeinde Elxleben in Thüringen und das Ministerium für Klimaschutz, Umwelt, Energie und Mobilität Rheinland-Pfalz.

Das Beratungstool ‚AKUT‘ steht interessierten Kommunen und Fachplaner:innen zur Verfügung (siehe auch https://akut.hs-mainz.de). Anfragen nimmt das Team unter info-akut@hs-mainz.de entgegen.

Text: Christine Dötzer, Pressestelle HSWT

(nach oben)


Gewässermonitoring aus dem All

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Während Erdbeobachtungssatelliten des europäischen Copernicus-Programms ihre Kreise um die Erde ziehen, senden sie sehr viele Daten. Diese Informationen aus dem All sollen künftig für das Gewässermonitoring der Landesumweltämter nutzbar gemacht werden. Daran arbeiten Forscher:innen im Verbundprojekt „Erfassung der Wasserqualität und Wasserflächenausdehnung von Binnengewässern durch Fernerkundung“ (BIGFE) unter der Federführung des Helmholtz-Zentrums für Umweltforschung (UFZ).

Für das Monitoring von Küstenbereichen der Nord- und Ostsee werden Fernerkundungsdaten bereits routiniert und erfolgreich eingesetzt. Für die Überwachung von Binnengewässern ist das bislang noch nicht der Fall. „Das wollen wir ändern“, sagt der UFZ-Seenforscher Dr. Karsten Rinke. „Die Daten, die die Sentinel-Satelliten des europäischen Copernicus-Programms liefern, sind ein großartiger Datenschatz. Den gilt es für eine künftige Nutzung im Gewässermonitoring durch die Landesbehörden zu heben.“ Karsten Rinke leitet das im Juli gestartete Leuchtturmprojekt BIGFE, das das Bundesministerium für Verkehr und digitale Infrastruktur im Rahmen der Copernicus-Initiative fördert.

Das klassische Monitoring von Binnengewässern gemäß der EU-Wasserrahmenrichtlinie ist bislang mit einem hohen zeitlichen und personellen Aufwand verbunden. Darüber hinaus können die Ergebnisse aus den Untersuchungen vor Ort sowie der Auswertung des Probenmaterials im Labor immer nur einen Ausschnitt und eine kurze Momentaufnahme darstellen. Denn die Messgrößen wie Trübung, Temperatur oder Algenvorkommen können an verschiedenen Stellen eines Sees ganz unterschiedlich ausfallen und sich je nach Wetterlage, Gewässertyp und Einzugsgebiet auch schnell ändern. „Das liegt in den besonderen Eigenschaften von Gewässerökosystemen begründet, die sehr dynamische Systeme darstellen. Bei vielerorts üblicher monatlicher Beprobung können wichtige Episoden wie zum Beispiel Blaualgenblüten einfach übersehen werden. Hinzu kommt die räumliche Heterogenität, die insbesondere die Beurteilung des Zustands mehr als 100 Hektar großer Gewässer schwierig macht, wenn nur einmal in der Mitte des Sees eine Probe genommen wird“, erklärt Karsten Rinke. Die zusätzliche Nutzung von Fernerkundungsdaten könnte in der Kombination mit klassischen Monitoringmaßnahmen die Aussagekraft zum Gewässerzustand deutlich verbessern. „So steuern die Daten aus dem All aktuelle Informationen in höherer räumlicher und zeitlicher Auflösung bei und ermöglichen schnelle Managementreaktionen, wie es etwa bei einem massenhaften Auftreten von Blaualgen an Badestellen angezeigt ist“, sagt er. Satelliten-basierte Informationen können je nach Typ täglich bis wöchentlich bereitgestellt werden und weisen eine räumliche Auflösung zwischen 10 und 300 Metern auf.

Das UFZ arbeitet in dem Projekt mit dem Institut für Hygiene und Umwelt der Hamburger Behörde für Umwelt, Klima, Energie und Agrarwirtschaft, dem Institut für Seenforschung der Landesanstalt für Umwelt Baden-Württemberg sowie dem Sächsischen Landesamt für Umwelt, Landwirtschaft und Geologie zusammen. Der UFZ-Geowissenschaftler Prof. Kurt Friese koordiniert die Zusammenarbeit mit diesen Projektpartnern sowie weiteren Unternehmen und Behörden. „Landesbehörden aus zwölf Bundesländern stellen als Praxispartner für unsere Untersuchungen umfangreiche Datensätze aus ihren regelmäßigen Gewässeruntersuchungen zur Verfügung, die wir mit Fernerkundungsdaten aus den entsprechenden Zeiträumen in Beziehung setzen und miteinander abgleichen“, sagt Kurt Friese. „Durch die enge Einbindung der Praxispartner erreicht BIGFE eine länderübergreifende, harmonisierte Vorgehensweise in der Fernerkundung unserer Gewässer.“

Gewässerdaten von rund 100 Seen, Talsperren und Unterläufen von Fließgewässern führen die Seenforscher:innen hinsichtlich Wasserqualität und Wasserflächenausdehnung mit Fernerkundungsdaten aus den Jahren 2016 bis 2020 zusammen. Gemeinsam mit Fernerkundler:innen der Projektpartner sowie auf Fernerkundung spezialisierte Firmen gehen sie bei der Interpretation der Daten Fragen nach, die für eine künftige Nutzung für das Gewässermonitoring zentral sind: Welche Eigenschaften der Gewässer und welche Gewässertypen lassen sich mithilfe der Fernerkundung besonders gut, welche weniger gut charakterisieren? Wie hoch sind die Genauigkeit und Verlässlichkeit der Fernerkundungsdaten und wo liegen mögliche Fehlerquellen? Wie lässt sich der Mehrwert, der sich mit der Nutzung der Fernerkundung ergibt, in die behördliche Praxis der Gewässerüberwachung integrieren?

„Das sind einige der wichtigen Fragen, die wir in dem Projekt in den kommenden drei Jahren beantworten möchten“, sagt Rinke. „Das Ziel unseres Forschungsvorhabens ist, auf wissenschaftlicher Basis praxisorientierte Handlungsempfehlungen auszuarbeiten, die die Nutzung von Fernerkundungsdaten für das behördliche Gewässermonitoring ermöglichen. Wir hoffen, dass wir mit BIGFE einen Beitrag leisten können, damit der Datenschatz aus dem All künftig zum etablierten Standard des Gewässermonitorings zählt.“

Wissenschaftliche Ansprechpartner:
Dr. Karsten Rinke
Leiter des UFZ-Departments Seenforschung
karsten.rinke@ufz.de

Prof. Dr. Kurt Friese
UFZ-Department Seenforschung
kurt.friese@ufz.de

(nach oben)


Neue Studienerkenntnisse können helfen, Hochwasser-Prognosen zu verbessern

Rimma Gerenstein Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
• Internationales Forschungsteam beleuchtet Zusammenhänge von Starkregen und Überschwemmungen
• Zwei unterschiedliche Arten von Extremniederschlägen bergen unterschiedliche Hochwasserrisiken – auf die der Klimawandel auch jeweils anders einwirkt
• In Bayern werden Starkregen insgesamt künftig wohl zwei bis viermal häufiger vorkommen als heute

Der Klimawandel wird vor allem wegen der Zunahme intensiver Starkregenereignisse zu mehr und stärkeren Hochwassern und Fluten führen. Um einschätzen zu können, wie genau sich dabei die Hochwasserrisiken und die Ausprägung von Überschwemmungen verändern, hilft es insbesondere zwei unterschiedliche Arten von solchen Extremniederschlagsereignissen – schwächere und stärkere – zu betrachten. Diesen bislang wenig beforschten Aspekt hat nun eine internationale Gruppe von Wissenschaftler*innen rund um die Freiburger Hydrologin Dr. Manuela Brunner vom Institut für Geo- und Umweltnaturwissenschaften der Universität Freiburg und Prof. Dr. Ralf Ludwig von der Ludwig-Maximilians-Universität München (LMU) beleuchtet. Dabei stellten sie fest, dass die schwächeren und zugleich häufiger vorkommenden Extremniederschlagsereignisse (im Mittel alle rund 2 bis 10 Jahre) in Frequenz und Menge zunehmen, allerdings nicht zwangsläufig zu Überschwemmungen führen. An manchen Orten kann hierbei durch den Klimawandel das Hochwasserrisiko sogar wegen trockener werdenden Böden sinken. Ebenso nehmen die stärkeren und zugleich seltener vorkommenden Extremniederschlagsereignisse (im Mittel seltener als 50 Jahre – und wie im Juli 2021 in der Eifel ereignet) in Frequenz und Menge zu – dabei führen sie aber auch generell häufiger zu Überschwemmungen. Die Ergebnisse ihrer Studie veröffentlichte das Team in der Zeitschrift Communications Earth & Environment.

Mancherorts führt der Klimawandel zu geringerem Hochwasserrisiko
„Bei den stärkeren und zugleich selteneren Extremniederschlagsereignissen treffen so große Niederschlagsmengen auf den Boden, dass seine aktuelle Beschaffenheit kaum noch einen Einfluss darauf hat, ob es zu einer Überschwemmung kommt“, erläutert Manuela Brunner. „Seine Kapazität, Wasser aufzunehmen, wird relativ schnell erschöpft, ab da an fließt der Regen über die Oberfläche ab – flutet also die Landschaft.“ Anders verhalte es sich bei den schwächeren und zugleich häufigeren Extremniederschlagsereignissen“, so Brunner. „Hier ist die jeweils aktuelle Bodenbeschaffenheit entscheidend. Ist der Boden trocken, kann er viel Wasser aufnehmen und das Hochwasserrisiko ist gering. Liegt allerdings schon eine hohe Bodenfeuchte vor, kann es auch hier zu Überschwemmungen kommen.“ Da durch den Klimawandel viele Böden trockener werden, kann dort also das Hochwasserrisiko bei den schwächeren, häufigeren Extremniederschlagsereignissen sinken – nicht allerdings bei den seltenen, heftigen.

In Bayern nimmt Starkregen generell zu
Für das konkrete Beispiel Bayern sagen die Wissenschaftler*innen zudem voraus, wie dort die unterschiedlichen Extremniederschlagsereignisse zahlreicher werden. Schwächere, die in den Jahren von 1961 bis 2000 im Mittel etwa alle 50 Jahre auftraten, werden demnach im Zeitraum von 2060 bis 2099 doppelt so oft vorkommen. Stärkere, die im Zeitraum von 1961 bis 2000 im Mittel etwa alle 200 Jahre eintraten, werden sich in der Zukunft bis zu viermal häufiger ereignen.

„Bisherige Untersuchungen haben belegt, dass Niederschläge aufgrund des Klimawandels zunehmen werden, die Zusammenhänge zwischen Überschwemmungsstärken und schwereren Niederschlagsereignissen ist aktuell aber noch nicht ausreichend erforscht. Da haben wir angesetzt“, erklärt Manuela Brunner. Ralf Ludwig ergänzt: „Mithilfe unseres einzigartigen Datensatzes liefert diese Studie einen wichtigen Baustein zu einem dringend benötigten, besseren Verständnis des sehr komplexen Zusammenhangs von Starkniederschlägen und Abflussextremen.“ Dies könne auch helfen, um Hochwasserprognosen zu verbessern.

78 Gebiete untersucht
In seiner Analyse hat das Team für die Mehrzahl der 78 untersuchten Oberwassereinzugsgebiete in der Region um Inn, Donau und Main sogenannte Häufigkeitsschwellenwerte in der Beziehung zwischen zukünftiger Niederschlagszunahme und Hochwasseranstieg identifiziert. Diese ortsspezifischen Werte beschreiben, welche extremen Niederschlagereignisse – klassifiziert anhand ihrer auftretenden Häufigkeit –– wahrscheinlich auch zu verheerenden Fluten führen, wie etwa dem im Juli in der Eifel.

Für seine Untersuchung generierte das Forschungsteam ein großes Ensemble von Daten, indem es erstmalig hydrologische Simulationen für Bayern mit einem großen Ensemble an Simulationen mit einem Klimamodell koppelte. Die Modellkette wurde für die 78 Flusseinzugsgebiete auf historische (1961-2000) und wärmere zukünftige (2060-2099) Klimabedingungen angewandt. „Die Region um die Oberwassereinzugsgebiete von Inn, Donau und Main ist ein Gebiet mit ausgeprägter hydrologischer Heterogenität. Dadurch berücksichtigen wir in unserer Studie eine große Vielfalt an Hydroklimata, Bodentypen, Landnutzungen und Abflusswegen“, sagt Brunner.

Neben Brunner und Ludwig arbeiteten weitere Forschende der LMU, des US-amerikanischen National Center for Atmospheric Research und der University of California Los Angeles/USA an dem Projekt mit. Gefördert wurde die Forschungsarbeit unter anderem vom Bayerischen Staatsministerium für Umwelt und Verbraucherschutz, dem Bundesministerium für Bildung und Forschung sowie dem Schweizerischen Nationalfonds.

Wissenschaftliche Ansprechpartner:
Dr. Manuela Brunner
Institut für Geo- und Umweltnaturwissenschaften
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3509
E-Mail: manuela.brunner@hydrology.uni-freiburg.de
Twitter: @ManuelaIBrunner, @UHydroFreiburg

Originalpublikation:
Brunner, M. I., Swain, D. L., Wood, R.R., Willkofer, F., Done, J.M., Gilleland, E., Ludwig, R. (2021): An extremeness threshold determines the regional response of floods to changes in rainfall extremes. In: Communications Earth & Environment. DOI: 10.1038/s43247-021-00248-x

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/neue-studienerkenntnisse-koennen-helfen-h…

(nach oben)


Nickel- und Kobaltallergie im Friseurhandwerk – Neue Studie an der Universität Osnabrück

Dr. Utz Lederbogen Stabsstelle Kommunikation und Marketing
Universität Osnabrück
Friseurinnen und Friseure haben täglich einen längeren Hautkontakt mit einer Vielzahl von Metallwerkzeugen. Sie stellen durch die Freisetzung von Nickel und Kobalt ein erhebliches Gesundheitsrisiko in Bezug auf die Entwicklung von Allergien dar, wie eine Studie der Abteilung für Dermatologie, Umweltmedizin und Gesundheitstheorie der Universität Osnabrück zeigt, die im Journal of the European Academy of Dermatology and Venereology (JEADV 2021, 35, 965-972) veröffentlicht wurde.

Die Freisetzung von Nickel aus Metallwerkzeugen im Friseurhandwerk ist bekannt, Daten über die Freisetzung von Kobalt fehlten bislang. Ziel der an der Universität Osnabrück von Cara Symanzik durchgeführten Studie war es, das Auftreten von Nickel- und Kobaltallergien im deutschen Friseurhandwerk abzuschätzen.
Die junge Wissenschaftlerin untersuchte in Ihrer Masterarbeit 475 Metallwerkzeuge des Friseurhandwerks in drei norddeutschen Bundesländern, darunter Scheren, Abteilklammern, Haarclips, Pinzetten, Rasiermesser, Rührbesen, Handbrausen und Häkelnadeln, die bei der täglichen Arbeit benutzt werden und teilweise auch schon länger im Gebrauch waren. Siebzig Friseurinnen und Friseure wurden zusätzlich mit einem standardisierten Fragebogen befragt, um Daten über die getesteten Werkzeuge sowie die Prävalenz von Nickel- und Kobaltallergien zu erheben.

Nickel- und Kobalttestergebnisse
Der Chemo-Nickel-Test zeigte, das 131 von 475 Metallwerkzeugen (27,6 Prozent) Nickel freisetzen, beim Chemo-Kobalt-Test waren es 10 von 475 Metallwerkzeugen (2,1 Prozent). „Alle kobaltfreisetzenden Metallwerkzeuge setzten gleichzeitig Nickel frei und nickelfreisetzende Werkzeuge fanden sich in jedem besuchten Friseursalon unabhängig vom Preissegment und der geografischen Lage“, so Symanzik.

Die Nickel-Freisetzung war in der vorliegenden Studie besonders hoch. Dies könnte auf die Diversität der untersuchten Metallwerkzeuge zurückzuführen sein, so die Osnabrücker Autorin. Die Kobalt-Freisetzung war moderat im Vergleich zu Studien in anderen Berufsfeldern.

Aktuelle Daten zeigen, dass Nickel- und Kobaltallergien in der Berufsgruppe der Friseurinnen und Friseure häufig vorkommen. In der vorliegenden Studie litten 11,4 Prozent der 70 befragten Friseurinnen und Friseure an einer Nickelallergie und 2,9 Prozent zusätzlich an einer Kobaltallergie. „Eine beruflich bedingte Allergie stellt ein besonders Problem dar, die in schlimmsten Fall zum vorzeitigem Ausscheiden aus dem Beruf führen können“, erläutert Prof. Dr. Swen Malte John, der zusammen mit apl. Prof. Dr. Christoph Skudlik die Arbeit betreute. „Um eine Kontaktallergie zu vermeiden, sind präventive Maßnahmen unabdingbar.“

Die Studie zeigt, dass Metallwerkzeuge, die nach geltenden EU-Vorschriften (REACH-Verordnung) hergestellt werden, immer noch Quellen der Nickelbelastung sein können, zum Beispiel wenn die nickelfreie Beschichtung bei längerem Gebrauch nicht ausreichend ist. Grenzwertregelungen für die Verwendung von Kobalt in Metallwerkzeugen fehlen bislang, bemängeln die Autoren in der Veröffentlichung.

Die Masterarbeit von Cara Symanzik wurde in diesem Jahr mit einem Förderpreis der Universität Osnabrück ausgezeichnet, der von der Kreishandwerkerschaft Osnabrück gestiftet wurde.

Wissenschaftliche Ansprechpartner:
Cara Symanzik, B.Sc., M.Ed., Universität Osnabrück
Abteilung Dermatologie, Umweltmedizin, Gesundheitstheorie und
Institut für interdisziplinäre Dermatologische Prävention und Rehabilitation
Am Finkenhügel 7a, 49076 Osnabrück
Tel.: + 49 541 969 7448
E-Mail: cara.symanzik@uni-osnabrueck.de

Prof. Dr. med. Swen Malte John, Universität Osnabrück
Abteilung Dermatologie, Umweltmedizin, Gesundheitstheorie und
Institut für interdisziplinäre Dermatologische Prävention und Rehabilitation
Am Finkenhügel 7a, 49076 Osnabrück
Tel.: + 49 541 969 2357
E-Mail: johnderm@uni-osnabrueck.de

Originalpublikation:
Zur Veröffentlichung: https://onlinelibrary.wiley.com/doi/10.1111/jdv.17058
Experimental evaluation of nickel and cobalt release from tools and self-reported prevalence of nickel and cobalt allergy in the German hairdressing trade
C. Symanzik, C. Skudlik, S.M. John
Journal of the European Academy of Dermatology and Venereology, Volume 35, Issue 4

(nach oben)


Interdisziplinäres Forschungsteam untersucht Rolle der RNA bei der Entstehung des Lebens

Lena Reil Referat Hochschulkommunikation
Technische Universität Dortmund
Ging unserem heutigen Leben eine Welt voraus, die auf RNA als universellen Bausteinen basierte und erst später von DNA abgelöst wurde? In einem interdisziplinären Forschungsteam untersuchen Wissenschaftler*innen aus Dortmund und München, welche Rolle die Ribonukleinsäuren (RNA) bei der Entstehung des Lebens gespielt haben könnten. Die Arbeit zeigt, wie unter realistischen geologischen Bedingungen Prozesse, die für die Entstehung des Lebens bedeutsam gewesen sein mögen, durch physikalische Nichtgleichgewichtsprozesse begünstigt worden sein könnten. Die Erkenntnisse wurden kürzlich in der renommierten Fachzeitschrift Nature Chemistry veröffentlicht.

Während in heutigen Lebensformen die Desoxyribonukleinsäure (DNA) den Bauplan der Proteine, den Nanomaschinen des Lebens, enthält, spielt in der RNA-Welt-Hypothese deren Schwesterpolymer eine zentrale Rolle. Die Hypothese geht davon aus, dass das Leben aus sich selbst reproduzierenden RNA-Molekülen entstand, die vor der Evolution von DNA und Proteinen existierten. RNA kann beides sein, Informationsspeicher und Nanomaschine. Dies macht sie als Kandidat für das erste Biopolymer des Lebens besonders interessant, weil sie dadurch prinzipiell die Sequenz anderer RNA-Stränge kopieren kann und damit den Prozess der Darwin’schen Evolution hätte starten können.

Um die Aufgabe als Nanomaschine erfüllen zu können, muss sich die RNA jedoch ähnlich wie Proteine in eine korrekte und somit aktive Form falten – ein Prozess für den sie spezifische Anforderungen an ihre Umgebung stellt. Insbesondere benötigt sie dafür eine relativ hohe Konzentration an zweifach geladenen Magnesiumionen und eine möglichst geringe Konzentration an einfach geladenem Natrium, da letzteres zu einer Fehlfaltung der RNA-Stränge führen kann. Bisher war jedoch unklar, wie solche vorteilhaften Bedingungen durch präbiotisch plausible Prozesse erzeugt werden können.

Forschungskooperation zwischen Biophysik, Geowissenschaften und chemischer Biologie
In einem interdisziplinären Forschungsansatz konnten nun Wissenschaftler*innen der Ludwig-Maximilians-Universität (LMU) München und der TU Dortmund aus den Bereichen Biophysik, Geowissenschaften und chemische Biologie zeigen, wie aus damals wie heute hochverfügbarem Basalt und einfachen Wärmeflüssen das für die RNA-Faltung richtige Verhältnis zwischen Magnesium- und Natriumionen durch natürliche Prozesse bereitgestellt werden konnte.

Dafür wurden zuerst in der Arbeitsgruppe der Geowissenschaften von Don Dingwell und Bettina Scheu (LMU) die Basalt-Proben in verschiedenen Zustandsformen, Gestein oder Glas, synthetisiert. Das Basalt-Glas erhält man hierbei durch das rasche Abkühlen von geschmolzenem Basalt, ein natürlicher Prozess wie er seit der Existenz der Ozeane kontinuierlich auf der Erde stattfindet. In einem zweiten Schritt untersuchten die Biophysiker der Arbeitsgruppe von Dieter Braun und Christof Mast (LMU), welche Mengen an Magnesium und Natriumionen unter verschiedensten Randbedingungen, wie Temperatur oder Korngröße des Geomaterials, herausgelöst werden konnten. Hierbei zeigte sich, dass stets deutlich mehr Natrium ins Wasser gelangt als Magnesium – letzteres in viel geringeren Konzentrationen, als für die RNA-Nanomaschinen benötigt.

Betrachtet man nun jedoch das volle Bild mit Wärmeströmen, welche aufgrund der hohen geologischen Aktivität sehr wahrscheinlich vorhanden waren, ändert sich die Situation maßgeblich. In den feinen Kanälen, wie sie in basaltischem Glas leicht zu finden sind, führt ein solcher Wärmestrom zur gleichzeitigen Konvektion des Wassers und zu einer Drift der Salzionen entgegen des Wärmstroms. Dieser Thermophorese genannte Effekt ist dabei stark von der Ladungszahl und Größe der Ionen abhängig. In Kombination führen die Konvektion und Thermophorese schließlich dazu, dass sich Magnesiumionen viel stärker lokal anreichern als Natriumionen. Die Forscher konnten dabei zeigen, dass das unterschiedlich starke Aufkonzentrieren der Salze mit der Größe des Gesamtsystems zunimmt.

Die entsprechenden Test-Systeme in Form von katalytisch aktiven RNA-Strängen (Ribozym) wurde durch die Arbeitsgruppe von Hannes Mutschler (TU Dortmund) bereitgestellt. Insbesondere konnte das Team zeigen, dass die thermophoretischen Bedingungen die Selbstreproduktion eines Modell-Ribozyms deutlich verbessern. Den gleichen Effekt beobachteten sie auch für ein weiteres Ribozym, welches unter dem Einfluss der Thermophorese in der Lage war, mehrere kurze RNA-Stränge zu verknüpfen und damit sehr lange RNA-Moleküle zu erzeugen. Diese beiden grundlegenden biologischen Aktivitäten waren auch durch die Auftrennung der Natrium- und Magnesiumionen, wie sie in den thermophoretischen Systemen vorkommt, deutlich effektiver. Selbst sehr große Natrium-Überschüsse im Bereich von 1000:1 im Vergleich zu Magnesium, die in manchen prebiotischen Szenarien angenommen werden und mit der RNA-Katalyse nicht kompatibel sind, können durch das im Paper vorgestellte Szenario ausgeglichen werden, sodass die Ribozyme trotzdem ihre Arbeit verrichten können.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hannes Mutschler
Tel.: +49 231 755 8696
E-Mail: hannes.mutschler@tu-dortmund.de

Originalpublikation:
https://www.nature.com/articles/s41557-021-00772-5

(nach oben)


Mitteleuropas Vorgeschichte war sehr dynamisch

Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie
In einer neuen Studie analysierten Forschende der Max-Planck-Institute für Menschheitsgeschichte (Jena) und für evolutionäre Anthropologie (Leipzig) zusammen mit Kolleginnen und Kollegen des Instituts für Archäologie der Tschechischen Akademie der Wissenschaften (Prag) und weiteren Kooperierenden die Genome von 271 Menschen, die vor 7.000 bis 3.500 Jahren in Böhmen in der heutigen Tschechischen Republik lebten. Dabei stießen sie auf mindestens drei weitere Migrationsereignisse, die die Vorgeschichte Mitteleuropas geprägt haben.

Durch die zentrale Lage entlang der Handelswege und enge Anbindung an wichtige Wasserstraßen wie die Elbe zog Böhmen viele verschiedene archäologische Kulturen an, was es zu einer Schlüsselregion für das Verständnis der Vorgeschichte Europas macht. Ergänzend zu bisherigen Erkenntnissen über größere Expansionen, die mit der Ausbreitung des Ackerbaus und der „Steppen“-Herkunft verbunden waren, stellt diese neue Studie wenigstens drei weitere Expansionsereignisse heraus, die die Vorgeschichte Mitteleuropas prägten.

Genetische Profile von Menschen der Trichterbecher- und der Kugelamphoren-Kultur deuten darauf hin, dass diese erst kurz zuvor in die Region eingewandert waren. Der bisher als relativ ereignislos betrachtete Zeitraum zwischen der Einführung des Ackerbaus und der Ausbreitung der genetischen „Steppen“-Komponente scheint also dynamischer gewesen zu sein als bisher angenommen.

Drastische Veränderungen in der genetischen Landschaft
Die umfangreiche Stichprobennahme, die sich vor allem auf die späte Jungsteinzeit und frühe Bronzezeit (vor ca. 6.000-3.700 Jahren) konzentrierte, ermöglichte es den Forschenden auch neue Einblicke in soziale Prozesse zu gewinnen: Menschen der Schnurkeramik-Kultur expandierten aus Osteuropa und nahmen gleichfalls mitteleuropäische Frauen in ihre Gesellschaft auf, denen sie das gleiche Bestattungsritual zukommen ließen wie den Mitgliedern der eingewanderten Gruppe. „Endlich konnten wir wichtige zeitliche Lücken schließen, vor allem in der Übergangszeit vor etwa 5.000 Jahren, als sich die genetische Landschaft drastisch veränderte“, sagt Max-Planck-Forscher Wolfgang Haak, Hauptautor und Leiter der Studie. „Interessanterweise finden wir für diesen frühen Zeitpunkt Menschen mit einem hohen Anteil an „Steppen“-DNA und andere mit wenig oder gar keiner, die aber alle nach denselben Bräuchen beigesetzt wurden.“

Die Menschen der Schnurkeramik-Kultur (vor 4.900-4.400 Jahren) haben sich im Laufe der Zeit genetisch verändert. Eine wichtige Veränderung scheint der starke Rückgang der Vielfalt innerhalb der Y-Chromosomen-Linien gewesen zu sein. Während es bei Schnurkeramik-Männern anfangs fünf verschiedene Y-Linien gab, waren sie später fast ausschließlich Träger einer einzigen Y-Linie, stammten also überspitzt betrachtet von ein und demselben Mann der jüngsten Vergangenheit ab. „Dieses Muster könnte das Entstehen einer neuen sozialen Struktur oder einer neuen ‚Paarungsregelung‘ widerspiegeln, bei der nur eine kleine Auswahl von Männern die Mehrheit der Nachkommen gezeugt hat“, sagt Erstautor Luka Papac, Forscher am Max-Planck-Institut für Menschheitsgeschichte.

Diese Sozialstruktur scheint in der darauffolgenden Glockenbecher-Gesellschaft (vor 4.500-4.200 Jahren) noch strenger gewesen zu sein – jeder einzelne der untersuchten Männer gehörte einer einzigen, neu eingeführten Y-Linie an. Bemerkenswerterweise konnte diese Glockenbecher-Y-Linie nie zuvor in Böhmen nachgewiesen werden, was bedeutet, dass eine neue Bevölkerungsgruppe die Region besiedelte und alle vorher existierenden Y-Linien ersetzte, sodass bei den Glockenbecher-Männern keine einzige Abstammungslinie von Vertretern der Schnurkeramik oder früheren Gesellschaften nachgewiesen werden konnte.

Kulturelle, biologische und soziale Veränderungen
Wissenschaftlicher Konsens war bisher, dass die Aunjetitzer Kultur der frühen Bronzezeit von Vertretern der Glockenbecher-Kultur abstammt, eventuell mit einem begrenzten Erbgut-Beitrag aus dem südöstlichen Karpatenbecken. Mithilfe der neuen genetischen Daten belegen die Forschenden jedoch einen weiteren genetischen Umschwung aus den Regionen nordöstlich von Böhmen stammend. Interessanterweise treten auch 80 Prozent der frühen Aunjetitzer-Y-Linien neu in Böhmen auf – einige von ihnen konnten in den Genomen von damals in Nordosteuropa lebenden Nachkommen der Schnurkeramik nachgewiesen werden, was Hinweise zu ihrer Herkunft liefert. „Dieser Befund war für uns Archäologen sehr überraschend, da wir nicht erwartet hatten, so klare Muster zu erkennen, obwohl die Region eine entscheidende Rolle spielte, beispielsweise beim aufkommenden Handel mit Bernstein aus dem Baltikum. Darüber hinaus war die Region während der Bronze- und Eisenzeit ein wichtiger Handelsknotenpunkt“, fügt Mitautor und Co-Projektleiter Michal Ernée von der Tschechischen Akademie der Wissenschaften hinzu.

Die Ergebnisse zeichnen ein äußerst dynamisches Bild der Vorgeschichte Mitteleuropas mit zahlreichen und häufigen Veränderungen im kulturellen, biologischen und sozialen Gesellschaftsgefüge, was die Leistungsfähigkeit und das Potenzial detailreicher Regional-Studien wie dieser unterstreicht. Die Herausforderung bleibt jedoch, die sozioökonomischen, ökologischen und/oder politischen Gründe und Mechanismen hinter diesen Veränderungen zu verstehen, was für weitere zukünftige interdisziplinäre Studien zur europäischen Vorgeschichte viel Raum bietet.

Wissenschaftliche Ansprechpartner:
Luka Papac
Max-Planck-Institut für Menschheitsgeschichte, Jena
+49 178 3046-523
papac@shh.mpg.de

Dr. Wolfgang Haak
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig &
Max-Planck-Institut für Menschheitsgeschichte, Jena
+49 173 2122-174
wolfgang_haak@eva.mpg.de

Originalpublikation:
Luka Papac et al.
Dynamic changes in genomic and social structures in third millennium BCE central Europe
Science Advances, 25. August 2021, https://doi.org/10.1126/sciadv.abi6941

(nach oben)


Wie wir wohnen, leben, arbeiten werden

Dipl.-Soz. Peter Lonitz Presse- und Öffentlichkeitsarbeit
Schader-Stiftung
Interdisziplinäres Sommercamp vom 26. bis 29. August 2021 im Schader-Forum, Darmstadt

Wir möchten Sie herzlich bitten, über unser Sommercamp „Stadt und Land von morgen: Wie wir wohnen, leben, arbeiten werden“ vom 26. bis 29. August 2021 im Schader-Forum in Darmstadt zu berichten. Dafür laden wir Sie gerne zur nicht-öffentlichen Abschlusspräsentation des Sommercamps
am Sonntag, den 29. August 2021 um 13 Uhr
ins Schader-Forum in Darmstadt ein.

Zwanzig junge Menschen aus Studium, Wissenschaft und Praxis werden in vier Tagen interdisziplinärer Arbeit innovative Konzepte entwickeln, die als Anregung für Transformationsprozesse vor Ort dienen können. Die entstehenden Konzepte und Anregungen werden mit Mitarbeitenden des Projekts „Systeminnovation für Nachhaltige Entwicklung (s:ne)“ diskutiert und können in die Projektvorhaben einfließen. Beim Projekt s:ne handelt es sich um ein von der Bund-Länder-Initiative „Innovative Hochschule“ gefördertes Verbundprojekt der Hochschule Darmstadt und sechs direkter Partner aus Wissenschaft und Praxis.

Ausgangspunkt des Sommercamps ist eine Zeitreise ins Jahr 2026 und ein Rückblick auf den Sommer 2021. Die Corona-Pandemie lässt uns wie durch ein Brennglas auf die derzeitigen gesellschaftlichen Verhältnisse sehen. Die Einschränkungen zur Senkung des Infektionsrisikos ändern die Arten und Ausmaße der Mobilität, die Nutzung des öffentlichen Raums, die individuell gewählten Arbeitsorte und die Kommunikation. Vieles davon erzwingt Verzicht, löst Bedauern aus. Manches indes schafft individuelle Erleichterungen oder zeitigt zum Beispiel positive Effekte auf Klima und Umwelt.

Die Teilnehmenden aus gesellschaftswissenschaftlichen, planerischen, kreativen und anderen Fachdisziplinen werden sich zu interdisziplinären Teams zusammenfinden. Ausgewählt wurden die Teilnehmerinnen und Teilnehmer durch ein Bewerbungsverfahren, zu dem die Veranstaltergemeinschaft – die Akademie der Architekten- und Stadtplanerkammer Hessen, der Deutsche Werkbund Hessen, die Hochschule Darmstadt, die Schader-Stiftung und die Vereinigung für Stadt-, Regional- und Landesplanung (SRL) – eingeladen hat.

Unterstützt werden die Teams von Katharina Pelka, Stabsstelle Kultur- und Kreativwirtschaft, Stadt Heidelberg, Kjell Schmidt, Regionalpark Ballungsraum RheinMain GmbH, Flörsheim am Main, Roman Schmitz, Stiftung Humboldt Forum im Berliner Schloss, Berlin und Prof. Dr.-Ing. Ursula Stein, Stein Stadt- und Regionalplanung, Frankfurt am Main, die als Begleiterinnen und Begleiter des Sommercamps fungieren. Sie werden ihre Kompetenzen und Erfahrungen in die Arbeit der jungen Menschen einbringen.

Wir laden Sie herzlich ein, über das Sommercamp zu berichten.
Die Ausrichter würden sich über Ihr Kommen sehr freuen und bitten um Anmeldung.

Weitere Informationen:
https://www.schader-stiftung.de/sommercamp2021

(nach oben)


Information und Wissen haben heilsame Wirkung

Peter Kuntz Kommunikation & Marketing
Universität Trier
Ein Forschungsteam der Universität Trier hat gesundheitsfördernde Effekte durch Patientenedukation festgestellt. Dennoch führt die Maßnahme ein medizinisches Schattendasein.

Die Gesundheit von Patienten lässt sich durch die Vermittlung von Wissen über die eigene Krankheit nachweislich stabilisieren und sogar verbessern. Wissenschaftler der Universität Trier haben in einer gerade veröffentlichten Studie herausgearbeitet, dass sich bei vielen Krankheitsbildern durch eine Aufklärung der Betroffenen gesundheitsfördernde Effekte erreichen lassen.

„Im Vergleich zu komplexen und meist teuren operativen oder pharmakologischen Therapien ist die Patientenedukation eine einfache und effektive Methode zum Wohl der Patienten – und das ohne bekannte negative Nebenwirkungen“, sagt die Autorin der Studie, Dr. Bianca Simonsmeier-Martin.

Diese Erkenntnis ist nicht neu. Seit vielen Jahrzehnten wird in kleineren Einzelstudien zur Patientenedukation geforscht. In diesen Studien wurde jeweils eine spezifische Maßnahme für eine Stichprobe von Patienten mit einem bestimmten Krankheitsbild untersucht. Die Allgemeingültigkeit der Aussagen zur Wirksamkeit von Patientenedukation war daher bisher unklar.

Die Trierer Wissenschaftler Dr. Bianca Simonsmeier-Martin, Dr. Maja Flaig, Thomas Simacek und Prof. Dr. Michael Schneider haben in ihrer Metastudie 776 Einzelstudien aus den vergangenen 60 Jahren unter Beteiligung von insgesamt knapp 75.000 Patienten ausgewertet. Keine dieser Studien kam zu dem Ergebnis, dass Patientenedukation negative Folgen haben könnte.

„Unsere Metaanalyse hat sehr homogene Befunde und somit sehr robuste Ergebnisse und belastbare Aussagen ergeben“, stellt Bianca Simonsmeier-Martin fest. Patientenedukation erzielt demzufolge insbesondere bei chronischen Krankheiten die stärksten Effekte und bei Leiden, an deren Behandlung die Betroffenen durch eigenes Handeln im Alltag mitwirken können.

Unter dem Begriff Patientenedukation fassen die Trierer Psychologen alle Maßnahmen zusammen, die dazu dienen, Betroffenen Wissen und Fertigkeiten zu einer Krankheit und ihrer Behandlung zu vermitteln. Die Bandbreite reicht vom einfachen Thekengespräch in der Apotheke oder Infoblatt im Wartezimmer bis zu umfangreichen Trainings.

Angesichts der jahrzehntelang betriebenen Forschung und der nachgewiesenen Wirksamkeit stellt sich die Frage, warum Patientenedukation nicht intensiver und nicht schon viel länger als therapieunterstützendes Instrument eingesetzt wird. Bianca Simonsmeier-Martin erklärt das durch verschiedene Aspekte: „Der kulturelle Wandel, dass Patienten vom Arzt Informationen und ausführliche Aufklärung einfordern, hat erst spät stattgefunden. Patientenedukation ist in unserem Gesundheitswesen auch deshalb unterrepräsentiert, weil es schlichtweg für Ärzte schwer abrechenbar ist und möglicherweise auch, weil Medizinern die positive Wirkung von Patientenedukation zu wenig bekannt ist.“

Daher würde die Wissenschaftlerin der Universität Trier gerne auf diesem Gebiet weiter forschen und in Kooperation mit medizinischen Einrichtungen anwendungsbezogene Lösungen entwickeln, um Patientenedukation effektiv und pragmatisch zum Vorteil von kranken Menschen stärker zu etablieren. Anders als beispielsweise für die Einführung von Medikamenten gibt es für die Anwendung von Patientenedukation bisher keine einheitlichen Standards.

Wissenschaftliche Ansprechpartner:
Kontakt
Dr. Bianca Simonsmeier-Martin
Pädagogische Psychologie
+49 176-70341207
simonsm@uni-trier.de

Originalpublikation:
Die Studie
Bianca A. Simonsmeier, Maja Flaig, Thomas Simacek & Michael Schneider (2021)
What sixty years of research says about the effectiveness of patient education on health: a second order meta-analysis.
Health Psychology Review, https://doi.org/10.1080/17437199.2021.1967184

(nach oben)


Reduktion des Energieverbrauchs von Funknetzen: TUD mit zwei Clusterprojektanträgen erfolgreich

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Mit zwei BMBF geförderten Projekten kann die TUD künftig zur Verbesserung des Energieverbrauchs in Computersystemen und Datenfunknetzen beitragen – ein wichtiger Baustein im Kampf gegen die Klimakatastrophe

Im Rahmen des BMBF Innovationswettbewerb „Elektronik für energiesparsame Informations- und Kommunikationstechnik“ haben sich deutschlandweit 22 Teams beworben. Drei Anträge wurden auf Basis der Relevanz für Deutschland, Einsparpotentiale, Innovationshöhe und des Lösungsansatzes im Finale vom BMBF priorisiert – zwei stammen von der TU Dresden: E4C und DAKORE

Die Covid-19 Pandemie hat einmal mehr gezeigt, wie wichtig die Kommunikationstechnik für unser Leben und Arbeiten ist. Die zwei Projekte wollen den Energieverbrauch von Funkzugangsnetzen und den damit verbunden CO2-Ausstoß massiv reduzieren. Klimaschutz mittels innovativer Funktechnologien liegt als entscheidendes Thema passgenau bei der Forschungsstrategie der TU Dresden, welche sich als global bezogene Universität an der Bewältigung der großen Herausforderungen des 21. Jahrhunderts beteiligen möchte.

In Zukunft wird nicht das Rechnen selbst, sondern die Kommunikation in Computersystemen den Energieverbrauch dominieren. Im von Prof. Gerhard Fettweis und Dr. Meik Dörpinghaus koordinierten Projekt E4C soll dieser Verbrauch massiv reduziert werden. E4C steht für „Extrem Energieeffiziente Edge Cloud Hardware am Beispiel Cloud Radio Access Network“. Eine skalierbare Computerarchitektur wird entwickelt, welche aus optimierten Rechenknoten und einer neuartigen hybriden Datenbusstruktur aus elektrischen, optischen und drahtlosen Kommunikationsverbindungen aufgebaut ist. Diese kann z.B. in Edge-Servern für virtualisierte 5G-Funkzugangsnetze eingesetzt werden. Die Projektpartner sind TU Dresden (Vodafone Stiftungslehrstuhl für Mobile Nachrichtensysteme, Institut für Aufbau- und Verbindungstechnik, Professur für Compilerbau, Professur für Schaltungstechnik und Netzwerktheorie, Professur für Hochfrequenztechnik), eesy-IC GmbH, ficonTEC Service GmbH, First Sensor Microelectronic Packaging GmbH, GCD Printlayout GmbH, Micro Systems Engineering GmbH und VI-Systems GmbH. Das Projekt wird zudem begleitet von Nokia Bell Labs, Vodafone GmbH, GLOBALFOUNDRIES LLC & Co. KG, Cloud&Heat Technologies GmbH sowie National Instruments Corp.

DAKORE steht für „Datenfunknetz mit Adaptivhardware und KI-Optimierung zur Reduktion des Energieverbrauches“ und wird vom Team von Prof. Frank Ellinger geleitet. Sein großer Dank gilt Peter Brandl, Franz A. Dürrwald und Andreas Seidel für deren Einsatz bei der Antragsphase. Durch die bedarfsgerechte Optimierung auf stark variierende Performanz-Anforderungen soll der Energieverbrauch von 5G-Funkzugangsnetzen stark reduziert werden. Dazu wird ein holistischer Ansatz entwickelt, der erstmals die ganzheitliche und dynamische Adaptivität von Elektronikkomponenten als auch Software – von globalen KI-Algorithmen bis hin zur Transistorsteuerung unter Beibehaltung der Dienstgüte – verfolgt. Besonders wichtig ist hier die Senkung des Energieverbrauchs der Leistungsverstärker, welche bisher „Leistungsfresser“ sind. Die Projektpartner sind Technische Universität Dresden (Professur für Schaltungstechnik und Netzwerktheorie, Deutsche Telekom Professur für Kommunikationsnetze, Professur für Adaptive Dynamische Systeme), IMST GmbH, Xilinx Dresden GmbH, CampusGenius GmbH, A.N. Solutions GmbH, brown-iposs GmbH, atesio GmbH, Deutsche Funkturm GmbH, National Instruments Dresden GmbH, Deutsche Telekom AG (assoziiert), Ericsson (assoziiert), Vodafone GmbH (assoziiert), United Monolithic Semiconductors GmbH (assoziiert), X-FAB Silicon Foundries SE (assoziiert), Infineon Technologies AG (assoziiert) und Cloud&Heat Technologies GmbH (assoziiert).

Wissenschaftliche Ansprechpartner:
DAKORE:
Prof. Frank Ellinger
Tel. +49 351 463-38735
Mail: frank.ellinger@tu-dresden.de

Peter Brandl
Tel. +49 351 463-34794
Mail: Peter.Brandl@tu-dresden.de

E4C:
Prof. Gerhard Fettweis
Tel. +49 351 463-41000
Mail: gerhard.fettweis@tu-dresden.de

Dr. Meik Dörpinghaus
Tel.: +49 351 463 41 061
Mail: meik.doerpinghaus@tu-dresden.de

Weitere Informationen:
https://www.elektronikforschung.de/service/aktuelles/innovationswettbewerb-elekt…
https://www.bmbf.de/bmbf/shareddocs/pressemitteilungen/de/2021/08/190821-ICT-II….

(nach oben)


H2Giga: Serienfertigung von Elektrolyseuren

Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
H2Giga, eines der drei Wasserstoff-Leitprojekte des Bundesministerium für Bildung und Forschung (BMBF), ist an den Start gegangen. Mit seinen über 130 beteiligten Institutionen aus Wirtschaft und Wissenschaft, organisiert in fast 30 eigenständig arbeitenden Verbünden, wird H2Giga die Herstellung von Grünem Wasserstoff im industriellen Maßstab entwickeln. Am 26. August findet das Kickoff-Event von H2Giga mit Podiumsgesprächen von führenden Teilnehmern aus Industrie und Forschung und Dr. Stefan Kaufmann MdB, dem Innovationsbeauftragten „Grüner Wasserstoff“ des BMBF, statt. Die Veranstaltung wird aus dem DECHEMA-Haus in Frankfurt via Livestream öffentlich übertragen.

Mit einem vorgesehenen Fördervolumen von insgesamt etwa 740 Millionen Euro unterstützt das BMBF Deutschlands Einstieg in die Wasserstoffwirtschaft. Die Wasserstoff-Leitprojekte bilden einen zentralen Beitrag zur Umsetzung der Nationalen Wasserstoffstrategie und ermöglichen einen großen Schritt in Richtung eines nachhaltigen Energiesystems. In kürzester Zeit soll Deutschland eine führende Rolle in den Wasserstofftechnologien einnehmen und weiter ausbauen. Damit können Klimaschutz und Wirtschaft zunehmend in Einklang gebracht werden.

Mit Grünem Wasserstoff kann erneuerbare elektrische Energie in chemische Energie umgewandelt und damit speicherbar gemacht werden. Die Speicherung elektrischer Energie wiederum ist eine wesentliche Voraussetzung, um Deutschlands Energiewirtschaft auf regenerative Quellen umstellen zu können.

Die Herstellung von Wasserstoff aus Wasser und Strom, die „Elektrolyse“, ist ein seit langem bekannter Prozess, der mittlerweile eine beachtliche technische Reife errungen hat. Aktuell ist diese Technologie jedoch noch nicht in großen, für das gesamte Energiesystem relevanten Maßstäben vorhanden. Die Elektrolyseure werden derzeit noch weitgehend in Handarbeit aufgebaut, mit entsprechend hohem Kostenaufwand und geringer Fertigungskapazität. Hier greift das Leitprojekt H2Giga, indem es die Industrialisierung der Wasserelektrolyse zur Herstellung von Grünem Wasserstoff vorbereitet und vorantreibt. Die Partner von H2Giga entwickeln für die Herstellung von Elektrolyseuren Fertigungstechnologien, Automatisierung, Digitalisierung und Methoden zur Qualitätskontrolle, so dass die heute noch überwiegende Fertigung mit geringer Automatisierungstiefe auf eine industrielle Serienproduktion für den entsprechenden Markthochlauf umgestellt werden kann.

Am Leitprojekt H2Giga sind die führenden Hersteller dieser Technologie beteiligt, wie Siemens Energy, Linde, MAN Energy Solutions, Thyssenkrupp und Sunfire. Ebenso geforscht wird an Technologien mit besonders hohem Innovationsgrad, sozusagen an einer zweiten Generation von Elektrolyseuren, wobei Unternehmen wie Schaeffler, Enapter und die neu gegründete WEW GmbH beteiligt sind. Von wissenschaftlicher Seite arbeiten renommierte Universitäten und Forschungseinrichtungen, darunter die RWTH Aachen University, zahlreiche Fraunhofer-Institute sowie Institute der Helmholtz-Gemeinschaft und der Max-Planck-Gesellschaft, an den Themen Materialforschung, Lebensdauer & Zelltests, Recycling, Fertigungstechnologien und Digitalisierung. Insgesamt ist für diese Aktivitäten eine Fördersumme von etwa 500 Millionen Euro vorgesehen.

DECHEMA e.V. koordiniert im Leitprojekt H2Giga den Austausch der Partner aus Wissenschaft und Industrie. Er soll der Booster für die Entwicklungs- und Innovationsgeschwindigkeit bei der Implementierung von Grünem Wasserstoff sein, Synergien heben und Entwicklungshürden überwinden. Das Ziel von H2Giga ist die Grundsteinlegung für eine wettbewerbsfähige Herstellung von Grünem Wasserstoff im Gigawatt-Maßstab, damit dieser Schlüssel der Energiewende verfügbar und bezahlbar werden kann.

Als Kickoff-Veranstaltung für H2Giga werden Projektpartner aus Industrie und Forschung am 26.8.2021 von 10:00h bis 13:00h in moderierten Podiumsgesprächen ihr Vorhaben vorstellen. DECHEMA lädt alle Pressevertreter*innen herzlich zu diesem Event ein.
Der Livestream ist ohne Anmeldung unter folgendem Link abrufbar:
https://www.wasserstoff-leitprojekte.de/h2giga-start.
Die Präsenz-Teilnahme in Frankfurt erfordert wegen pandemiebedingter Restriktionen eine Anmeldung über die untenstehenden Kontaktdaten.

Über die Wasserstoff-Leitprojekte:
Die BMBF-geförderten Wasserstoff-Leitprojekte sind das Ergebnis eines Ideenwettbewerbs: Wissenschaft, Wirtschaft und Zivilgesellschaft waren eingeladen, Ideen zu Wasserstoff-Großprojekten einzureichen. Über 240 Partner haben sich so zusammengefunden und sollen mit insgesamt etwa 740 Millionen Euro gefördert werden. Im Frühjahr sind die Projekte auf Basis unverbindlicher Förder-Inaussichtstellungen gestartet. Die Leitprojekte werden über eine Laufzeit von vier Jahren gefördert. Weitere Informationen unter http://www.wasserstoff-leitprojekte.de.

Wissenschaftliche Ansprechpartner:
Johanna Richter (DECHEMA e.V.): johanna.richter@dechema.de Tel.: +49 69-7564-307

Weitere Informationen:
https://www.wasserstoff-leitprojekte.de/h2giga-start – Livestream zum Kickoff-Meeting
http://www.wasserstoff-leitprojekte.de – Übersicht der Wasserstoff-Leitprojekte

(nach oben)


Corona-Spürhunde: Diag’nose‘

Sonja von Brethorst Presse- und Öffentlichkeitsarbeit
Stiftung Tierärztliche Hochschule Hannover
Schweiß, Urin oder Speichel – Hunde können an unterschiedlichen Körperflüssigkeiten mit hoher Genauigkeit

Ein Forschungsteam unter Leitung der Stiftung Tierärztlichen Hochschule Hannover (TiHo) veröffentlichte in Zusammenarbeit mit der Bundeswehr, der Medizinischen Hochschule Hannover und dem Universitätsklinikum Hamburg-Eppendorf in der Fachzeitschrift BMC Infectious Diseases eine Studie und einen Übersichtsartikel über Corona-Spürhunde. Die neue Studie zeigt, dass der Nachweis SARS-CoV-2-infizierter Personen unabhängig davon ist, welche Körperflüssigkeit den Hunden präsentiert wird. Sie bestätigt zudem, dass Hunde in der Lage sind, die Infektion schnell und sicher zu diagnostizieren und dass die freigesetzten flüchtigen organischen Verbindungen, die die Hunde riechen, unabhängig von der infizierten Körperzelle sind. Für medizinische Spürhunde scheinen alle getesteten Körperflüssigkeiten in ähnlicher Weise geeignet zu sein, um SARS-CoV-2-Infizierte zuverlässig zu erkennen.

Die Studie
Für die Studie setzte das Forschungsteam zehn spezialisierte Spürhunden der Bundeswehr ein. Nach einem speziellen Training waren sie in der Lage, 92 Prozent der über 5.000 vorgelegten Proben korrekt zu identifizieren. Die Hunde wurden ausschließlich mit Speichelproben trainiert, in der Studie mussten sie aber auch Urin- und Schweißproben auf die flüchtigen organischen Verbindungen, die die Zellen SARS-CoV-2-positiver Menschen produzieren, kontrollieren. Die Proben wurden automatisiert nach dem Zufallsprinzip verteilt – weder die beteiligten Hundeführer noch die Forschenden vor Ort wussten, welche Proben positiv waren und welche zu Kontrollzwecken dienten. Die Hunde waren in der Lage, zwischen Proben infizierter und nicht infizierter Personen mit einer durchschnittlichen diagnostischen Sensitivität und Spezifität von 95 Prozent bzw. 98 Prozent für Urin, 91 Prozent bzw. 94 Prozent für Schweiß und 82 Prozent bzw. 96 Prozent für Speichel zu unterscheiden. Die Sensitivität bezieht sich auf den Nachweis von positiven Proben. Die Spezifität bezieht sich auf den Nachweis negativer Kontrollproben. Die SARS-CoV-2-positiven Proben stammten von infizierten Personen mit und ohne Symptomen.

Der Geruchssinn des Hundes
Seit Beginn der Domestizierung nutzt der Mensch die außergewöhnlichen Geruchsfähigkeiten von Hunden, um Beute zu jagen, aber auch, um sich selbst vor Raubtieren zu schützen. Heutzutage werden Hunde zunehmend auch im Bereich der medizinischen Forschung zur Geruchserkennung eingesetzt. Sie sind in der Lage, infektiöse und nicht-infektiöse Krankheiten wie verschiedene Krebsarten, Malaria, bakterielle und virale Infektionen zu erkennen (Jendrny et al., 2021). Der Geruchssinn des Hundes ist unübertroffen und mit dem Geruchssinn des Menschen nicht zu vergleichen; Hunde haben mehr als 1.000 Gene für die Olfaktion, eine höhere Nasenoberfläche, einen optimierten Luftstrom zum Riechen, 40-mal mehr Riechrezeptorzellen (200 bis 300 Millionen gegenüber 5 bis 8 Millionen beim Menschen) und ein zusätzliches Geruchssystem (vomeronasales Organ) um einige Beispiele zu nennen. Ein Exempel veranschaulicht die Geruchsfähigkeit von Hunden: Ein Hund ist in der Lage den Tropfen einer Flüssigkeit in 50.000.000 Litern Wasser, das entspricht 20 Schwimmbecken olympischer Größe, zu erkennen.

Machbarkeitsstudie „Back to Culture“
Erst kürzlich hatte das Niedersächsische Ministerium für Wissenschaft und Kultur angekündigt, die Studie „back to culture“ mit 1,5 Millionen Euro zu unterstützen. In Zusammenarbeit mit der Medizinischen Hochschule Hannover, dem Universitätsklinikum Hamburg-Eppendorf, Hannover Concerts, Proevent, Kynoscience, Awias Aviation Services und der Bundeswehr wollen die TiHo-Forschenden in die Erkenntnisse in die Praxis testen. Sie werden auf das Coronavirus trainierte Spürhunde in diesem Herbst bei mehreren Musikveranstaltungen einsetzen und mit Antigen- und rtRT-PCR-Tests vergleichen. Dies wird weitere Erkenntnisse darüber liefern, wie Corona-Spürhunde am besten bei der Detektion infizierten Menschen eingesetzt werden können.

Dr. Esther Schalke, EBVS® spezialisierte Verhaltensforscherin und Oberstabsveterinär an der Schule für Diensthundewesen der Bundeswehr, sagte: „Diese Studie ist ein weiterer Beweis für das Potenzial, das Geruchssuchhunde bei der Bekämpfung der aktuellen Pandemie haben könnten. Es ist schwer vorstellbar, aber die Geruchserkennung von Hunden ist um drei Größenordnungen empfindlicher als die derzeit verfügbaren Instrumente.“

Professor Albert Osterhaus, PhD, Research Center for Emerging Infections and Zoonoses der TiHo, sagte: „Es ist bekannt, dass infektiöse Atemwegserkrankungen spezifische flüchtige organische Verbindungen freisetzen können. Unsere Studie zeigt, dass Hunde diese flüchtigen organischen Verbindungen in verschiedenen Körperflüssigkeiten als Muster erkennen können.“

Professor Holger A. Volk, PhD, Klinik für Kleintiere der TiHo, sagte: „Alle wissenschaftlichen Mosaiksteinchen fügen sich nun zusammen und ergeben ein klares Bild: Der Geruchssinn des Hundes eignet sich hervorragend für die Erkennung von SARS-CoV-2-infizierten Personen. Zukünftige Studien im Feld sind nun notwendig, um zu zeigen, wie Hunde am besten eingesetzt werden können.“

Die Originalpublikationen
Jendrny, P., Twele, F., Meller, S. et al. Scent dog identification of SARS-CoV-2 infections in different body fluids. BMC Infect Dis 21, 707 (2021). https://doi.org/10.1186/s12879-021-06411-1
Jendrny, P., Twele, F., Meller, S. et al. Canine olfactory detection and its relevance to medical detection BMC Inffect Dis (2021) https://doi.org/10.1186/s12879-021-06523-8
First publication in the field: Jendrny, P., Schulz, C., Twele, F. et al. Scent dog identification of samples from COVID-19 patients – a pilot study. BMC Infect Dis 20, 536 (2020). https://doi.org/10.1186/s12879-020-05281-3

Wissenschaftliche Ansprechpartner:
Professor Holger Volk, PhD
Stiftung Tierärztliche Hochschule Hannover
Klinik für Kleintiere
Tel.: +49 511 953-6202
holger.volk@tiho-hannover.de

Professor Dr. Albert Osterhaus
Stiftung Tierärztliche Hochschule Hannover
Research Center for Emerging Infections and Zoonoses
Tel.: +49 511 953-6140
albert.osterhaus@tiho-hannover.de

Professorin Dr. Maren von Köckritz-Blickwede
Stiftung Tierärztliche Hochschule Hannover
Research Center for Emerging Infections and Zoonoses
Tel.: +49 511 953-8787
maren.von.koeckritz-blickwede@tiho-hannover.de

Weitere Informationen:
http://www.tiho-hannover.de/pressemitteilungen

(nach oben)


Der Untergang der Europäischen Flusskrebse: Wenn Wirtschaft über Naturschutz siegt

Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Der europäische Flusskrebs wird seit rund 150 Jahren von der Krebspest dahin gerafft. Angesichts dieser Entwicklung wurden aus wirtschaftlichen Gründen gezielt nordamerikanische Signalkrebse in Flüsse und Bäche ausgesetzt. Das massenhafte Sterben der einheimischen Krebse hat sich dadurch noch mehr beschleunigt statt verlangsamt. Wissenschaftler*innen des Senckenberg und anderen europäischen Forschungseinrichtungen berichten in „Frontiers in Ecology and Evolution“, wie es dazu kam und welche Lehren sich daraus ziehen lassen. Am europäischen Flusskrebs sei ersichtlich, dass es mehr schade als nütze gebietsfremde Arten einzuführen, um verlorene Bestände einheimischer Arten zu ersetzen

Dies ist die Geschichte einer gewaltigen Fehlentscheidung, die im Jahr 1860 beginnt. In diesem Jahr wird erstmals beobachtet, dass europäische Flusskrebse (Astacus astacus), auch Edelkrebse genannt, in großer Anzahl sterben. Verantwortlich ist ein Scheinpilz, der die – zumindest für europäische Flusskrebse tödliche – Krebspest verursacht. Rund einhundert Jahre später, 1960, hatte die Krankheit die Bestände der Edelkrebse bereits beträchtlich dezimiert. Um den Verlust zu kompensieren, wurde deshalb u.a. in Finnland, Schweden, Österreich und Spanien der nordamerikanische Signalkrebs (Pacifastacus leniusculus), der immun gegenüber der Krebspest zu sein schien, in Flüssen und Seen ausgesetzt. Heutzutage hat der Signalkrebs die Oberhand in Europas Gewässern. Und der Edelkrebs? Der ist nach zahlreichen Krebspestwellen inzwischen vom Aussterben bedroht.

„Der Signalkrebs wurde mittlerweile in 28 europäischen Ländern nachgewiesen. Der Einwanderer ist zwar gegen die meisten Krebspest-Erregerstämme resistent, aber er kann den Erreger übertragen. Als man die Tiere massenhaft ausgesetzt hat, hat man dem Edelkrebs daher gleichsam den Todesstoß verpasst“, sagt Dr. Kathrin Theissinger vom Senckenberg Biodiversität und Klima Forschungszentrum und der Universität Koblenz-Landau. Der Signalkrebs gilt in Europa inzwischen als invasive Art und damit als einer der fünf maßgeblichen Faktoren, die weltweit zum Verlust biologischer Vielfalt führen. Theissinger dazu: „Brisant ist, dass der Signalkrebs nicht zufällig in europäische Gewässer gelangt ist, sondern bewusst und wiederholt trotz wissenschaftlicher Bedenken eingebracht wurde und wird“.

Gemeinsam mit Kolleg*innen der Universität Ostfinnland, der Schwedischen Universität für Agrarforschung, des obersten spanischen Wissenschafler-Rates CSIC und der Universität Zagreb zeigt Theissinger in einer Studie auf, wie es dazu kommen konnte. Hauptursache ist der kommerzielle Wert von Flusskrebsen, denn die Tiere stehen seit Jahrhunderten auf Europas Speiseplan. Der Fang der ausgesetzten und sich alsbald entwickelnden Wildbestände der Signalkrebse sollte die wirtschaftlichen Verluste durch den Wegfall der einheimischen Krebse ersetzen. Langfristige ökologische Folgen der Aussetzung einer gebietsfremden Art wurden dem untergeordnet. Zudem wurde der Signalkrebs als gewinnträchtige Art beworben und damit die illegale Aussetzung neben der offiziellen Aussetzung in Gewässer noch gefördert.

Ein weiterer Punkt der zum Untergang der Edelkrebse geführt hat, sind falsche und verzerrte Informationen um den ‚guten Namen‘ des Einwanderers zu schützen. „Es wurde nicht kommuniziert, dass Pacifastacus leniusculus den Erreger der Krebspest an einheimische Arten übertragen kann und wiederholt behauptet, dass Signalkrebse – im Gegensatz zu den einheimischen Arten – gegen den Krebspest-Erreger immun wären. Damals war bereits klar, dass dies nicht für alle Untertypen des Erregers zutrifft. Als sich die Bestände der Signalkrebse nicht wie versprochen entwickelten, wurde die Prognose nicht korrigiert. Einzelne Akteure haben zudem absichtlich versucht, Argumente gegen gebietsfremde Arten in Argumente gegen einheimische Flusskrebse zu verdrehen“, fasst Theissinger zusammen.

Welche vielschichtigen Folgen der dramatische Rückgang der einheimischen Krebse hat, ist noch nicht genau abschätzbar, da derartige Änderungen in Ökosystemen oft erst langfristig sichtbar werden. „Flusskrebs ist nicht gleich Flusskrebs. Die ökologischen Unterschiede gebietsfremder Arten sind oftmals mannigfaltig und der Effekt auf das Ökosystem schwer zu prognostizieren.“, erklärt Theissinger. Eine gezielte Ausrottung der Signalkrebse ist nur in begrenzten Wasserflächen wie Teichen möglich. In Gewässern, die eng miteinander verbunden, wie es häufig in Skandinavien der Fall ist, ist dies praktisch aussichtslos. Eine Korrektur des Fehlers wird also schwierig.

Einen Rettungsplan für die Edelkrebse haben die Wissenschaftler*innen trotzdem erarbeitet. Demnach sollten die Aussetzung, der Fang sowie der Verkauf gebietsfremder Krebse als Lebensmittel verboten werden, Populationen der gebietsfremden Krebse beobachtet und – soweit möglich – neue Populationen ausgerottet werden, die Öffentlichkeit für das Problem invasiver Krebse sensibilisiert und der nachhaltige Fang einheimischer Krebse geprüft werden. „Wir, die Gesellschaft, müssen unsere Umwelt stärker als Ganzes wahrnehmen und ein funktionierenden Ökosystems wertschätzen. Der Signalkrebs ist der am weitesten verbreitete gebietsfremde Krebs in Europa, es gibt aber auch andere gebietsfremde Krebsarten. Um das Aussterben des Europäischen Flusskrebses abzuwenden, muss man wohl eher beim Menschen als bei den Krebsen ansetzen“, so Theissinger.

Wissenschaftliche Ansprechpartner:
Dr. Kathrin Theissinger
Senckenberg Biodiversität und Klima Forschungszentrum & Universität Koblenz-Landau
kathrin.theissinger@senckenberg.de

Originalpublikation:
Jussila J, Edsman L, Maguire I, Diéguez-Uribeondo J and Theissinger K (2021) Money Kills Native Ecosystems: European Crayfish as an Example. Frontiers in Ecology & Evolution, doi: 10.3389/fevo.2021.648495

(nach oben)


TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Straßen als blaugrüne Oasen

Viel ist derzeit von der Schwammstadt im Zusammenhang mit den Flutereignissen, die sich Mitte Juli in Rheinland-Pfalz und Nordrhein-Westfalen ereigneten, die Rede. Schwammstadt bedeutet, dass eine Stadt in der Lage sein soll, bei Hochwasser und Starkregen das Wasser – eben wie ein Schwamm – aufzusaugen. Matthias Barjenbruch sieht diesen Begriff jedoch kritisch. Seiner Meinung nach erfasst er ein gravierendes Problem, worunter Städte zunehmend leiden, nicht: Es ist die Hitze. Städte werden zu Glutinseln, heizen sich für Menschen zum Teil lebensgefährlich auf. Anfang August herrschten in Athen über Tage 43 Grad Celsius, in der Nacht 30 Grad Celsius. „Deshalb müssen Städte auch in der Lage sein, Wasser zur Kühlung wieder verdunsten zu lassen. Dabei spielt die urbane Vegetation eine wichtige Rolle“, sagt der Professor für Siedlungswasserwirtschaft an der TU Berlin.

Starkregen und Hitzewellen beurteilt die Wissenschaft mittlerweile als Folgen des Klimawandels. „Für die Stadtentwicklung heißt das, dass vielfältige Strategien gleichzeitig und gleichrangig verfolgt werden müssen, damit sich die Städte diesen Klimafolgen anpassen können. Für die Nutzung städtischer Flächen bedeutet das, dass Straßen, Dächer, Fassaden, Gehwege, Spielplätze, Grünflächen, Parks, Parkplätze – nicht mehr nebeneinander, sondern in Bezug zueinander entwickelt und diese Flächen multifunktional genutzt werden müssen. Die Herausforderung für die Stadtentwickler besteht in einer transdisziplinären Planung aller Sektoren. Straßen-, Wasser-, Wohnungsbau, Grünflächen, Verkehr – alles muss zusammengedacht werden, um zu integrierten Lösungen zu gelangen“, sagt Matthias Barjenbruch.

Was es bedeutet, wenn Hitzeprävention und Vermeidung von Überflutungen bei Starkregen transdisziplinär angegangen werden müssen und Flächen wie der Straßenraum multifunktional werden mit dem Ziel, klimaangepasst zu sein, das untersucht ein Konsortium von acht Forschungseinrichtungen sowie Planungs- und Ingenieurbüros unter Beteiligung der TU-Fachgebiete Siedlungswasserwirtschaft und Ökohydrologie und Landschaftsbewertung in dem Projekt „BlueGreenStreets“ – als multicodierte Strategie zur Klimafolgenanpassungen“.

In diesem „BlueGreenStreets“-Konzept sind Straßen nicht nur Straßen, sondern werden zu sogenannten Retentionsräumen, also Räumen, die bei Starkregen die Wassermassen zurückhalten und auch ableiten können. Das kann dadurch geschehen, dass das Regenwasser dezentral im oder neben dem Straßenraum versickert wird, indem zum Beispiel die Parkstände für Autos tiefergelegt werden. Oder Straßen übernehmen bei Starkregen die Funktion von Notwasserwegen durch den Einbau von Mittelrinnen (V-Profil) in die Straßen, von Hochborden oder Schwellen. Dadurch kann das oberflächige Niederschlagswasser kontrolliert auf angrenzende Freiräume wie Parks, Grünflächen, Spielplätze oder unversiegelte Parkplätze geleitet werden, wo es versickert. Häuser, Straßen, aber auch die Kanalisation werden so vor Überflutung geschützt, und diese gezielte Ableitung des Niederschlages reduziert Überflutungsschäden. In Dürrephasen wiederum steht das versickerte Regenwasser der urbanen Vegetation zur Verfügung, kann über die Pflanzen verdunsten, was Kühlung bringt, und ist nicht über die Kanalisation abgeflossen.

Und Bäume sind in diesem Konzept mehr als Bäume. Sie fungieren als temporäre Zwischenspeicher, indem verschiedene Typen von Versickerungsbaumgruben angelegt werden. Ein solcher Versickerungsbaumgruben-Typ ist die Baumrigole. Das sind Versickerungsflächen für Regenwasser, das unter anderem von Dach- und Verkehrsflächen wie Parkplätzen zu den Bäumen geleitet wird. Unterirdisch werden die Baumrigolen durch ein Drainagesystem ent- und bewässert. Das ermöglicht, den Baum in Dürrephasen mit Wasser zu versorgen. Dadurch bleiben die Straßenbäume als Elemente der Wasserspeicherung, Verschattung, Verdunstung und Kühlung erhalten und können die starke Aufheizung von Gehwegen und Straßen bei Hitze mildern. Die Aufenthaltsqualität des Straßenraums verbessert sich. Zudem sind Baumrigolen so konstruiert, dass sie den Baumwurzeln genügend Raum geben. Lebenswichtig für die Bäume.

Weitere Elemente der Hitzeprävention sind im Straßenraum angelegte Verdunstungsbeete mit verdunstungsintensiven Pflanzen sowie begrünte Dächer und Fassaden. Hierbei übernehmen Dächer und Fassaden die zusätzliche Funktion eines Wasserspeichers und dienen ebenfalls der Verschattung, Verdunstung und damit der Kühlung des städtischen Raums.

All diese Beispiele zeigen, wie sich urbane Vegetation und urbanes Wasser bedingen. Ohne entsiegelte Flächen und intaktes städtisches Grün und ohne gezielte Nutzung des Regenwassers zum Erhalt des städtischen Grüns – keine Versickerungs-, Speicher- und Verdunstungsleistung bei Starkregen und Hitzeperioden. „Ziel von Stadtentwicklung muss es deshalb zukünftig sein, die urbane Vegetation mit der urbanen Wasserinfrastruktur zu koppeln, was bislang kaum geschieht, aber nur so können Starkregen und Hitzeperioden von der Stadt abgepuffert werden“, sagt Matthias Barjenbruch, dessen Team in dem Projekt „BlueGreenStreets“ die Schadstoffbelastung des Straßenwassers untersucht. Das Team des Fachgebiets Ökohydrologie und Landschaftsbewertung unter der Leitung von Prof. Dr. Eva Paton erforscht den Wasserverbrauch und die Verdunstungsleistungen von Stadtbäumen und Fassadenbegrünungen im urbanen Raum.

Das Vorhaben „BlueGreenStreets“ wird im Rahmen der Fördermaßnahme „Ressourceneffiziente Stadtquartiere für die Zukunft“ des Bundesministeriums für Bildung und Forschung gefördert.

Lesen Sie auch das Interview mit Prof. Dr. Eva Paton über den Zusammenhang von Dürre und extremem Starkregen und ihren Folgen: http://www.tu.berlin/go32586

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Matthias Barjenbruch
TU Berlin
Fachgebiet Siedlungswasserwirtschaft
E-Mail: matthias.barjenbruch@tu-berlin.de

Prof. Dr. Eva Paton und Dr. Björn Kluge
TU Berlin
Fachgebiet Ökohydrologie und Landschaftsbewertung
E-Mail: eva.paton@tu-berlin.de; bjoern.kluge@tu-berlin.de

(nach oben)


TU Berlin: Zukünftiger Schutz gegen Extremniederschläge: weitere Bebauungsverbote dürfen kein Tabu sein

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Der Wasserwirtschaftler Prof. Dr. Reinhard Hinkelmann über Konsequenzen aus den Sturzflutereignissen in Deutschland

„Derzeit gibt es in Deutschland keine gesetzlichen Regelungen, die den Überflutungsschutz vor Sturzfluten, sogenannten Flash floods, in kleinen Einzugsgebieten, wie wir sie vergangene Woche in Nordrhein-Westfalen und Rheinland-Pfalz erlebten, regeln. Deshalb sind bislang in den nun überfluteten Regionen auch keine oder kaum Überflutungsschutzmaßnahmen durchgeführt worden. Das wird sich ändern müssen. Der umfangreiche, sehr gute Hochwasserschutz in Deutschland ist bislang auf Flusshochwasser ausgelegt“, sagt Dr.-Ing. Reinhard Hinkelmann, Professor für Wasserwirtschaft und Hydrosystemmodellierung an der TU Berlin.

Der Unterschied zwischen Flusshochwassern, wie sie sich zum Beispiel 2002 und 2013 an der Elbe ereigneten, und den jetzt stattgefundenen Sturzfluten, vergleichbar mit denen 2016 in Simbach (Bayern) und Braunsbach (Baden-Württemberg), ist, dass diese Sturzfluten aus Extremniederschlägen in kleinen Einzugsgebieten hervorgehen. Sie sind durch sehr schnelle Abflussprozesse von Bergen und Hängen über Bäche, die zu Strömen werden, gekennzeichnet und haben sehr kurze Vorwarnzeiten im Gegensatz zu den Flusshochwassern großer Flüsse wie der Elbe oder dem Rhein, für die die Vorwarnzeiten einige Tage betragen. Dadurch sind untere und mittlere Hanglagen sowie Tallagen nahe von Bächen besonders gefährdet“, erklärt Prof. Dr.-Ing. Reinhard Hinkelmann.

Ein wirksamer Schutz vor solchen Sturzfluten werde nicht ohne kostenintensive, millionenschwere Investitionen und harte Maßnahmen möglich sein wie den Bau großer Ableitsysteme vor Siedlungen, den früheren Stadtmauern ähnlich, in die Landschaft eingepasste Dämme, versenkbare Mauern und Geschiebesperren im Ober- und Mittellauf der Bäche – wie sie aus dem alpinen Raum bekannt sind –, um Bäume und Geröllmassen zurückzuhalten, so Reinhard Hinkelmann. Wichtig werde sein, die Schutzmaßnahmen den lokalen Gegebenheiten anzupassen. Aber auch Veränderungen in der Siedlungs- und Landschaftsplanung wie weitere Bebauungsverbote in überflutungsgefährdeten Bereichen dürften kein Tabu sein. „Wir müssen über Maßnahmen nachdenken, die über das Existierende hinausgehen und damit meine ich auch, dass wohl überlegt werden muss, ob die jetzt weggerissenen Gebäude an ihren ursprünglichen Stellen wiedererrichtet werden sollten.“

Eine weitere Konsequenz aus den Extremwettereignissen der letzten Tage sei, die Bemessungsgrundlage für die Hochwasserschutzmaßnahmen zu ändern. „Zurzeit werden die meisten Hochwasserschutzmaßnahmen für ein Flusshochwasser ausgelegt, das statistisch einmal in 100 Jahren auftritt. Hier ist über erhöhte Bemessungsereignisse nachzudenken, also sich an noch extremeren Wetterereignissen zu orientieren, wie sie zum Beispiel alle 200 Jahre auftreten könnten“, so Reinhard Hinkelmann.

Die Hochwasserschutzanlage der sächsischen Kleinstadt Grimma, die nach der Flutkatastrophe von 2002 an der Elbe begonnen wurde zu bauen, nennt Reinhard Hinkelmann eine gelungene Hochwasserschutzmaßnahme, wenngleich keine Blaupause für all die jetzt betroffenen Kommunen, da in Grimma der Denkmalschutz eine gewichtige Rolle spielte. „Zudem dauerte die Umsetzung der Hochwasserschutzmaßnahmen 17 Jahre. Für die Maßnahmen, die jetzt nötig sind, um die Siedlungen an den Ober- und Mittelläufen der Bäche und in Tallagen zu schützen, sollten wir nicht weitere 17 Jahre brauchen“, sagt Reinhard Hinkelmann.

Die Extremniederschläge resultieren seiner Einschätzung nach aus den Folgen des Klimawandels. Das bedeute für den Hochwasserschutz, dass die Auswirkungen des Klimawandels seitens der Politik intensiver angegangen werden müssen. „Auch zukünftig werden wir keinen 100-prozentigen Hochwasserschutz haben, das Schutzniveau wird voraussichtlich auch nach dem Umsetzen vieler weiterer Maßnahmen sinken, das Leben wird riskanter. Das wird den Druck auf die Politik weiter erhöhen“, urteilt Reinhard Hinkelmann.

Weitere Informationen erteilt Ihnen gern:
Prof. Dr.-Ing. Reinhard Hinkelmann
TU Berlin
Fachgebiet Wasserwirtschaft und Hydrosystemmodellierung
E-Mail: reinhard.hinkelmann@wahyd.tu-berlin.de

(nach oben)


Hochwasserrisiken wurden deutlich unterschätzt

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Um Hochwassergefahren besser einschätzen zu können, sollen Gefahrenkarten historische Daten einbeziehen. Dafür plädieren Forschende am CEDIM – Center for Disaster Management and Risk Reduction Technology des Karlsruher Instituts für Technologie (KIT). Das CEDIM hat einen ersten Bericht zur Flutkatastrophe in Rheinland-Pfalz und Nordrhein-Westfalen vorgelegt. Was die Rolle des Klimawandels betrifft, birgt die Kombination aus mehr verfügbarem Wasser in der Atmosphäre und einer zunehmenden Beständigkeit von Großwetterlagen ein steigendes Potenzial für extreme Niederschlagsereignisse.

Die Hochwasserkatastrophe in der vergangenen Woche hat in Deutschland mehr als 170 Todesopfer gefordert (Stand: 21. Juli 2021). Immer noch werden Menschen vermisst. Die Schäden an Gebäuden und Infrastruktur lassen sich erst grob bestimmen und gehen in die zweistelligen Milliarden – davon allein mindesten zwei Milliarden Euro für Verkehrsinfrastrukturen. Inzwischen hat der Gesamtverband der Deutschen Versicherungswirtschaft e.V. (GDV) den versicherten Schaden auf vier bis fünf Milliarden Euro nur in Rheinland-Pfalz und Nordrhein-Westfalen geschätzt. Wie kam es zu den Überflutungen, die vor allem Rheinland-Pfalz und Nordrhein-Westfalen betrafen? Wie lassen sich Hochwassergefahren – besonders seltene, extreme Ereignisse – vorab besser abschätzen? Mit diesen Fragen hat sich die Forensic Disaster Analysis (FDA) Group des CEDIM befasst und einen ersten Bericht vorgelegt.

Wie die Forschenden erläutern, führten enorme Niederschlagsmengen dazu, dass beispielsweise der Pegel an der Ahr (Altenahr) seinen bisherigen Rekord von 2016 (3,71 Meter, Abfluss: 236 m³/s) deutlich überstieg. Überflutungsbedingt fiel die Messstation bei einem Wert von 5,05 Metern (Abfluss: 332 m³/s) allerdings aus. Das Landesamt für Umwelt Rheinland-Pfalz kalkulierte aus Modellrechnungen für die Katastrophennacht einen Pegel von bis zu sieben Metern, basierend darauf schätzten die Expertinnen und Experten einen Abfluss zwischen 400 bis 700 m³/s ab.

Mehrere Faktoren führten zu den extrem hohen Niederschlagssummen
Aus meteorologischer Perspektive führten verschiedene Faktoren zu den extrem hohen Niederschlagssummen. „Innerhalb von 48 Stunden fiel in Teilen von Nordrhein-Westfalen und Rheinland-Pfalz mehr Regen, als dort üblicherweise im gesamten Monat Juli niedergeht; der Hauptanteil ging sogar innerhalb von nur rund zehn Stunden nieder“, berichtet CEDIM-Sprecher Professor Michael Kunz. Außerdem verstärkte das stark gegliederte Gelände der betroffenen Regionen, besonders im Landkreis Ahrweiler, mit teils tief eingeschnittenen Flusstälern den Oberflächenabfluss. Der bereits annähernd gesättigte Boden durch teils kräftige Niederschläge in den vorangegangenen Tagen verschärfte die Situation zusätzlich.

Um die Überflutungsflächen in den am schwersten betroffenen Gebieten Kreis Ahrweiler und Rhein-Erft-Kreis abzuschätzen, kombinierte das Forschungsteam Satellitendaten mit Luftaufnahmen von (Amateur-)Drohnen und Helikoptern sowie Fotos aus sozialen Medien. Nach diesen geschätzten Überflutungsflächen befinden sich in den betroffenen Gebieten knapp über 19 000 Gebäude mit einem Wert von rund neun Milliarden Euro. In Verbindung mit empirischen Daten vergangener Hochwasserkatastrophen (Infrastrukturschäden, Elementarschäden und andere Schäden) schätzten die Forschenden einen Gesamtschaden zwischen elf und 24 Milliarden Euro (erste CEDIM-Schätzung: 21. Juli 2021). Dabei ist allerdings zu berücksichtigen, dass die Überflutungsflächen nur einen Teil der gesamten betroffenen Fläche ausmachen.

Mehr verfügbares Wasser in der Atmosphäre und zunehmende Beständigkeit von Großwetterlagen steigern Gefahr
Ob ein einzelnes Extremereignis oder die Abfolge mehrerer Extreme bereits auf den Klimawandel zurückzuführen sind, lässt sich nach Aussage der Karlsruher Katastrophenforschenden weder exakt belegen noch komplett verneinen, besonders wenn es um Ereignisse auf kurzen Zeit- und Raumskalen geht, die stark von lokalen Faktoren beeinflusst sind. Für die großräumigen Prozesse in der Atmosphäre, die zur Entstehung von Extremereignissen führen, gilt jedoch: Die Kombination aus mehr verfügbarem Wasser in der Atmosphäre infolge der Temperaturzunahme und einer zunehmenden Beständigkeit von Großwetterlagen mit einem sich tendenziell nach Norden verlagerndem Jetstream, dem Starkwindband in der oberen Troposphäre, birgt ein hohes Gefahrenpotenzial. „Da für diese drei Faktoren ein positiver Trend zu erwarten ist, wird auch das Potenzial für extreme Niederschlagsereignisse in Zukunft zunehmen“, erklärt Kunz.

Bereits 1804 und 1910 bedeutende Hochwasserereignisse im Ahrtal
„Im Ahrtal gab es bereits in der Vergangenheit zwei besonders bedeutende Hochwasserereignisse, nämlich 1804 und 1910. Ein Vergleich mit historischen Aufzeichnungen lässt annehmen, dass die diesjährigen Werte allerdings niedriger einzuordnen sind als die von 1804“, sagt der stellvertretende CEDIM-Sprecher Dr. James Daniell. Für das Hochwasserereignis von 1804 wurde der Abfluss von der Universität Bonn bereits auf ca. 1 100 m³/s geschätzt. Das diesjährige Ereignis könnte hydrologisch betrachtet ein ähnliches Ausmaß wie das von 1910 mit einem Abfluss von 500 m³/s gehabt haben. „Die aktuellen Hochwasserkarten für das Ahrtal basieren derzeit auf einer Abflussstatistik mit Daten seit 1947, da seit diesem Zeitpunkt homogene Messreihen zur Verfügung stehen. Dadurch werden die beiden historischen Ereignisse bei der Gefährdungsabschätzung bisher jedoch nicht berücksichtigt“, sagt Dr. Andreas Schäfer, Erstautor des Berichts. So liegt die aktuelle Schätzung eines hundertjährlichen Hochwassers als Bemessungsgrundlage für den Hochwasserschutz für die Ahr bei 241 m³/s.


Die FDA Group des CEDIM plädiert dringend dafür, in Hochwasser-Gefahrenkarten historische Daten einbeziehen, auch aus der Zeit vor der kontinuierlichen Messaufzeichnung, um Hochwassergefahren besser abschätzen zu können. „Zwar müssen wir bei den Analysen und Interpretationen der Daten grundsätzlich beachten, dass sich sowohl Infrastrukturen als auch Hochwasserschutzmaßnahmen in den vergangenen Jahren verändert haben. Daher lassen sich die Messwerte direkt schwerer vergleichen, und wir sollten uns weniger auf die Pegelstände fokussieren“, erklärt Daniell. „Wir können die Pegelstände von 1804 und 1910 als indirekte Anzeiger heranziehen, um Hochwasserjahre zu identifizieren. Messwerte zum Abfluss, über die zeitliche Entwicklung und über die Niederschlagsummen sind für die Interpretation jedoch wichtiger. Letztendlich sollten aber beide historische Größen – Pegel und Abfluss – beim Erstellen von Gefahrenkarten einbezogen werden.“ (or)

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Originalpublikation:
Andreas Schäfer, Bernhard Mühr, James Daniell, Uwe Ehret, Florian Ehmele, Katharina Küpfer, Johannes Brand, Christina Wisotzky, Jens Skapski, Lukas Renz, Susanna Mohr, Michael Kunz: Hochwasser Mitteleuropa, Juli 2021 (Deutschland). Bericht Nr. 1 „Nordrhein-Westfalen & Rheinland-Pfalz“. CEDIM Forensic Disaster Analysis (FDA) Group. KIT, 2021. DOI: 10.5445/IR/1000135730

https://www.cedim.kit.edu/download/FDA_HochwasserJuli2021_Bericht1.pdf
https://publikationen.bibliothek.kit.edu/1000135730

Weitere Informationen:
https://www.cedim.kit.edu

(nach oben)


Hahn-Schickard und Endress+Hauser gründen das Joint Venture Endress+Hauser BioSense

Katrin Grötzinger Öffentlichkeitsarbeit
Hahn-Schickard
Die Versorgung mit Nahrungsmitteln sicherer zu machen ist das erklärte Ziel des Joint Ventures zwischen Endress+Hauser und Hahn-Schickard, und dazu haben beide Partner nun das Unternehmen Endress+Hauser BioSense GmbH gegründet. Es soll schnelle molekulare Analysen vor Ort möglich machen, mit denen beispielsweise bakterielle oder virale Kontaminationen in Wasser und Getränken, genetische Veränderungen in Lebensmitteln oder die Verunreinigung von Milch analysiert werden können.

Hahn-Schickard forscht in enger Kooperation mit der Universität Freiburg bereits seit vielen Jahren an schnellen diagnostischen Verfahren, um etwa kleinste Mengen an infektiösen Erregern vor Ort mit mobilen Geräten nachweisen zu können. Ein herausragendes Beispiel war ein PCR-Schnelltest für SARS-CoV-2, dem Erreger von Covid-19, der im letzten Jahr von der gemeinsamen Ausgründung Spindiag auf den Markt kam. Ziel des neuen Joint-Ventures zwischen Hahn-Schickard und Endress+Hauser ist es nun, diese Technologie von der medizinischen Diagnostik auf die Anwendungsbereiche der industriellen Prozess- und Laborautomatisierung zu übertragen.

Das Unternehmen Endress+Hauser BioSense GmbH wurde in Freiburg gegründet und kommt in den ersten Monaten noch in den Räumen der Universität sowie bei Hahn-Schickard unter. Im kommenden Jahr wird das junge Unternehmen dann in das derzeit im Bau befindliche Freiburger Innovationszentrum FRIZ auf dem Campus der Technischen Fakultät umziehen. Als Geschäftsführer konnte Dr. Nicholas Krohn gewonnen werden, langjähriger Managing Director bei Eurofins Genescan GmbH in Freiburg und bestens vertraut mit dem Gebiet der Lebensmittelanalytik. Das Gründungsteam wird ergänzt durch Dr. Stefan Burger und Dr. Martin Schulz, zwei langjährige und erfahrene Hahn-Schickard-Mitarbeiter, die auf dem Gebiet der molekularen Diagnostik an der Technischen Fakultät der Albert-Ludwigs-Universität Freiburg promoviert haben.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Roland Zengerle, Hahn-Schickard-Institutsleiter
Roland.Zengerle@Hahn-Schickard.de

Weitere Informationen:
https://www.hahn-schickard.de/news-detail/endress-hauser-biosense

(nach oben)


Hochwasser: Gift aus dem Flussbett

Dr. Markus Bernards Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Eine langfristige Gefahr durch Hochwasser wird häufig unterschätzt: Die reißenden Flüsse wirbeln Schadstoffe aus ihren Sedimenten auf, die von Umweltverschmutzungen vor Jahrzehnten oder Jahrhunderten herrühren. Solche Schadstoffe können nicht nur ökologische Schäden im Fluss verursachen. In Überschwemmungsgebieten können sich die Schadstoffe ablagern und Ackerpflanzen, Weidetiere und Menschen belasten. Darauf hat ein internationales Wissenschaftsteam in einer Übersicht zu wissenschaftlichen Untersuchungen von Hochwasserereignissen in der ganzen Welt hingewiesen. Die Arbeit ist im Journal of Hazardous Materials erschienen und unter Federführung der Goethe-Universität Frankfurt entstanden.

Sedimente gelten als Langzeitgedächtnis eines Flusses. In der Hauptsache bestehen sie aus Partikeln, die vom Erdboden abgetragen werden und irgendwann in Flussdeltas oder im Meer landen. Sedimente können jedoch auch für verhältnismäßig lange Zeit stabil bleiben – und Schadstoffe binden, die zum Beispiel durch Bergbau- oder Industrieabwässer in die Flüsse gelangt sind. Entsprechend befinden sich in vielen Altsedimenten der Flüsse Schadstoffe als „chemische Zeitbomben“ wie zum Beispiel Schwermetalle oder schwer abbaubare Dioxine und dioxin-ähnliche Verbindungen.

Bei Hochwasserereignissen in den industriell geprägten Regionen Europas, Nordamerikas und Asiens können infolge der hohen Fließgeschwindigkeiten auch Altsedimente aufgewühlt werden. Dabei werden regelmäßig die in ihnen gebundenen Schadstoffe auf einen Schlag freigesetzt und kontaminieren Überflutungsgebiete. Bisherige wissenschaftliche Untersuchungen dazu hat ein interdisziplinäres Team von Wissenschaftlerinnen und Wissenschaftlern der Goethe-Universität Frankfurt, der RWTH Aachen, der kanadischen University of Saskatchewan und weiteren Partnerinnen in einer aktuellen Übersichtsarbeit zusammengestellt. Darin zeigen die Forscher:innen unter Federführung der Frankfurter Nachwuchsgruppenleiterin Dr. Sarah Crawford und dem kanadischen Forscher Prof. Markus Brinkmann zum Beispiel auf, welche Schadstoffbelastungen infolge verschiedener Überflutungsereignisse gemessen wurden, welche Testsysteme für verschiedene Schadstoffe entwickelt wurden und wie sich unterschiedliche Sedimente bei hohen Fließgeschwindigkeiten verhalten. Die Gefahren für die Trinkwassergewinnung werden ebenso geschildert wie etwa der Einfluss der Temperatur auf die Schadstoffaufnahme durch Fische und Methoden zur Bewertung der mit der Remobilisierung von Schadstoffen verbundenen ökonomischen Kosten.

Henner Hollert, Professor für Umwelttoxikologie an der Goethe-Universität Frankfurt und Seniorautor der aktuellen Publikation ist trotz der langjährigen Forschung zum Thema sehr besorgt: „Ich habe den Eindruck, dass das Problem der Schadstoffe aus den Altsedimenten in Deutschland und auch in Europa stark unterschätzt wird. Das mag auch daran liegen, dass es bislang praktisch keine Untersuchungen zu den wirtschaftlichen Folgen dieses Problems gibt, wie wir zeigen konnten. Schadstoffbelastete Altsedimente sind aber eine tickende Zeitbombe, mit jeder Flut hochgehen kann. Wir brauchen jetzt flächendeckend ein gutes Management der Flüsse, das nicht nur unmittelbare Gefahren für Menschen, Tiere und Bauwerke in den Blick nimmt, sondern auch die langfristigen Folgen durch die Altlasten in den Flussbetten. So müssen wir zum Beispiel unbedingt die landwirtschaftlich genutzten Überflutungsgebiete auf Fluss-spezifische Schadstoffe untersuchen, damit diese nicht in Form von Fleisch und Milchprodukten auf unseren Tellern landen.“

Auch die aktuellen extremen Hochwasserereignisse in Rheinland-Pfalz und Nordrhein-Westfalen werden von Wissenschaftler:innen der Goethe-Universität in Kooperation mit der RWTH Aachen, der University of Saskatchewan in Kanada, dem Helmholtzzentrum für Umweltforschung Leipzig, dem ISOE – Institut für sozial-ökologische Forschung, dem Senckenberg-Institut, dem LOEWE-Zentrum für Translationale Biodiversitätsforschung und vielen weiteren Partnern in einem interdisziplinären Ansatz von den biologischen, ökotoxikologischen, ökologischen, geowissenschaftlichen, wasserbaulichen, aber auch sozialökologischen und ökonomischen Folgen untersucht. Diese Untersuchungen sind eingebettet in den neuen Forschungscluster RobustNature an der Goethe-Universität, der Robustheit und die Resilienz von Natur-Gesellschaftssystemen im sich veränderten Anthropozän untersucht und zur wissensbasierten Transformationsforschung an den Beispielen Biodiversität und Wasser beitragen möchte – also vom Wissen zum Handeln.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Henner Hollert
Abteilung Evolutionsökologie und Umwelttoxikologie
Institut für Ökologie, Evolution und Diversität
Goethe-Universität Frankfurt
und
LOEWE-Zentrum für Translationale Biodiversitätsgenomik
Tel +49 69 798-42171 und +49-151-14042119
hollert@bio.uni-frankfurt.de
https://www.bio.uni-frankfurt.de/43970666/AK_Hollert

Originalpublikation:
Sarah E. Crawford, Markus Brinkmann, Jacob D. Ouellet, Frank Lehmkuhl, Klaus Reicherter, Jan Schwarzbauer, Piero Bellanova, Peter Letmathe, Lars M. Blank, Roland Weber, Werner Brack, Joost T. van Dongen, Lucas Menzel, Markus Hecker, Holger Schüttrumpf & Henner Hollert: Remobilization of pollutants during extreme flood events poses severe risks to human and environmental health. Journal of Hazardous Materials 421 (2022) 126691 https://doi.org/10.1016/j.jhazmat.2021.126691

Weitere Informationen:
https://doi.org/10.1002/biuz.201410527 Henner Hollert, Markus Brinkmann, Sebastian Hudjez, Catrina Cofalla, Holger Schüttrumpf: Hochwasser – ein unterschätztes Risiko. Schadstoffe als „Zeitbomben“ im Sediment. Biologie in unserer Zeit, 1/2014 (44)

(nach oben)


Eintrag von Mikroplastik in der Umwelt reduzieren. TH Köln hat Sickerwasser der Deponie Leppe untersucht

Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
Von Müllvorkommen in den Flusseinzugsgebieten bis in die Ozeane: Plastik in der Umwelt ist ein globales Problem. Trotz zahlreicher Aktivitäten und Ansätze ist das Wissen über die gesamte Plastik-Verschmutzung noch begrenzt. Um Wissenslücken zu schließen, hat die TH Köln im Rahmen des Verbundvorhabens „Mikroplastik in Binnengewässern – Untersuchung und Modellierung des Eintrags und Verbleibs im Donaugebiet als Grundlage für Maßnahmenplanungen“ (MicBin) das Sickerwasser der Deponie Leppe beprobt. Die Ergebnisse des Teilprojekts sollen dabei unterstützen, Handlungsoptionen und Lösungsansätze zur Reduktion des Eintrags von Kunststoffen in die Umwelt zu formulieren.

„Die Untersuchung von Mikroplastik stellt eine große Herausforderung dar, weil bisher keine standardisierten Methoden zur Probenahme, Aufbereitung und Analyse existieren“, sagt Prof. Dr. Astrid Rehorek vom :metabolon Institute der TH Köln. „Ziel von MicBin war es daher zunächst, Methoden und Instrumente zu entwickeln und zu optimieren. Mit Hilfe dieser konnten wir Feldmessungen durchführen, um mehr über Mikroplastik in Gewässern herauszufinden und Maßnahmen abzuleiten, mit denen sich die Belastung mindern lässt.“

Die Verbundpartner haben erstmalig den Eintrag von Mikroplastikpartikeln für ein größeres Einzugsgebiet eines Binnengewässers bilanziert. Als exemplarisches Untersuchungsobjekt diente das deutsche Donaueinzugsbiet. Neben Messkampagnen, gezielten Probenahmen und ergänzenden Laborexperimenten wurden mögliche Quellen und Senken wie zum Beispiel Kläranlagen, landwirtschaftliche Nutzflächen und Wasserkraftwerke untersucht.

Deponie Leppe erforscht
Die TH Köln hat sich im Projekt MicBin an den Probenahmekampagnen im Gewässer beteiligt und die Beprobung der Deponie Leppe durchgeführt. Das Team um Prof. Dr. Rehorek untersuchte am Standort :metabolon in Lindlar unbehandeltes Sickerwasser an verschiedenen Stellen der Deponie. „Wir konnten mit unseren Projektpartnern herausfinden, dass Deponien Ablagerungen enthalten, die Quellen für Mikroplastik sein können“, so Rehorek.

Untersuchungen verschiedener Stufen der Aufbereitungsanlage, die das Sickerwasser vor der Einleitung in die kommunale Kläranlage passiert, geben Aufschluss über den Weg und Verbleib des Mikroplastiks aus der Deponie. „Dadurch haben wir ermitteln können, dass die Einträge mit Hilfe der Sickerwasserreinigungsanlage reduziert werden können. Das heißt aber nicht, dass Mikroplastik zwangsläufig in die Umwelt gelangt, da das Deponiesickerwasser in einer nachgeschalteten Kläranlage weiter aufgereinigt wird.“
Die erhobenen Messdaten sollen in Folgeuntersuchungen einen wichtigen Ansatzpunkt zur Entwicklung möglicher Maßnahmen gegen Mikroplastik in anderen Deponien und Gewässern bieten. „Die Ergebnisse aus unserem Teilprojekt verdeutlichen, dass eine gut funktionierende Deponiesickerwasserreinigungsanlage ein absolut notwendiger Standard sein muss – da gibt es an manchen Standorten von Deponien in vielen Ländern noch echten Nachholbedarf“, so Rehorek.

Verbundvorhaben
Im Verbundvorhaben MicBin arbeiteten das TZW: DVGW-Technologiezentrum Wasser in Karlsruhe (Verbundkoordinator), das :metabolon Institute der TH Köln, das Institut für Umweltsystemforschung der Universität Osnabrück, das Institut für Geographie der Universität Augsburg, die Bundesanstalt für Gewässerkunde, das Bayerische Landesamt für Umwelt und die BKV GmbH zusammen. Das Projekt wurde durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert. Projektträger war das Karlsruher Institut für Technologie.

MicBin ist ein Teilprojekt im Rahmen des BMBF-Forschungsschwerpunktes „Plastik in der Umwelt“. Im Zeitraum von 2017 bis 2022 werden insgesamt 20 Verbundprojekte und ein wissenschaftliches Begleitvorhaben gefördert. Mehr als 100 beteiligte Institutionen aus Wissenschaft, Wirtschaft und Praxis sind am Forschungsschwerpunkt beteiligt. Sie befassen sich mit unterschiedlichen Aspekten der Problematik von Plastikmüll, deren möglichen Quellen und Senken sowie deren Wirkungen in der Umwelt und auf die Gesellschaft.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 27.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Marcel Hönighausen
0221-8275-5205
pressestelle@th-koeln.de

(nach oben)


Mit dem Wasser leben: HCU-Dissertation zur aktuellen Hochwasserdebatte

Alexander Lemonakis Kommunikation
HafenCity Universität Hamburg
Durch mehrere Unwetterkatastrophen hat eine Debatte über die Rolle des Katastrophenschutzes begonnen. Die Umweltwissenschaftlerin Mareike Fellmer hat sich bereits 2014 mit Hochwasserereignissen auseinandergesetzt.

Mareike Fellmer hat sich mit Fragen der staatlichen Steuerung und der Selbstorganisation von Bürgerinnen und Bürgern im Umgang mit Sturmflutrisiken beschäftigt und unter anderem am Beispiel der Flutschutzgemeinschaften in Hamburg und weiterer bürgerschaftlicher Organisationen an der Tideelbe untersucht.

Dieses Thema gewinnt nun erneut an Bedeutung, da die aktuellen Ereignisse gezeigt haben, dass die Bewältigung von extremen Hochwasserereignissen nicht nur auf technische Vorsorgemaßnahmen reduziert werden darf. Auch Fragen der Verantwortung und des Zusammenspiels unterschiedlicher gesellschaftlicher Organisationen stellen eine entscheidende Komponente für die Anpassungsfähigkeit von Städten und Gemeinden gegenüber Naturgefahren dar.

Zivilgesellschaft als Mitgestalter im Umgang mit Hochwasserrisiko
Dr. Mareike Fellmer fasst die Verantwortungsteilung zwischen Staat und Bevölkerung wie folgt zusammen: „Bürgerinnen und Bürger spielen eine zentrale Rolle als Mitgestalter im Umgang mit Hochwasserrisiken. Zwar muss der Staat hier eine starke koordinierende Rolle einnehmen, aber ergänzend dazu fördert die bürgerschaftliche Mitverantwortung im Umgang mit Hochwasserrisiken das Risikobewusstsein, die Kapazität zur Selbstorganisation und damit die gesellschaftliche Fähigkeit zur Katastrophenbewältigung.“

Dissertation: Bürgerliches Engagement und Sturmfluten
Dr. Mareike Fellmer hat 2014 an der HCU bei Prof. Dr. Jörg Knieling (Stadtplanung und Regionalentwicklung) und Prof. Sabine Hofmeister (Leuphana Universität Lüneburg, Institut für Nachhaltigkeitssteuerung) zum Thema „Bürgerschaftliches Engagement und Sturmfluten. Ausprägungen und Einflussfaktoren am Beispiel des Flussgebiets der Tideelbe“ promoviert.

Ihre fachlichen Schwerpunkte sind Flussgebietsmanagement, Hochwasserrisikomanagement in der Regional- und Stadtentwicklung sowie Bürgerschaftliches Engagement und Bürgerbeteiligung im Küsten- und Gewässerschutz.

Zur Person
Fellmer arbeitet in der Hamburger Umweltbehörde (BUKEA – Behörde für Umwelt, Klima, Energie und Agrarwirtschaft) im Referat „Tideelbe, Meeresschutz“. Fellmer war von 2006 bis 2010 Wissenschaftliche Mitarbeiterin an der HCU im Fachbereich Stadtplanung und Regionalentwicklung und von 2015 bis 2018 im Fachbereich Umweltgerechte Stadt- und Infrastrukturplanung.

(nach oben)


Wissenschaftler sieht Wiederaufbau im Ahrtal vor Herausforderungen

Sara Reinke Stabsstelle Kommunikation und Medien
Stiftung Universität Hildesheim
Seit den 1980er Jahren forscht Prof. Dr. Wolfgang Büchs, Biologie und Gastprofessor an der Universität Hildesheim, im Mittleren Ahrtal. Er ist Hauptautor einer dreibändigen Monographie über die Region in Rheinland-Pfalz, die von der Hochwasserkatastrophe im Juli 2021 mit am stärksten betroffen ist. Und er sagt nun: „Ohne gravierende bauliche Eingriffe zum Schutz vor Hochwasser halte ich eine Wiederbesiedlung des Ahrtals für sehr schwer“.

Im Ahrtal kam einiges zusammen: Neben den geologischen und morphologischen Gegebenheiten der von engen Kerbtälern durchzogenen Landschaft hat der auch menschliche Einfluss zum Ausmaß der jüngsten Hochwasserkatastrophe beigetragen, fasst Biologe Wolfgang Büchs zusammen. Und nicht zuletzt spielt dabei der Klimawandel eine entscheidende Rolle. „Hochwasser im Ahrtal hat es schon immer gegeben, aber die rezente Flutkatastrophe schlägt alles, was wir aus den Geschichtsbüchern kennen.“

Besiedlung, Versieglung, Flurbereinigung und Flussbegradigungen haben die extremen Folgen des regionalen Starkregens begünstigt, urteilt der Wissenschaftler, der sich mit der landschaftlichen Historie des Ahrtals intensiv beschäftigt hat. Zugleich fehlen technische und bauliche Schutzmaßnahmen, wie sie heute in anderen Regionen – beispielsweise im Harz – üblich sind. „Den Bau von Regenwasserrückhaltebecken im Bereich der Nebenbäche hatte man im Ahrtal schon zu Beginn des 20. Jahrhunderts geplant, hat sich dann aber entschlossen, stattdessen den Nürburgring zu bauen, um die regionale Wirtschaft zu stärken.“

Nun, 100 Jahre später, zeige sich, dass Renaturierung und Wiederbewaldung – eigentlich die ökologisch verträglicheren Formen des Hochwasserschutzes – in diesem speziellen Umfeld nicht ausreichen. Das Fazit des Biologen: Ein Wiederaufbau und womöglich gar Ausbau der Besiedlung der Talsohlen im Ahrtal ist ohne gleichzeitige bauliche Maßnahmen zum Hochwasserschutz hochgradig riskant. Und auch in anderen Regionen in Deutschland müssen Bauvorhaben in Tälern und Flussniederungen vor dem Hintergrund des Klimawandels Baugebiete künftig anders bewertet werden: „Wir müssen uns darauf einstellen, bestimmte Siedlungsstandort in Deutschland aufzugeben.“

Ein Podcast-Gespräch mit dem Biologen und Hildesheimer Gastprofessor Prof. Dr. Wolfgang Büchs können Sie hier nachhören
https://www.uni-hildesheim.de/media/presse/Videos/210804_Unipodcast_Folge_3_Hoch…

HINWEIS: Nach Aufzeichnung des Gesprächs wurde bekannt, dass der Pegelmesser bei Altenahr bei einem Pegelstand von 5,72 Meter durch die Flut abgerissen wurde – das war bisher noch nie vorgekommen – und daher der tatsächliche Pegelstand deutlich höher gewesen sein dürfte – Berechnungen zufolge bei rund sieben Metern.

Weitere Informationen:
http://www.uni-hildesheim.de/neuigkeiten/wir-muessen-uns-darauf-einstellen-siedl…
http://www.uni-hildesheim.de/media/presse/Videos/210804_Unipodcast_Folge_3_Hochw…

(nach oben)


Abfall als erneuerbare Energiequelle nutzen. Internationales Verbundprojekt der TH Köln in Mali

Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
Die Stadt Bamako in Mali gehört zu einer der am schnellsten wachsenden Städten in Afrika und zählt heute mehr als zwei Millionen Einwohnerinnen und Einwohner. Die Urbanisierung stellt die Stadt vor Herausforderungen: eine funktionierende Abfallwirtschaft muss bereitgestellt und eine sichere Energieversorgung gewährleistet werden. Im internationalen Verbundprojekt ERA-SOLMAB arbeiten die TH Köln, die Rheinische Friedrich-Wilhelms-Universität Bonn, die University of Sciences, Techniques and Technologies of Bamako (Mali) und die University of Tlemcen (Algerien) gemeinsam an Konzepten und Strategien für eine energetische Verwertung von Reststoffen.

„In Bamako gibt es derzeit keine umfassende Abfallsammlung, Müll wird nicht getrennt, und Reststoffe landen auf ungeordneten Deponien – das führt zu einer hohen Umweltverschmutzung und letztlich zu einer direkten oder indirekten Gesundheitsgefährdung der Bevölkerung“, sagt Prof. Dr. Ramchandra Bhandari vom Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (ITT) der TH Köln. „Ziel des Vorhabens ERA-SOLMAB ist es, Abfallwirtschaft und Energieproduktion im Sinne einer nachhaltigen Kreislaufwirtschaft zu verbinden und somit die Situation vor Ort zu verbessern.“

Energiegewinnung aus Abfällen
Das Team des ITT will zunächst mit Kolleginnen und Kollegen der University of Sciences, Techniques and Technologies of Bamako die Ausgangssituation empirisch untersuchen. Zudem sollen die ökonomischen, sozialen und ökologischen Auswirkungen erforscht werden. „Wir wollen den Verschmutzungsgrad sowie Sammelstellen und -routen analysieren. Zudem charakterisieren wir das Abfallaufkommen, damit wir bestimmen können, zu welchen Anteilen es sich aus organischen und anorganischen Reststoffen zusammensetzt“, so Bhandari. Das Zentrum für Entwicklungsforschung (ZEF) der Rheinischen Friedrich-Wilhelms-Universität Bonn ist im Vorhaben für die Untersuchung des Grundwassers zuständig und entwickelt Lösungen zur besseren Reinhaltung.

Gemeinsam mit Prof. Dr. Christian Wolf vom :metabolon Institute der TH Köln sollen in einem weiteren Schritt verschiedene Möglichkeiten für die energetische Nutzung der vorhandenen Reststoffe abgeleitet werden. Dazu soll an der Universität in Bamako eine Biosgasanlage errichtet werden. Diese soll mit Bioabfällen aus der Mensa betrieben und in Langzeitexperimenten getestet werden. „Mit Hilfe der gesammelten Daten wollen wir die Potenziale und möglichen Nutzungswege von Biogas erforschen. Wenn die Pilotanlage ökonomisch sinnvoll ist, dann könnten in der Stadt Mini-Biogasanlagen für private Haushalte perspektivisch eine vielversprechende Option darstellen“, sagt Bhandari.

Internationaler Austausch und Wissenstransfer
Ein übergeordnetes Ziel des Projektes besteht in der Stärkung internationaler Beziehungen und einem umfangreichen Wissenstransfer der beteiligten Projektpartner. „Dabei geht es nicht nur um einen Austausch zwischen afrikanischen und europäischen Ländern, sondern auch zwischen direkten Nachbarn: Algerien konnte in den vergangenen Jahren dringende Probleme der Abfallwirtschaft lösen und weist heute ein vergleichsweise gut entwickeltes Abfallmanagement auf – deshalb ist die University of Tlemcen Projektpartnerin und bringt Lösungsansätze aus Algerien mit ein“, so Bhandari.

Getragen werden soll das Vorhaben durch eine starke Einbindung von Nachwuchswissenschaftlerinnen und -wissenschaftlern der beteiligten Hochschulen – etwa durch Forschungsaufenthalte in Mali und Deutschland. Die Ergebnisse zu Abfallbewirtschaftungsideen und -technologien sollen der Stadt Bamako mit Ende des Projektes zur Verfügung gestellt werden.

Das Verbundprojekt „Energierückgewinnung und Grundwasserreinhaltung: Techno-ökonomische und ökologische Bewertung einer Abfallwirtschaft in Bamako, Mali“ (ERA-SOLMAB) wird koordiniert von Prof. Dr. Ramchandra Bhandari vom Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (ITT) der TH Köln. Es wird für einen Zeitraum von drei Jahren vom Bundesministerium für Bildung und Forschung im Rahmen der Fördermaßnahme AfResi (Forschung zu Resilienzstärkung und Strukturaufbau in afrikanischen Städten und Ballungsgebieten) gefördert. Projektträger ist das Deutsche Zentrum für Luft- und Raumfahrt.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 27.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Marcel Hönighausen
0221-8275-5205
pressestelle@th-koeln.de

(nach oben)


Abwasser-Monitoring als Pandemie-Frühwarnsystem für Metropolen

Philipp Kressirer Kommunikation und Medien
Klinikum der Universität München
Ein Forschungsteam unter der Leitung des Tropeninstituts am LMU Klinikum München hat die Ergebnisse einer der ersten und bisher längsten Untersuchungen zur Abwasserüberwachung auf das neuartige Coronavirus in Bayern in der Fachzeitschrift Science of the Total Environment veröffentlicht. Die einjährige Verlaufsstudie im Münchner Stadtgebiet bestätigt das Potential des Abwasser-Monitorings, um die Dynamik der Pandemie und die Ausbreitung neuer Virusvarianten frühzeitig zu erkennen.

Abwasser-Monitoring zum Nachweis von SARS-CoV-2 gewinnt zunehmend an Bedeutung. Lokale Abwasseruntersuchungen erfolgen seit dem Auftreten der Pandemie ab 2020. Im Frühjahr 2021 bekräftigte die Europäische Kommission in ihrer Empfehlung, eine systematische Abwasser-Überwachung von SARS-CoV-2 und seinen Varianten in allen EU-Mitgliedstaaten einzuführen. Besonders in Metropolen, in denen sich das Virus rapide verbreiten kann, bietet die Abwasser-basierte Epidemiologie (Waste-water based epidemiology, WBE) große Vorteile.

Die einjährige Verlaufsstudie, die im April 2020 startete, ist eine der ersten und längsten Untersuchungen zur Nachverfolgung der SARS-CoV-2 RNA Viruslast im Abwasser weltweit und insbesondere in Deutschland. Nun wurden die Ergebnisse in der Fachzeitschrift Science of the Total Environment veröffentlicht. Unter der Leitung des Tropeninstituts am LMU Klinikum München beteiligten sich die Virologie des Max von Pettenkofer-Instituts, das Genzentrum der LMU, die Münchner Stadtentwässerung, die Branddirektion München, das Gesundheitsreferat der Stadt München und die Task Force Infektiologie des Bayerischen Landesamts für Gesundheit und Lebensmittelsicherheit (LGL) an der Studie.

Finanziert wurde die Forschung durch das Bayerische Ministerium für Wissenschaft und Kunst. Wissenschaftsminister Bernd Sibler betont die praktische Relevanz der Untersuchung: „Sie leistet einen wertvollen Betrag, trotz der anhaltenden Corona-Pandemie weitere Schritte zur Normalisierung des öffentlichen Lebens in den Blick zu nehmen. Deshalb haben wir die Studie Prospektive COVID-19 Kohorte München – KoCo19 mit rund einer Million Euro unterstützt.“

Ausbreitung von SARS-CoV-2 durch Abwasser-Analyse bereits Wochen früher festgestellt als in offiziellen Meldezahlen:
In ihrer Untersuchung im Raum München sammelten die Wissenschaftlerinnen und Wissenschaftler seit Anfang April 2020 über ein Jahr lang wöchentlich Abwasserproben an sechs Standorten im Münchner Stadtgebiet. Die Proben wurden im Labor mittels RT-PCR (reverse transcription polymerase chain reaction) und Genomsequenzierung untersucht, um die Verbreitung von SARS-CoV-2 in München im zeitlichen und räumlichen Verlauf zu messen. Durch die Entschlüsselung des Erbguts anhand der Sequenzierung isolierter Virus-RNA erhielten die Forscher zudem Informationen, ob in den Proben besorgniserregende Virusvarianten (variants of concern, VOC) auftraten.

Die Ergebnisse zeigten, dass die in den Proben nachgewiesene SARS-CoV-2-RNA-Last gut mit den offiziellen Daten der 7-Tage-Inzidenz in den jeweiligen Stadtgebieten übereinstimmte. Studienleiter PD Dr. med. Andreas Wieser vom Tropeninstitut am LMU Klinikum berichtet: “Durch die im Abwasser gemessene Viruslast haben wir die lokale Inzidenz für die Verbreitung von SARS-CoV-2 bereits drei Wochen früher festgestellt als in den Meldezahlen der Behörden, die auf der Analyse von Atemwegsabstrichen basieren. Zudem konnten wir die zunehmende Ausbreitung der Virusvariante B.1.1.7 (Alpha) in der Münchner Bevölkerung bereits Anfang Januar 2021 nachweisen, Wochen bevor diese durch die Sequenzierung von Abstrich-Proben von Patienten in München in relevanter Zahl festgestellt werden konnte.”

Insgesamt bestätigt die Studie das Potential des Abwasser-Monitorings als Frühwarnsystem für die SARS-CoV-2 Pandemie und die Vorteile im Vergleich zu Massentests durch Abstriche. Dies gilt insbesondere hinsichtlich der Verbreitung besorgniserregender Virusvarianten in der lokalen Bevölkerung. Außerdem weist die Abwasser-Beprobung weniger Verzerrungen z.B. durch geänderte Regeln bei der Probenahme oder bei Meldewegen auf, als dies bei auf Abstrich-/Meldedaten basierten Statistiken der Fall ist.

Originalpublikation:
Rubio-Acero R, Beyerl J, Muenchhoff M, Sancho Roth M, Castelletti N, Paunovic I, Radon K, Springer B, Nagel C, Boehm B, Böhmer M, Graf A, Blum H, Stefan S, Keppler O, Osterman A, Khan Z, Hölscher M, Wieser A
Spatially resolved qualified sewage spot sampling to track SARS-CoV-2 dynamics in Munich – One year of experience, Science of The Total Environment, Volume 797, 2021, 149031, ISSN 0048-9697, https://doi.org/10.1016/j.scitotenv.2021.149031

*Partner der Studie:
– Leitung: Tropeninstitut (Abteilung für Infektions- und Tropenmedizin), LMU Klinikum München
– Center for International Health (CIH), LMU Klinikum München
– Deutsches Zentrum für Infektionsforschung (DZIF), Standort München
– Münchner Stadtentwässerung
– Branddirektion München
– Gesundheitsreferat der Stadt München
– Task Force Infektiologie, Bayerisches Landesamt für Gesundheit und Lebensmittelsicherheit (LGL)
– Genzentrum der LMU München
– Max von Pettenkofer-Institut für Virologie, LMU

Finanzierung:
Die Studie wurde durch das Bayerische Ministerium für Wissenschaft und Kunst und das LMU Klinikum München finanziert.
Die Studie ist begleitend und ergänzend zur KoCo19 Studiengruppe (Repräsentative SARS-CoV-2 Studie in München, “Prospektive COVID-19 Kohorte München – KoCo19”), unter Beteiligung von: Helmholtz Zentrum München, Universität Bonn, Universität Bielefeld, Bundesministerium für Bildung und Forschung (Projekt01KI20271) und dem Institut für Mikrobiologie der Bundeswehr (Medical Biodefense Research Program) sowie der BMBF Initiative “NaFoUniMedCovid19“ (01KX2021), Unterprojekt B-FAST.

Pressefoto:
https://ars.els-cdn.com/content/image/1-s2.0-S0048969721041036-ga1_lrg.jpg

Copyright: Grafik zur Publikation “Spatially resolved qualified sewage spot sampling to track SARS-CoV-2 dynamics in Munich – One year of experience”, erschienen in Science of The Total Environment, Volume 797, 2021

Wissenschaftliche Ansprechpartner:
PD Dr. med. Andreas Wieser
Tropeninstitut (Abteilung für Infektions- und Tropenmedizin) LMU Klinikum München
Max von Pettenkofer-Institut, LMU
Tel: +49 89 2180-78 296
E-Mail: wieser@mvp.lmu.de

Pressekontakt:
Judith Eckstein, M.A.
Tropeninstitut (Abteilung für Infektions- und Tropenmedizin)
LMU Klinikum München
Telefon: +49 89 4400-59839
E-Mail: presse@lrz.uni-muenchen.de

Originalpublikation:
https://doi.org/10.1016/j.scitotenv.2021.149031

Weitere Informationen:
https://www.lmu-klinikum.de/aktuelles/pressemitteilungen/abwasser-monitoring-als…

(nach oben)


Erholung von der Corona-Krise: Betriebe blicken optimistischer in die Zukunft

Sophia Koenen Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Der Anteil der Betriebe, die sich akut in ihrer Existenz bedroht sehen, halbierte sich von 8 Prozent im Mai auf 4 Prozent im Juli. Das ergibt eine zwischen dem 5. bis 20. Juli durchgeführte repräsentative Betriebsbefragung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB).

Knapp ein Drittel der Betriebe gab an, nicht von der Corona-Krise betroffen zu sein. Weitere 10 Prozent schätzten sich als überwiegend positiv betroffen ein. „Das sind nochmal deutlich mehr Betriebe, die ihre Lage positiv bewerten, als in den letzten Monaten“, berichtet IAB-Direktor Bernd Fitzenberger.

Im Gastgewerbe verringerte sich die Anzahl der Betriebe, die von Existenzängsten berichteten, seit Mai um 30 Prozentpunkte auf nun 7 Prozent. „Gerade im Gastgewerbe hängt der wachsende Optimismus natürlich mit den Öffnungen zusammen“, erklärt Fitzenberger. So gaben in dieser Branche im Juli nur noch 14 Prozent der Betriebe an vollständig oder teilweise geschlossen zu sein, während es im Mai noch 85 Prozent waren. Im Verarbeitenden Gewerbe sahen sich zuletzt 3 Prozent der Betriebe akut in ihrer Existenz bedroht und damit 6 Prozentpunkte weniger als zwei Monate zuvor.

Unter kleinen Betrieben waren existentielle Sorgen weiterhin deutlich weiterverbreitet, als unter großen. So gaben 5 Prozent der Betriebe mit zwischen einem und neun Mitarbeitenden an, existenzielle Sorgen zu haben und nur 1 Prozent der Betriebe mit über 250 Mitarbeitenden. „Das ist vor allem darauf zurückzuführen, dass die Liquiditätsreserven von Betrieben nach Betriebsgröße sehr unterschiedlich sind“, so IAB-Vizedirektor Ulrich Walwei. Über ausreichend Liquiditätsreserven zu verfügen gaben gut 70 Prozent der Betriebe mit mehr als 250 Beschäftigten an, aber nur knapp 40 Prozent der Betriebe mit einem bis 9 Beschäftigen.

Die positive Entwicklung macht sich auch im Einstellungsverhalten der Betriebe bemerkbar. Insgesamt übersteigen die vorgenommenen Einstellungen im Juli in 12 Prozent der Betriebe die Entlassungen. Auch hier ist die größte Veränderung im Gastgewerbe zu verzeichnen. Dort stellten 19 Prozent der Betriebe mehr ein als dass sie entlassen.

Im Rahmen der IAB-Studie „Betriebe in der Covid-19-Krise“ werden seit August 2020 in regelmäßigen Abständen etwa 1.500 bis 2.000 Betriebe der Privatwirtschaft dazu befragt, wie sich die Covid-19-Pandemie auf verschiedene Bereiche ihrer Geschäftstätigkeit auswirkt. Die Befragungsstichprobe ist repräsentativ für die privatwirtschaftlichen Betriebe in Deutschland.

Zum Download stehen unter http://doku.iab.de/arbeitsmarktdaten/ADuI_BeCovid_W15.xlsx. Tabellen zu den Ergebnissen aus der 15. Befragungswelle bereit.

Originalpublikation:
http://doku.iab.de/arbeitsmarktdaten/ADuI_BeCovid_W15.xlsx

(nach oben)


Tauender Permafrost lässt Methan aus der Tiefe entweichen

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
In einer Studie unter Federführung der Universität Bonn haben Geologen die räumliche und zeitliche Verteilung der Methankonzentration in der Luft Nordsibiriens mit geologischen Karten verglichen. Das Ergebnis: Die Methangehalte der Luft nach der Hitzewelle des vergangenen Jahres deuten darauf hin, dass verstärkte Gasaustritte aus Kalkstein stattfanden.

Welche Auswirkungen hatte die Hitzewelle des Sommers 2020 in Sibirien? In einer Studie unter Federführung der Universität Bonn haben Geologen die räumliche und zeitliche Verteilung der Methankonzentration in der Luft Nordsibiriens mit geologischen Karten verglichen. Das Ergebnis: Die Methangehalte der Luft nach der Hitzewelle des vergangenen Jahres deuten darauf hin, dass verstärkte Gasaustritte aus Kalkstein stattfanden. Die Studie ist in der Fachzeitschrift „Proceedings of the National Academy of Sciences“ (PNAS) veröffentlicht.

Dauerhaft gefrorene Permafrostböden nehmen große Gebiete der Nordhalbkugel ein, vor allem in Nordasien und Nordamerika. Tauen sie in einer wärmer werdenden Welt auf, kann das Gefahren bergen, denn beim Auftauen werden CO2 und Methan frei – und verstärken den menschengemachten Treibhausgaseffekt. „Methan kommt zwar nur in geringer Konzentration vor, ist dabei aber besonders gefährlich, da sein Erwärmungspotenzial um ein Vielfaches höher ist als bei CO2“, erklärt Prof. Dr. Nikolaus Froitzheim vom Institut für Geowissenschaften der Universität Bonn. Pessimisten sprachen deshalb bereits von einer bevorstehenden „Methanbombe“. Die meisten bisherigen Projektionen ergaben jedoch, dass die Treibhausgase aus tauendem Permafrost bis 2100 „nur“ etwa 0,2 Grad Celsius zur globalen Erwärmung beitragen. Diese Annahme stellt jetzt eine neue Studie von Nikolaus Froitzheim, Jaroslaw Majka (Krakau/Uppsala) und Dmitry Zastrozhnov (Sankt Petersburg) in Frage.

In vorherigen Untersuchungen beschäftigten sich Wissenschaftler meist ausschließlich mit den Emissionen, die aus der Zersetzung von pflanzlichen und tierischen Überresten in den Permafrostböden selbst entstehen. In ihrer aktuellen Studie betrachteten die Forscher um Nikolaus Froitzheim die mithilfe der satellitengestützten Spektroskopie ermittelten Methankonzentrationen in der sibirischen Luft und verglichen sie mit geologischen Karten. Dabei stellten sie deutlich erhöhte Konzentrationen in zwei Gebieten von Nordsibirien fest – dem Taymyr-Faltengürtel und dem Rand der Sibirischen Plattform. Auffällig an diesen beiden langgestreckten Gebieten ist, dass der Untergrund dort von Kalksteinformationen aus dem Paläozoikum gebildet wird (dabei handelt es sich um den Zeitraum von circa 541 Millionen Jahren bis circa 251,9 Millionen Jahren vor heute).

In beiden Gebieten traten die um etwa fünf Prozent erhöhten Konzentrationen während der extremen Hitzewelle des Sommers 2020 auf und blieben danach monatelang bestehen. Aber wie kam es überhaupt zum Auftreten des zusätzlichen Methans? „Die Bodenbildungen in den beobachteten Gebieten sind sehr dünn oder fehlen ganz, was die Zersetzung von organischer Substanz in den Böden als Quelle des Methans unwahrscheinlich macht“, sagt Niko Froitzheim. Er und seine Kollegen befürchten daher, dass die bisher mit Eis und Gashydrat gefüllten Kluft- und Höhlensysteme im Kalkstein durch die Erwärmung durchlässig wurden. „Dadurch dürfte Erdgas, das zum größten Teil aus Methan besteht, aus Lagerstätten im Permafrost und unter dem Permafrost den Weg an die Erdoberfläche gefunden haben“, sagt der Wissenschaftler.

Dieser Hypothese wollen die Wissenschaftler nun mit Messungen vor Ort und mit Modellrechnungen nachgehen, um herauszufinden, wie schnell und in welchem Umfang Erdgas freigesetzt werden kann. „Die Mengen von Erdgas, die im Untergrund Nordsibiriens vermutet werden, sind gewaltig. Wenn Teile davon durch den tauenden Permafrost in die Atmosphäre gelangten, könnte das dramatische Auswirkungen auf das ohnehin schon überhitzte Klima der Erde haben“, betont Niko Froitzheim.

Beteiligte Institutionen:Beteiligte Institutionen:
An der Studie waren die Universitäten Bonn, Uppsala und AGH Krakau sowie das Karpinsky Russian Geological Research Institute in St. Petersburg beteiligt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nikolaus Froitzheim
Institut für Geowissenschaften, Universität Bonn
Tel.: + 49 151 2071 5084
E-Mail: niko.froitzheim@uni-bonn.de

Originalpublikation:
Nikolaus Froitzheim, Jaroslaw Majka & Dmitry Zastrozhnov: Methane release from carbonate rock formations in the Siberian permafrost area during and after the 2020 heat wave. PNAS; https://doi.org/10.1073/pnas.2107632118

(nach oben)


CoVis: Eine neue App zur Corona-Risikobewertung

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
Von der theoretischen Physik zum Unternehmer: DESY-Physiker Ayan Paul bringt mit seinem Spin-Off eine neue App gegen Corona auf den Markt. Sie kombiniert öffentliche Daten mit persönlichen Informationen und dem Aufenthaltsort und stellt dem Nutzer so eine ganz individuelle Einschätzung seiner momentanen COVID-Gefährdung mit Handlungsempfehlungen zur Verfügung.

Die neue App namens CoVis ist ab sofort im App Store für iOS und Android verfügbar. Sie stellt den Nutzerinnen und Nutzern Informationen zur aktuellen Corona-Lage bereit, um sich jeden Tag optimal vor dem SARS-CoV-2-Virus zu schützen. Sie meldet zum Beispiel Regionen mit besonderer Ansteckungsgefahr, damit diese gemieden werden können. Die App soll Einzelpersonen genauso helfen, wie Gemeinden, Unternehmen, Schulen aber auch Krankenhäusern. Gesundheitsämter und andere öffentliche Institutionen können anhand der zuverlässigen Daten Sicherheitsvorkehrungen und gesundheitliche Richtlinien anpassen. Anders als andere Apps nutzt CoVis dafür keinerlei Kontaktverfolgung. Persönliche Daten bleiben auf dem jeweiligen Gerät, Daten- und Persönlichkeitsschutz sind hundertprozentig gewahrt.

CoVis verwendet Künstliche Intelligenz und maschinelles Lernen von robusten, nachvollziehbaren Algorithmen, um COVID-19-Entwicklungen vorherzusagen und Anomalien in der Ausbreitung des Virus zu identifizieren. Als Grundlage dienen öffentlich verfügbare Daten, neueste Studienergebnisse und anderes vorhandenes medizinisches Wissen. In die App geben Nutzerinnen und Nutzer persönliche Informationen wie Alter, Vorerkrankungen und Reisegewohnheiten ein. Ohne dass diese Daten das Mobilgerät verlassen, speist CoVis sie in den proprietären Algorithmus ein und errechnet daraus, welche Verhaltensweisen und Orte unter den aktuellen Umständen für den individuellen Nutzer gefährlich sind. So kann jeder fundierte Entscheidungen treffen, welche Orte und Risiken man lieber vermeiden möchte.

Entwickelt wurde CoVis von einem Team junger Forscherinnen und Forscher, IT- und Gesundheitsexpertinnen und -experten, die sich im April 2020 anlässlich der COVID-19-Challenge des Massachusetts Institute of Technology in den USA zusammenfanden. Diese virtuelle Konferenz war ein sogenannter Hackathon: Engagierte Menschen unterschiedlichster Felder und aus aller Welt entwickeln in diesem Wettbewerb neue Ansätze zur Lösung eines gesellschaftlichen Problems. Es bildeten sich Teams, die binnen eines Wochenendes Ideen entwickelten, um der Pandemie mit digitalen Instrumenten entgegenzuwirken.

Das CoVis-Team hat den Wettbewerb und auch eine Folgeveranstaltung gewonnen, auf der einige Monate später die fortgeführten Projekte erneut bewertet wurden. Ein Mitglied des CoVis-Teams ist Ayan Paul, Theoretiker bei DESY. Er konnte seine Erfahrung und sein Wissen im Bereich Datenauswertung und statistische Modelle einbringen, die er bei der Analyse von Experimenten an Teilchenbeschleunigern gewonnen hat. Analog haben auch die anderen Teammitglieder ihre Expertise etwa in der Entwicklung von Apps oder im Gesundheitswesen eingebracht. Mit gebündelter Kraft setzen sie ihre Fähigkeiten ein, um gemeinsam einen Beitrag zur Überwindung der Pandemie zu leisten. Begleitet wurde und wird das CoVis-Team auch vom DESY Start-up Office. Es half bei der Entwicklung eines Business-Plans, bei der Suche nach Partnern und der letztlichen Gründung des Unternehmens CoVis Inc.

DESY hat die Initiative frühzeitig etwa mit einer Förderung durch den DESY-Strategie-Fonds unterstützt. „Kernkompetenzen aus der Grundlagenforschung zur Lösung von gesellschaftsrelevanten Problemen einsetzen, das ist eines der Ziele DESYs“, sagt Arik Willner, Chief Technology Officer bei DESY. „Mit seinem vorbildlichen Einsatz zeigt Ayan Paul, was Physik leisten kann, wie z.B. das Analysieren und Modellieren von großen Datenmengen, um das persönliche Risiko für eine Corona-Infektion abzuschätzen.“ Darin sieht auch Ayan Paul selbst seinen Antrieb, einen Großteil seiner Freizeit neben seinem Fulltime-Job bei DESY in CoVis zu investieren: „Ich möchte mein Wissen und meine speziellen Fähigkeiten zum Wohl der Gesellschaft einsetzen und helfen, die Krise zu bewältigen.“ Hinzu kommt die Inspiration, die er aus der Zusammenarbeit mit den anderen Teammitgliedern zieht, die einander zuvor nicht kannten: „Wir alle verfolgen dieselbe Vision. Das hat uns zusammengeschweißt, so dass wir CoVis sehr schnell entwickeln konnten.“

Als nächste Schritte will das CoVis-Team, das gerade auch als Finalist für die diesjährige Falling-Walls-Konferenz ausgewählt wurde, die App auch in weiteren Sprachversionen und Ländern anbieten. Langfristig will die junge Firma sich weiteren Herausforderungen des globalen Seuchenschutzes widmen. Zukünftige Entwicklungen sollen weitere Algorithmen und Anwendungen hervorbringen, die eine neue Ära des Seuchenmanagements einläutet – nicht nur in den Industrienationen, sondern auch in Entwicklungsländern.

DESY zählt zu den weltweit führenden Teilchenbeschleuniger-Zentren und erforscht die Struktur und Funktion von Materie – vom Wechselspiel kleinster Elementarteilchen, dem Verhalten neuartiger Nanowerkstoffe und lebenswichtiger Biomoleküle bis hin zu den großen Rätseln des Universums. Die Teilchenbeschleuniger und die Nachweisinstrumente, die DESY an seinen Standorten in Hamburg und Zeuthen entwickelt und baut, sind einzigartige Werkzeuge für die Forschung: Sie erzeugen das stärkste Röntgenlicht der Welt, bringen Teilchen auf Rekordenergien und öffnen neue Fenster ins Universum. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.

Mehr über CoVis
Die CoVis-App ist kostenlos und beinhaltet folgende Funktionen:
– 7-Tage-Vorhersage zur Entwicklung der Inzidenzen für alle Landkreise in Deutschland und in den USA
– Vollständige Score-Zeitleiste, um den Verlauf Ihres Risikoscores zu kennen
– Alle historischen Daten und Score-Aufschlüsselungen
– Optionales Benutzerkonto zum Speichern Ihrer Risiko-Scores und Aufschlüsselung
– Optionale Konto- und Datenverwaltung

• CoVis-Health-Webseite: https://covishealth.com
• CoVis im Apple AppStore: https://apps.apple.com/us/app/covis/id1558577130
• CoVis im Google PlayStore: https://play.google.com/store/apps/details?id=com.covisinc.covis

Wissenschaftliche Ansprechpartner:
Fachlicher Kontakt
Ayan Paul, PhD
DESY; Covis Health Inc.
+49 151-42407018
ayan.paul@desy.de

https://www.desy.de/aktuelles/news_suche/index_ger.html?openDirectAnchor=2123&am… – Pressemitteilung mit Bildern im Web

(nach oben)


Industrie kann Flexi-Joker in der Energiewende werden

Alexander Knebel Presse- und Öffentlichkeitsarbeit
Zuse-Gemeinschaft
Damit sich Verbraucher und Industrie möglichst schnell mit immer größeren Anteilen von Wind- und Solarstrom versorgen lassen, muss das deutsche Energiesystem flexibler werden. Das geht nicht ohne die Industrie. Als einer der größten Energiekunden sollte sie künftig mit ihrem Bedarf aber auch mit der Bereitstellung und Speicherung von Energie aktiv und flexibel an den Energiemärkten handeln. Wie das geht und wie sich das lohnen kann, erforscht, erprobt und verwirklicht angewandte Forschung aus der Zuse-Gemeinschaft. Teil 3 unserer Serie zum Energiemarkt der Zukunft.

Rund 28 Prozent des deutschen Endenergieverbrauchs entfallen auf die Industrie. Für die Energiewende nimmt der Sektor auch deshalb eine Schlüsselstellung ein, weil er hohe Bedarfe sowohl an Strom wie auch an Wärme bzw. Kälte hat. Für die künftig erforderliche erhöhte Flexibilität an den Energiemärkten müssen jedoch Wärme- und Strommarkt gemeinsam für höhere Anteile erneuerbarer Energien erschlossen werden. Die Gesellschaft zur Förderung angewandter Informatik (GFaI) aus Berlin entwickelt aktuell mit Partnern im vom Bundeswirtschaftsministerium geförderten Projekt „Flexibilitätswende“ Modelle, um für Industriebetriebe die Eintrittsschwelle zur Teilnahme an den Energiemärkten zu senken. Das geht mit möglichst praxisnahen Software-Prototypen, die aber dennoch aufs jeweilige Unternehmen angepasst werden müssen, z.B. einen Chemiepark. Rund 4.000 Variablen müssen die Informatiker aus Berlin-Adlershof zur Beschreibung des jeweiligen Energiesystems verknüpfen, bevor sie sich ans Rechnen machen können. Ein Beispiel: Die Teilnahme am Regelenergiemarkt, über den die Übertragungsnetzbetreiber unvorhergesehene, kurzfristige Ungleichgewichte zwischen Stromangebot und Stromnachfrage ausgleichen. Das geht z.B. mit Gasturbinen, die so mancher Großbetrieb schon heute auf dem Betriebsgelände installiert hat. Damit er künftig den Strom auch verkauft, helfen die IT-Spezialisten der GFaI, einem Mitglied der Zuse-Gemeinschaft.

In den entwickelten Modellen werden dazu das Bietverhalten am Markt und die Abrufe der Regelenergie für unterschiedliche Anlagen im Energiesystem berücksichtigt. Die Auswertung der Variablen wird im Software-Prototyp anhand eines Optimierungsproblems realisiert und das Ergebnis kann zur Bewertung der Vermarktungsoptionen für unterschiedliche Anlagen genutzt werden. Beispielsweise können laut einer GFaI-Beispielrechnung durch die Vermarktung von Sekundärregelleistung mit der genannten Gasturbine zwischen 10.000 bis 47.000 Euro pro Jahr an Gewinn pro eingesetztem Megawatt (MW) Leistung erwirtschaftet werden. „Wie das Beispiel zeigt, kann sich die Bereitstellung von Regelenergie und damit die aktive Teilnahme am Strommarkt für Industriebetriebe durchaus rechnen“, resümiert GFaI-Experte Joram Wasserfall ein vorläufiges Zwischenergebnis zur Halbzeit des Projekts, das noch bis Herbst 2022 läuft.

Die Bereitstellung von Regelleistung durch eine Gasturbine, die sich statt mit Erdgas auch mit Biogas oder aus Wasserstoff gewonnenem Methan betreiben lässt, ist nur eine Option neben weiteren Möglichkeiten zur Teilnahme am Energiemarkt. Weitere Bausteine sind die Deckung des betrieblichen Eigenbe-darfs an Strom und Wärme sowie der mögliche Handel an der Strombörse. „Im Projekt forschen wir daran, wie sich Energiemärkte der Zukunft am besten beschreiben lassen. Auf der Basis sollen dann Einzelfall-lösungen verlässlich erstellt werden können“, erklärt GFaI-Projektleiter Dr. Stefan Kirschbaum. So soll ein Nutzen für die Energiewende durch die Stabilisierung der Netze ebenso wie für die Industriebetriebe durch Erlöse am Energiemarkt entstehen. „Mit den im Projekt entwickelten Instrumenten bekommen die Betriebe auch Werkzeuge für die Optimierung ihres Unterneh-mens an die Hand, so um zu beurteilen, ob einzelne Anlagen z.B. in einem Chemiepark sinnvoll miteinander verbunden werden können, so die Solaranlage auf dem Dach mit einer Gasturbine“, erläutert Kirschbaum.

ILK mit Eisspeicher zum Glätten von Lastspitzen
Nicht nur den Strom- und Wärme-, sondern auch den Kältemarkt gilt es künftig für die mit der Energiewende steigenden Anforderungen an die Flexibilisierung von Angebot und Nachfrage zu ertüchtigen, zumal er in Zeiten von Klimaerhitzung und Digitalisierung eine wachsende Bedeutung am Energiemarkt erlangt. Besonders hoch ist der Kältebedarf in vielen Branchen am frühen Nachmittag, wenn auch die Strompreise hoch sind. Sinnvoll sind deshalb Kältespeicher, damit die Unternehmen ihren Strombedarf für Kälteanwendungen größtenteils zu Zeiten niedriger Strompreise, z.B. nachts decken können. Möglich ist das mit einem vom Institut für Luft- und Kältetechnik (ILK) perfektionierten Eisspeicher, der Vakuum-Flüssigeis-Technologie. Sie lässt sich mit dem Knowhow der Forschenden aus Dresden für Verbraucher in Industrie- und Dienstleistungs-branchen skalieren und entsprechend dimensionieren, z.B. für Rechenzentren.

Turbo-Verdichter am Tripelpunkt von Wasser hält Kältemaschine in Schwung
Dafür nutzen die ILK-Forschenden ein pumpfähiges Wasser-Eis-Gemisch und bedienen sich eines physikalischen Tricks zur energieeffizienten Eiserzeugung. Bei einem sehr niedrigen Druck von 6 mbar kommt das Wasser an seinen sogenannten Tripelpunkt, wo es gleichzeitig gefrieren und verdampfen kann (s. Grafik). Der Gefrierprozess wird durch die gleichzeitige Verdampfung anderer Wassermoleküle und die Absaugung des entstehenden Wasserdampfes hervorgerufen. Die Herausforderung: Der großen Menge an Wasserdampf mit seiner geringen Dichte Herr werden. Denn die Dichte von Wasserdampf ist bei diesem niedrigen Druck etwa 270 Mal geringer als die von Luft. Dafür hat das ILK einen speziellen Turbo-Verdichter mit Schaufeln aus besonders leichten und stabilen Kohlefaserverbundwerkstoffen entwickelt.

Das vom ILK neu entwickelte Verfahren wurde ursprünglich vom Bundeswirt-schaftsministerium gefördert. Es bewährt sich bereits in der Praxis, so am kürzlich übergebenen gemeinsamen Rechenzentrum für den Wissenschaftsstandort Göttingen. Dort hat das Verdichterlaufrad einen Durchmesser von 1,3 m und rotiert mit 6.500 Umdrehungen pro Minute. „Durch den Abtransport des Dampfes bleibt die Kühlung am Laufen“, erläutert ILK-Abteilungsleiter Angewandte Energietechnik, Mathias Safarik.

Für die Vermarktung des innovativen Kältespeichers plant das ILK die Ausgründung eines Unternehmens zur Realisierung weiterer Projekte. Es trifft auf einen wachsenden Markt. Der Anteil von Klima- und Prozesskälte am deutschen Endenergieverbrauch erreichte 2019, den jüngsten verfügbaren Angaben, laut Bundeswirtschaftsministerium 2,5 Prozent, nach 2,0 Prozent im Jahr 2009. Indes nimmt am deutschen Strommarkt die Bedeutung von Rechenzentren als Abnehmer deutlich zu. „Mit dem von uns entwickelten Verfahren lässt sich Kälte besonders effizient und kostengünstig speichern“, erklärt Safarik. „Damit kann sowohl die elektrische Spitzenlast gesenkt als auch die Kälteerzeugung in Zeiträume verlagert werden, in denen besonders preiswerter Strom aus erneuerbaren Energien verfügbar ist“, erläutert der Experte des ILK, einem weiteren Mitglied der Zuse-Gemeinschaft.

Anhang
PM der Zuse-Gemeinschaft: Industrie kann Flexi-Joker in der Energiewende werden

(nach oben)


TH Köln entwickelt neuartige Membrantechnologie zur Trennung von Gasen

Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
Nachhaltige Aufbereitung von Gasen: Im Projekt „CO2-Abtrennung mittels Nano-Carbon basierter Mixed-Matrix-Membranen“ (GG CO2) hat ein Forschungsteam der TH Köln in Zusammenarbeit mit dem griechischen Institut Demokritos sowie den Firmen FutureCarbon und Advise eine innovative Membran erstellt, mit der einzelne Gase aus Gasgemischen abgetrennt werden können, um beispielsweise Biogas aufzubereiten. Im Fokus stand dabei das klimarelevante Gas CO2.

„Die Trennung von Gasgemischen gewinnt gerade im Hinblick auf die Energiewende, aber auch für die effiziente Nutzung von Ressourcen, eine immer größere Bedeutung. Ein Beispiel ist Biogas, das sich unter anderem aus Abfällen regenerativ gewinnen lässt. Problematisch ist, dass nicht aufbereitetes Biogas – ähnlich wie Erdgas oder Prozessabgase aus der Industrie – in der Regel eine beträchtliche Menge an Verunreinigungen wie Kohlenstoffdioxid enthält – das schmälert die Effizienz der Verbrennung“, sagt Prof. Dr. Tim Schubert vom Institut für Anlagen und Verfahrenstechnik (IAV) der TH Köln. „Die Einspeisung von Biogas in das Gasnetz findet heute auch mangels technisch einsetzbarer und ökonomisch tragbarer Lösungen der Aufreinigung noch nicht statt. Um den Brennstoff nutzbar zu machen und die gesetzlichen Anforderungen für die Einspeisung zu erfüllen, ist eine Aufreinigung erforderlich.“

Mixed-Matrix-Membran
Die Wissenschaftlerinnen und Wissenschaftler erarbeiteten dafür einen innovativen Ansatz zur CO2-Abrennung: sie integrierten Nanomaterialien in eine Mixed-Matrix-Membran, die auf einer Polymermembran basiert. Mit Hilfe von Polymembranen funktioniert prinzipiell die Abtrennung von CO2 aus Erdgas, allerdings weisen sie insgesamt eine nur zu geringe Durchlässigkeit und damit Kapazität auf. Um die Polymermembran zu optimieren und damit bei gegebener Membranfläche mehr Kohlenstoffdioxid herauszufiltern, wurden sogenannte Carbon-Nanotubes – mikroskopisch kleine Kohlenstoff-Nanoröhrchen – in die Matrix hineingemischt.
„Um den Grundstoff für die Membran vorzubereiten, haben wir die Kohlenstoffpartikel mit Hilfe eines speziellen Verfahrens, der Redispergierung, in einer flüssigen Polymerlösung vereinzelt und die Verschlaufungen aufgelöst“, erklärt der wissenschaftliche Mitarbeiter Ruben Hammerstein. Im nächsten Schritt wurde aus der Dispersion, also dem Gemisch aus Polymerlösung und Carbon-Nanotubes, die Membran hergestellt. „Diese besteht aus einem Trägermaterial, das mechanisch stabil ist und den Druck des Gases aushält. Mit Hilfe eines sogenannten Spin-Coaters haben wir die poröse Trägermembran mittels Vakuum fixiert und sie mit bis zu 10.000 Umdrehungen rotieren lassen. Dadurch wird die Dispersion auf der Trägermembran sehr dünn verteilt und es entsteht eine homogene, wenige Mikrometer dicke Schicht, die oben aufliegt – das ist der gastrennende Teil der Membran“, so Hammerstein.

Die Mixed-Matrix-Membran vereint die Vorteile von polymerbasierten Membranen, zum Beispiel Skalierbarkeit der Produktion und niedrige Kosten, mit der Leistungsfähigkeit von kohlenstoffbasierten Nanowerkstoffen. Dazu zählen eine hohe Selektivität – also wie gut die Membran in der Lage ist, Gase voneinander zu trennen – sowie eine hohe Permeabilität, das ist die Gasmenge, die die Membran passiert. Die Gastrenneigenschaften der neuen Membran wurden mit einer eigens konstruierten Testanlage geprüft. „Die Untersuchung lieferte uns vielversprechende Ergebnisse. Bei der Messung zeigte sich ein deutlicher Effekt der gewünschten Ziele hinsichtlich der Stabilität, Selektivität und der Permeabilität“, sagt Schubert.

Zum Projekt
Das Projekt „CO2-Abtrennung mittels Nano-Carbon basierter Mixed-Matrix-Membranen“ (GG CO2) hatte eine Laufzeit von drei Jahren und wurde vom Bundesministerium für Bildung und Forschung gefördert. Neben Projektleiter Prof. Dr. Tim Schubert waren Prof. Dr. Gerhard Braun und Prof. Dr. Stéphan Barbe von der TH Köln beteiligt. Das Projekt wurde außerdem mit folgenden Kooperationspartnern durchgeführt: Institut Demokritos – National Center for Scientific Research (NCSR) – sowie den Firmen Advise und FutureCarbon.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 27.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Sandy Syperek
0221-8275-5147
pressestelle@th-koeln.de

Bildmaterial zur honorarfreien Verwendung bei Copyright-Angabe stellen wir Ihnen gerne zur Verfügung. Bitte wenden Sie sich dazu an pressestelle@th-koeln.de.

(nach oben)


Lernpausen sind gut fürs Gedächtnis

Dr. Stefanie Merker Presse und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie
Wir können uns Dinge länger merken, wenn wir während des Lernens Pausen einlegen. Dieses Phänomen ist als Spacing-Effekt bekannt. Wissenschaftler:innen am Max-Planck-Institut für Neurobiologie haben in Mäusen tiefere Einblicke in die neuronalen Grundlagen dafür erlangt. Mit längeren Zeitabständen zwischen Lernwiederholungen greifen die Tiere immer wieder auf dieselben Nervenzellen zurück – anstatt andere zu aktivieren. Womöglich können sich dadurch die Verknüpfungen der Nervenzellen in jeder Lernphase verstärken, sodass Wissen über längere Zeit gespeichert wird.

Viele von uns kennen das: Einen Tag vor einer Prüfung versuchen wir uns noch den gesamten Lernstoff anzueignen. Doch so schnell wie wir lernen, so schnell ist das mühsame erarbeitete Wissen auch wieder weg. Die gute Nachricht: Wir können diesem Vergessen entgegenwirken. Mit größeren zeitlichen Abständen zwischen einzelnen Lernphasen, behalten wir das Wissen anschließend länger.

Doch was passiert beim Spacing-Effekt im Gehirn und warum sind Lernpausen so förderlich für unser Erinnerungsvermögen? Es wird angenommen, dass beim Lernen Nervenzellen aktiviert und neue Verbindungen unter ihnen geknüpft werden. So wird das erlernte Wissen gespeichert und kann bei Aktivierung derselben Nervenzellgruppe abgerufen werden. Tatsächlich wissen wir bis heute aber kaum, wie Lernpausen diesen Vorgang positiv beeinflussen – obwohl der Spacing-Effekt bereits vor über einem Jahrhundert beschrieben wurde und bei nahezu allen Tierarten vorkommt.

Annet Glas und Pieter Goltstein, Neurobiolog:innen im Team von Mark Hübener und Tobias Bonhoeffer, untersuchten dieses Phänomen in Mäusen. Dazu sollten die Tiere sich in einem Labyrinth die Position eines versteckten Stücks Schokolade merken. Die Mäuse erhielten dreimal hintereinander die Möglichkeit das Labyrinth zu erkunden und ihre Belohnung zu finden – einschließlich Pausen unterschiedlicher Länge. „Mäuse, die wir mit längeren Pausen zwischen den Lernphasen trainierten, konnten sich die Position der Schokolade nicht so schnell merken“, erklärt Annet Glas. „Doch am nächsten Tag war das Erinnerungsvermögen der Mäuse umso besser, je länger die Pausen waren.“

Während des Labyrinth-Tests maßen die Forschenden zusätzlich die Nervenzellaktivität im präfrontalen Kortex. Diese Gehirnregion ist für Lernvorgänge von besonderem Interesse, da sie für ihre Rolle bei komplexen Denkaufgaben bekannt ist. So zeigten die Wissenschaftler, dass eine Inaktivierung des präfrontalen Kortex die Gedächtnisleistung der Mäuse beeinträchtigte.

„Folgen drei Lernphasen kurz aufeinander, erwarten wir intuitiv, dass dieselben Nervenzellen aktiviert werden“, erzählt Pieter Goltstein. „Schließlich handelt es sich um das gleiche Experiment mit der gleichen Information. Nach einer langen Pause wäre es hingegen denkbar, dass das Gehirn die anschließende Lernphase als neues Ereignis interpretiert und mit anderen Nervenzellen verarbeitet.“

Als die Forschenden die Nervenzellaktivitäten in den unterschiedlichen Lernphasen verglichen, stellten sie allerdings genau das Gegenteil fest. Bei kurzen Pausen schwankte das Aktivierungsmuster im Gehirn mehr als im Vergleich zu langen Pausen: In schnell aufeinanderfolgenden Lernphasen aktivierten die Mäuse meist unterschiedliche Nervenzellen. Nach längeren Pausen wurden dagegen die Nervenzellen der ersten Lernphase auch später wieder genutzt.

Indem das Gehirn auf dieselben Nervenzellen zurückgreift, kann es womöglich die Verknüpfungen zwischen diesen in jeder Lernphase stärken. Die Kontakte müssen nicht erst „von neu“ aufgebaut werden. „Das ist der Grund warum wir glauben, dass das Erinnerungsvermögen von langen Pausen profitiert“, sagt Pieter Goltstein.

Damit gibt die Studie nach über einem Jahrhundert tiefere Einblicke in die neuronalen Vorgänge, die den positiven Effekt von Lernpausen erklären. Mit Unterbrechungen kommen wir also womöglich langsamer ans Ziel, haben jedoch deutlich länger etwas von unserem Wissen. Hoffentlich haben wir das bis zur nächsten Prüfung nicht vergessen!

KONTAKT:
Dr. Christina Bielmeier
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: bielmeier@neuro.mpg.de

Wissenschaftliche Ansprechpartner:
Dr. Pieter Goltstein
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
Email: goltstein@neuro.mpg.de

Prof. Dr. Tobias Bonhoeffer
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: office.bonhoeffer@neuro.mpg.de

Originalpublikation:
Annet Glas, Mark Hübener, Tobias Bonhoeffer, Pieter M. Goltstein
Spaced training enhances memory and prefrontal ensemble stability in mice
Current Biology, 28.07.2021
DOI: 10.1016/j.cub.2021.06.085

Weitere Informationen:
https://www.neuro.mpg.de/bonhoeffer/de – Webseite der Forschungsabteilung
https://www.neuro.mpg.de/news/2021-07-bonhoeffer/de – Hier finden Sie eine Audioversion der Pressemitteilung.

(nach oben)


Chinesischer Mais-Hunger wird bleiben

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Erfreuliche Aussichten für den Ackerbau und spannende Einschätzungen zu künftigen Herausforderungen erbrachte die diesjährige Web-Konferenz des internationalen Agrarökonomen-Netzwerks agri benchmark Cash Crop, die am 11. Juni zu Ende ging. Eine Woche lang diskutierten mehr als 140 Forschungspartner und Experten aus dem agri benchmark Netzwerk sowie geladene Gäste aus der Agrarbranche in zehn Sitzungen über die Zukunft der globalen Landwirtschaft. Das Netzwerk wird koordiniert vom Thünen-Institut für Betriebswirtschaft.

Untersuchungen von Jannik Dresemann vom agri benchmark Center in Braunschweig ergaben, dass Landwirte in vielen Anbausystemen vor Herausforderungen stehen: Zum einen sind es Unkraut- und Schädlingsresistenzen gegen bestimmte Pflanzenschutzmittel oder das schlichte Fehlen von Pflanzenschutzmitteln. Zum anderen ist es die Notwendigkeit, Nährstoffverluste – insbesondere Stickstoff – aufgrund der zunehmenden gesellschaftlichen Besorgnis über negative Umweltauswirkungen und Treibhausgasemissionen zu reduzieren. Vor allem das letztgenannte Thema wird sowohl für politische Entscheidungsträger als auch für Akteure der Wertschöpfungskette immer wichtiger.

Eine Podiumsdiskussion über die Konsequenzen aus diesen Erkenntnissen erbrachte, dass eine stärker standortspezifische Forschung zu neuen Anbausystemen sowie die Mobilisierung des vorhandenen Know-hows von Landwirten und Beratern erforderlich ist. Sogenannte „Lebende Labore“, in denen Erzeuger, Agrarindustrie und Pflanzenbauforscher großräumig gemeinsam an Innovationen und Lösungen im Pflanzenbau zusammenarbeiten, wurden als vielversprechende Option angesehen. Die zentrale Herausforderung wird sein: Wer übernimmt die Führungsrolle in einem solchen Prozess?

Der neue kanadische agri benchmark Partner, Ken Coles von Farming Smarter, sagte dazu: „Dieses Thema weiter zu erforschen ist ein spannendes Unterfangen. Ich freue mich sehr darauf, unsere Erfahrungen mit dem Netzwerk und den Stakeholdern weltweit zu teilen, auch im Rahmen eines entsprechenden Forschungsprojekts, an dem Jannik Dresemann vom agri benchmark Center am deutschen Thünen-Institut arbeitet.“

2021 – Erfreuliche Aussichten für viele Ackerbauern
In Anbetracht des jüngsten Anstiegs der globalen Rohstoffpreise – vor allem getrieben durch den rasanten Anstieg der chinesischen Mais-Importe – erwartet das Netzwerk für viele Produzenten ein sehr profitables Jahr 2021. Wie Yelto Zimmer, Koordinator von agri benchmark Cash Crop, erklärte: „Selbst wenn man den massiven Anstieg der Düngemittel- und Energiepreise berücksichtigt, deuten unsere Daten darauf hin, dass bei normalen Erträgen die Grundrenten 2021 mindestens 50 % höher sein werden als in der Periode 2018-2020.“ (siehe Abbildung).

Betrachtet man die Entwicklung der Pflanzenschutzkosten, so sieht man eine recht unterschiedliche Entwicklung: Während z.B. in Frankreich die typischen Betriebe ihre Ausgaben im Weizen über die letzten 6 Jahre um 10 bis 15 % reduzierten, stiegen die Kosten in den wichtigsten britischen Weizengebieten um etwa 30 %.

China: Anhaltender Anstieg der Mais-Nachfrage
Der internationale Experte für Schweineproduktion, Jurgen Hijink aus den Niederlanden, erklärte, dass der aktuelle Anstieg der chinesischen Maisnachfrage und -importe vor allem auf den Strukturwandel in der chinesischen Schweineproduktion zurückzuführen ist. Während früher etwa 30 % der Produktion aus Betrieben mit weniger als 50 Schweinen stammte, hat sich der Großteil der Produktion auf Betriebe im Bereich von mehr als 1.000 Schweinen verlagert. Der Grund für diese Veränderung: Die chinesische Regierung sieht in den sogenannten Hinterhofproduzenten die Hauptverursacher für die schnelle Verbreitung der Afrikanischen Schweinepest (ASP). Daher fördert und unterstützt sie massiv die Errichtung von Megaställen mit mehr als 10.000 Schweinen.

Der Nebeneffekt dieser Veränderung: Die Futterrationen der Großbetriebe basieren hauptsächlich auf handelsüblichem Getreide (Mais, Weizen, Gerste, Sorghum), während die Hinterhofproduktion vor allem Nebenprodukte wie Reiskleie, Erntenebenprodukte, Lebensmittelabfälle usw. verwendet. Im Vergleich zum Niveau vor der ASP-Krise hat diese Verschiebung dazu geführt, dass die Maisnachfrage bis 2021 um 15 % gestiegen ist; bis 2025 wird der Gesamtverbrauch an kommerziellem Getreidefutter um 30 % bis 40 % bzw. über 40 Millionen Tonnen steigen. Dieser Nettoeffekt beinhaltet eine verbesserte Futterverwertung aufgrund des Strukturwandels und einen Anstieg des Schweinefleischverbrauchs um etwa 10 %. Die Konsequenz: Wenn die chinesische Regierung die Landnutzung nicht massiv in Richtung Maisanbau umwidmet, dürfte das hohe Niveau der chinesischen Mais-Importe anhalten.

Wissenschaftliche Ansprechpartner:
Jeanette Malchow
agri benchmark Center am Thünen-Institut, Braunschweig
Mail: jeanette.malchow@agribenchmark.net

(nach oben)


Förderaufruf: Klimaschonendes Stickstoffmanagement im Pflanzenbau

Tassilo Frhr. v. Leoprechting Pressestelle
Bundesanstalt für Landwirtschaft und Ernährung (BLE)
Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) fördert in der Ackerbaustrategie ab sofort Forschungs- und Entwicklungsvorhaben sowie Wissenstransfervorhaben zum „Klimaschonenden Stickstoffmanagement im Pflanzenbau“. Projektskizzen können bis zum 18. Oktober 2021 bei der Bundesanstalt für Landwirtschaft und Ernährung (BLE) eingereicht werden.

Im Forschungs- und Entwicklungsvorhaben (FuE) sollen die Kenntnisse über den Stickstoffkreislauf sowie die Wirkungen und Wechselwirkungen spezifischer Maßnahmen verbessert werden. Im Fokus stehen Vorhaben, die erweiternde Erkenntnisse hinsichtlich Emissionsminderungen im pflanzenbaulichen Stickstoffmanagement liefern. Hierzu zählen die Verringerung von Ammoniak- und Lachgasemissionen, die Wirkung von Nitrifikations- und Ureasehemmstoffen sowie die Minderung denitrifikationsbedingter, klimawirksamer Emissionen aus landwirtschaftlichen Böden.

Darüber hinaus fördert das BMEL Wissenstransfervorhaben, die neuartige, praxisreife und emissionsarme Techniken in der Praxis etablieren. In diesen Vorhaben können Demonstrationsversuche durchgeführt werden.

Weitere Informationen befinden sich in der Bekanntmachung unter: http://www.ble.de/Klimaschonendes-Stickstoffmanagement-Pflanzenbau

Hintergrundinformationen
Um die Entwicklung einer leistungsfähigen und zugleich umwelt- und klimaschonenden Landwirtschaft voranzutreiben, legt die Bundesregierung in ih-rem Klimaschutzprogramm 2030 die „Senkung der Stickstoffüberschüsse einschließlich Minderung der Ammoniakemissionen und gezielte Verminderung der Lachgasemissionen sowie Verbesserung der Stickstoffeffizienz“ als Maßnahme im Bereich Landwirtschaft fest. Auch das Diskussionspapier „Ackerbaustrategie 2035“ (ABS) des BMEL formuliert Maßnahmenvorschläge, um die Düngeeffizienz zu erhöhen und die Nährstoffüberschüsse zu verringern.

Weitere Informationen:
http://www.ble.de/Klimaschonendes-Stickstoffmanagement-Pflanzenbau

(nach oben)


Kinder entwickeln langfristige Immunität gegen COVID-19

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Aktuelle Ergebnisse der COVID-19-Familienstudie Baden-Württemberg als Preprint veröffentlicht / Asymptomatischer Verlauf der Infektion bei Kindern fünfmal häufiger als bei Erwachsenen / Immunantwort stabiler als bei Erwachsenen

Wie verläuft eine COVID-19-Infektion bei Kindern, sind sie nach einem milden Verlauf geschützt und welche Rolle spielen sie im Pandemiegeschehen als Erkrankte, Infektionsherde und -verstärker? Diese zentralen Fragen haben Wissenschaftler*innen der Universitätsklinika in Freiburg, Heidelberg, Tübingen und Ulm sowie des Naturwissenschaftlichen und Medizinischen Instituts NMI in Reutlingen in der vom Land Baden-Württemberg initiierten und finanzierten COVID-19-Kinder-Studie untersucht. Sie zeigten, dass Kinder sich innerhalb der Familien deutlich seltener ansteckten als Erwachsene und der Verlauf meist deutlich milder war. Gleichzeitig war die Immunantwort bei Kindern im Schnitt stärker und hielt länger an als bei Erwachsenen, unabhängig davon, ob Symptome auftraten. Die Ergebnisse sind am 23. Juli 2021 als Preprint veröffentlicht worden.

Weniger Symptome, besserer Immunschutz
Für die Studie wurden 328 Familien mit mindestens einem an COVID-19 erkrankten Mitglied mehrfach untersucht. Insgesamt nahmen 548 Kinder im Alter zwischen 6 und 14 Jahren und 717 Erwachsene teil. In Familien mit einer infizierten Person steckten sich Kinder (34 Prozent) deutlich seltener an als Erwachsene (58 Prozent) und waren – im Fall einer Infektion – fünfmal häufiger ohne Krankheitszeichen (Erwachsene: 9 Prozent, Kinder: 45 Prozent). Trotzdem zeigten die Kinder elf bis zwölf Monate nach der Infektion stärkere und länger anhaltende spezifische Antikörperspiegel als Erwachsene. Das galt unabhängig davon, ob Krankheitszeichen bestanden oder nicht. Die kindlichen Antikörper sind gut wirksam gegenüber verschiedenen Virusvarianten, so dass auch nicht sichtbar erkrankte Kinder nach einer Infektion geschützt sein sollten. Keines der infizierten Kinder musste im Krankenhaus behandelt werden.

Krankheitszeichen unterscheiden sich
Auch bei den berichteten Beschwerden unterschieden sich Erwachsene und Kinder. Während bei Erwachsenen Fieber, Husten, Durchfall und Geschmacksstörungen gleichermaßen ein guter Hinweis auf eine Infektion waren, waren bei Kindern nur Geschmacksstörungen ein deutlicher Hinweis auf eine COVID-19-Infektion (in 87 Prozent). Husten und Fieber waren erst mit steigendem Alter ab etwa zwölf Jahren ein Hinweis auf eine Infektion.

Zusammengefasst zeigt sich: Von COVID-19 genesene Kinder entwickeln trotz eines oft sehr milden oder sogar symptomfreien Verlaufs eine sehr wirksame und anhaltende Immunabwehr gegen neue Coronavirus-Infektionen. Es gibt Anzeichen, dass die kindliche Immunabwehr die von Erwachsenen sogar übertrifft.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Philipp Henneke
Leiter der Abteilung für Pädiatrische Infektiologie und Rheumatologie
Zentrum für Kinder- und Jugendmedizin
Universitätsklinikums Freiburg
Telefon: 0761 270-77640
philipp.henneke@uniklinik-freiburg.de

Dr. Roland Elling
Funktionsoberarzt in der Abteilung für Pädiatrische Infektiologie und Rheumatologie
Zentrum für Kinder- und Jugendmedizin
Universitätsklinikum Freiburg
Telefon: 0761 270-45291
roland.elling@uniklinik-freiburg.de

Originalpublikation:
Titel der Studie: Typically asymptomatic but with robust antibody formation: Children’s unique humoral immune response to SARS-CoV-2
DOI: 10.1101/2021.07.20.21260863
Link zur Studie: https://www.medrxiv.org/content/10.1101/2021.07.20.21260863v1

(nach oben)


Fließgewässermonitoring: BUND startet gemeinsam mit Wissenschaftler:innen von UFZ und iDiv ein Citizen Science-Projekt

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Der Bund für Umwelt und Naturschutz Deutschland (BUND), das Helmholtz-Zentrum für Umweltforschung (UFZ) und das Deutsche Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig starten ein umfassendes Monitoring von deutschen Fließgewässern. Ziel ist es, die Belastung kleiner Fließgewässer durch Pestizide zu erforschen und die Auswirkungen auf aquatische Insektengemeinschaften zu erfassen. So soll langfristig der Zustand deutscher Kleingewässer untersucht, und auf dieser Grundlage die Artenvielfalt gefördert werden. Bürgerwissenschaftler:innen helfen dabei mit.

„Die Kleingewässer in Deutschland sind in einem kritischen Zustand“, sagt Olaf Bandt, Vorsitzender des BUND. „Insbesondere in landwirtschaftlich geprägten Regionen sind die Belastungen durch Pestizide und andere Schadstoffe besonders hoch.“ Erst kürzlich hatten Wissenschaftlerinnen und Wissenschaftler unter Leitung des UFZ die Ergebnisse eines ersten bundesweiten Monitorings von Kleingewässern in Agrarlandschaften veröffentlicht. Sie zeigen, dass die staatlichen Grenzwerte für Pestizide in der Regel zu hoch angesetzt sind und selbst diese zu hohen Werte in über 80 Prozent der Gewässer noch überschritten werden.
Kleinere Bäche und Gräben machen mehr als 70 Prozent des deutschen Fließgewässernetzes aus. Viele seltene Tier- und Pflanzenarten sind akut bedroht: Denn viele dieser Arten brauchen saubere und unbelastete Kleingewässer zum Überleben. Momentan werden Kleingewässer in Deutschland jedoch behördlich nicht systematisch überwacht.
Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Citizen Science-Projekt „FLOW“ wird die bisherigen Arbeiten durch die Mitarbeit von Bürgerwissenschaftlerinnen und -wissenschaftlern mit einer Vielzahl an Daten ergänzen. In den nächsten drei Jahren sind bundesweit mindestens 200 Monitoringeinsätze geplant, bei denen die Gemeinschaft der wirbellosen Tiere (Makrozoobenthos) untersucht und bestimmt wird. Außerdem wird die Gewässerstruktur beurteilt und die chemisch-physikalische Wasserqualität analysiert. Anschließend sollen auf Grundlage der Untersuchungsergebnisse gemeinsam Maßnahmen zur Reduktion von Pestizideinträgen und zur Verbesserung des Zustands von Gewässern entwickelt werden. Unterstützt werden die Monitoringeinsätze durch die Umweltmobile der Sächsischen Landesstiftung Natur und Umwelt (LaNU). „Die Bürgerwissenschaftler:innen, die sich im Projekt FLOW engagieren, werden durch ihre Aktivitäten in den nächsten drei Jahren erheblich dazu beitragen, Gewässer und Lebensgemeinschaften zu untersuchen und den Gewässerschutz zu verbessern“, betont Citizen Science-Expertin Prof. Aletta Bonn von UFZ und iDiv.
Nur etwa 8 Prozent der deutschen Fließgewässer befinden sich derzeit in einem „guten ökologischen Zustand“, obwohl dieses Ziel eigentlich schon 2015 erreicht sein sollte. Dieser Zustand ist laut Umweltbundesamt praktisch unverändert, seit die EU-Wasserrahmenrichtlinie im Jahr 2000 eingeführt wurde. Der BUND fordert die Bundesregierung auf, den Pestizideinsatz zum Schutz gesunder Ökosysteme zu reduzieren und besonders gefährliche Wirkstoffe zu verbieten. Kleine Bäche sind durch das geplante Insektenschutzgesetz noch nicht ausreichend vor Pestiziden geschützt. Eine umweltverträgliche Landwirtschaft muss künftig stärker gefördert werden, um unsere Gewässer, die aquatische Biodiversität und somit eine gesunde Umwelt zu schützen.
Das Projekt hat eine Laufzeit von Februar 2021 bis Januar 2024 und wird im Rahmen des Förderbereichs Bürgerforschung vom Bundesministerium für Bildung und Forschung gefördert. Es gehört zu 15 Projekten, die bis Ende 2024 die Zusammenarbeit von Bürger:innen und Wissenschaftler:innen inhaltlich und methodisch voranbringen und Antworten auf gesellschaftliche Herausforderungen geben sollen. Weitere Informationen unter: http://www.bmbf.de/de/buergerforschung-225.html und http://www.buergerschaffenwissen.de

Mehr Informationen zum FLOW-Projekt: http://www.bund.net/flow
Ergebnisse des Kleingewässermonitorings (UFZ-Pressemitteilung vom 15. Juni 2021): https://www.ufz.de/index.php?de=36336&webc_pm=33/2021

Wissenschaftliche Ansprechpartner:
Lilian Neuer, BUND Koordinatorin im Projekt FLOW / lilian.neuer@bund.net
Julia von Gönner, UFZ/iDiv-Koordinatorin im Projekt FLOW / julia.vongoenner@ufz.de

(nach oben)


Neue Ergebnisse: Salzwassereinbrüche können den Überdüngungsgrad der Ostsee nur wenig und nur vorübergehend verbessern

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Mithilfe von Detailanalysen an Wasser- und Sedimentproben aus dem Gotlandbecken gelang es Warnemünder Geowissenschaftler:innen, die geochemischen Prozesse nachzuverfolgen, die nach dem Jahrhundert-Salzwassereinbruch von 2014/2015 abliefen. Ihr Fazit: Selbst sehr große Mengen an sauerstoffhaltigem Wasser bringen nur geringe und vorübergehende Verbesserungen für die Nährstoffsituation in der zentralen Ostsee. Bereits 1,5 Jahre nach dem Ereignis waren die Sauerstoffreserven im Gotland-Becken wieder verbraucht und absedimentiertes Phosphat ging wieder in Lösung. Im Sediment verblieben allerdings Anreicherungen von Spurenmetallen, die im Zusammenhang mit Salzwassereinbrüchen noch unbekannt waren.

Sporadisch auftretende Einströme großer Mengen an salzhaltigem Nordsee-Wasser gelten als Hoffnungsträger, wenn es um die “toten Zonen” am Boden der zentralen Ostsee geht. Die sogenannten Salzwassereinbrüche bringen sauerstoffhaltiges Oberflächenwasser der Nordsee in die Ostsee, wo es aufgrund seiner – im Vergleich zum Brackwasser der Ostsee – höheren Dichte absinkt und am Boden bis in die zentrale Ostsee fließen kann. Dies ist der einzige Prozess, der innerhalb kurzer Zeit für eine Sauerstoffversorgung des Tiefenwassers sorgen und die Ausbreitung der “toten Zonen” eindämmen kann. Entsprechend groß war die Hoffnung, als im Dezember 2014 der drittgrößte Salzwassereinbruch seit 1880 sehr große Mengen an Salz und Sauerstoff in die Ostsee brachte.

Sauerstoffzufuhr ermöglicht nicht nur eine erneute Belebung des Meeresbodens, sie löst auch eine Kette von Oxidationsprozessen aus, in deren Verlauf es zur Ausfällung von Phosphat-Verbindungen kommen kann. Dem Wasser wird auf diese Weise Phosphor entzogen, ein entscheidender Nährstoff, der neben Stickstoff für die Überdüngung und die daran gekoppelten sommerlichen Cyanobakterien-Blüten („Blaualgen“) in der Ostsee verantwortlich ist.

Die Warnemünder Geowissenschaftler:innen Olaf Dellwig, Antje Wegwerth und Helge Arz nahmen diesen doppelt positiven Effekt der Salzwassereinbrüche zum Anlass, um ausgehend vom Ereignis im Dezember 2014 bis zum Herbst 2019 im Tiefenwasser und Sediment des Gotlandbeckens nach den Teilprozessen dieses Dominoeffektes zu forschen. Daten aus der Zeit vor der Belüftung standen zu Vergleichszwecken ebenfalls zur Verfügung.

Drei Fragen trieben sie vorrangig um: (1) Wie effektiv ist die Phosphatfällung und damit die Abnahme dieses Nährstoffs im Tiefenwasser nach einem Salzwassereinbruch? (2) Gibt es im Laufe der Tiefenwasser-Belüftung Mineralneubildungen und bleiben sie beim Wiedereinsetzen von Sauerstoffmangel stabil? (3) Lassen sich solche Minerale in älteren Ablagerungen als Indikatoren für frühere Salzwassereinbrüche nutzen? Ihre Ergebnisse haben sie vor kurzem in der Fachzeitschrift Continental Shelf Research veröffentlicht.

Innerhalb der gesamten Beobachtungszeit von mehr als 4,5 Jahren sank der Phosphat-Gehalt in der Wassersäule unterhalb einer Wassertiefe von 80 m verglichen mit den Werten vor dem Salzwassereinbruch nur um maximal 30%. Bereits 1,5 Jahre nach dem großen Belüftungsereignis 2014/2015 stellten sich wieder Bedingungen ähnlich der ursprünglichen Situation ein.
Im Gegensatz zu den Salzwassereinbrüchen in den Jahren 1960 bis 1970 führte dieser Salzwassereinbruch im Tiefenwasser zu keiner nennenswerten Bildung von Mangan-Karbonat (Rhodochrosit), einem Mineral, das in älteren Ablagerungen als Zeuge für Salzwassereinbrüche genutzt wurde.
Während Spurenmetalle wie Molybdän und Uran durch die Belüftung kurzfristig ins Wasser freigesetzt wurden, gelangten erhebliche Mengen an Kobalt in die Ablagerungen am Meeresboden.

„Wir haben in datierten Sedimenten der letzten 70 Jahre gezielt nach diesem Muster aus Kobalt-Anreicherung bei gleichzeitiger Verarmung an Molybdän und Uran gesucht und fanden bestätigt, dass es seit den 1980er Jahren immer parallel zu den Salzwassereinbrüchen auftauchte“, erläutert Olaf Dellwig, Geochemiker am IOW. Seine Kolleg:innen und er freuen sich, mit dieser Kombination an Spurenmetallen nun auch vergangene Salzwassereinbrüche identifizieren zu können, die nicht durch den unsicheren Indikator der Mangan-Karbonat-Lagen aufgezeichnet wurden. Für das Ökosystem Ostsee ist das Ergebnis weniger erfreulich: Von sporadischen Salzwassereinbrüchen ist auch in Zukunft keine nachhaltige Verkleinerung der „toten Zonen“ und keine Reduzierung des Nährstoffinventars zu erwarten.

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 93 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Olaf Dellwig | Tel.: 0381 – 5197 437 | olaf.dellwig@io-warnemuende.de
Sektion Marine Geologie, Leibniz-Institut für Ostseeforschung Warnemünde
Kontakt IOW-Presse- und Öffentlichkeitsarbeit:

Originalpublikation:
Dellwig, O., Wegwerth, A. and Arz, H.W., 2021. Anatomy of the Major Baltic Inflow in 2014: Impact of manganese and iron shuttling on phosphorus and trace metals in the Gotland Basin, Baltic Sea. Continental Shelf Research, 223: 104449. https://doi.org/10.1016/j.csr.2021.104449

(nach oben)


Vermehrte Regenfälle im Sommer verändern den Kohlenstoffkreislauf in der Arktis

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Arktische Flüsse transportieren mehr Nährstoffe und Kohlenstoff – mit potenziellen Auswirkungen auf Wasserqualität, Nahrungsketten und freiwerdende Klimagase

Arktische Flüsse werden zunehmend auch von Regen und nicht nur von Schneeschmelze gespeist. Das führt zu einer stärkeren Wechselwirkung der Gewässer mit Pflanzen und Boden – und damit zu einem stärkeren Eintrag von Nährstoffen, Kohlenstoff und anderem organischen wie anorganischen Material. Das zeigen Forschende um Joanne Heslop vom Deutschen GeoForschungsZentrum Potsdam (GFZ) und Casey Beel von der Queens University, Kingston (Kanada) in einer Studie, die im Fachmagazin Nature Communications erschienen ist. Sie haben mehr als zehn Jahre umfassende Daten über Wetterereignisse, Fließgewässer und deren biogeochemische Zusammensetzung analysiert. Potenzielle Auswirkungen betreffen einerseits Wasserqualität und Nahrungskette und andererseits die Freisetzung von Treibhausgasen wie CO2 und Methan. Somit sind die Daten wichtig für die Verbesserung von biogeochemischen und Klimamodellen.

Bedeutung arktischer Gewässer für den globalen Kohlenstoffkreislauf
Arktische Binnengewässer sind wichtige Komponenten des globalen Kohlenstoff-Kreislaufs. Sie enthalten Kohlenstoff, der beispielsweise durch mikrobielle Prozesse teilweise zu CO2 oder Methan umgewandelt und als Treibhausgas freigesetzt werden kann.

Dass und wie sich der Eintrag von Kohlenstoff und anderen organischen und anorganischen Substanzen in die Gewässer der hohen Arktis mit dem Klimawandel selbst verändert, haben Joanne Heslop, PostDoc am GFZ, und ihre kanadischen Kolleg*innen um Casey Beel von der Queens University, Kingston, am Cape Bounty Arctic Watershed Observatory auf Melville Island, Nunavut, in Kanada untersucht.

Nicht nur Schneeschmelze: häufigere Regenfälle im Spätsommer
Als hohe Arktis wird der Bereich oberhalb von 70 Grad nördlicher Breite verstanden. Diese Gegenden liegen weitab jeglicher Zivilisation, sind schlecht zugänglich und daher noch wenig intensiv untersucht. Bislang ging man davon aus, dass die dortigen Gewässer überwiegend von der Schneeschmelze gespeist werden. Im Laufe des Sommers führen die Flussläufe dann immer weniger Wasser, manche versiegen ganz. Dementsprechend fanden bislang die meisten Messkampagnen in der Schneeschmelzsaison statt.

Bei ihren Expeditionen haben Joanne Heslop und Casey Beel allerdings über die Jahre beobachtet, dass es in der Arktis immer häufiger regnet, vor allem in der späteren Sommersaison. Flussläufe werden daher nicht mehr nur überwiegend im Frühling und Frühsommer durch Schmelzwasser gespeist, sondern führen auch im weiteren Verlauf des Sommers noch Wasser aus Regenfällen. Bis zu 40 Prozent der jährlichen Flussmengen werden mittlerweile später im Jahr beobachtet. Etliche Flüsse versiegen gar nicht mehr, wie andere Arbeiten gezeigt haben.

Mehr terrestrisches Material im abfließenden Wasser
„Dadurch verändert sich die biogeochemische Zusammensetzung der Gewässer fundamental“, sagt Heslop. Der Abfluss der Schneeschmelze hat aufgrund der Schneedecke, der Kanalisierung und des gefrorenen Bodens nur eine begrenzte und sehr oberflächliche Interaktion mit der Landschaft, bevor er in den Fluss gelangt.

Die Niederschlagsereignisse treten vor allem später im Sommer auf, wenn es wärmer wird. Dann ist der Permafrostboden in Tiefen bis zu einige Dutzend Zentimeter aufgetaut, das mikrobielle Leben erwacht und es wachsen Pflanzen. Für das breit eingetragene und dann abfließende Wasser gibt es viel mehr Gelegenheit, mit der umgebenden Landschaft zu wechselwirken, bevor es die größeren Flüsse oder Seen speist. Dadurch verändern sich die Menge und die Art des mitgetragenen organischen oder anorganischen terrestrischen Materials.

Auswertung großer Datensätze über 14 Jahre
„Bislang wurde das wenig untersucht und als Effekt unterschätzt“, sagt Heslop. Für ihre Studie hat die Biogeochemikerin zusammen mit ihren Kolleg*innen hydrometeorologische und biogeochemische Daten aus dem Zeitraum von 2003 bis 2017 ausgewertet, die aus der hohen Arktis rund um das Cape Bounty Arctic Watershed Observatory stammen. Sie umfassten Temperatur- und Niederschlagsdaten, Abflussmengen, Fließenergie, Konzentrationen von Sedimenten und Nährstoffen einschließlich Kohlenstoff, sowie optische Merkmale gelöster organischer Stoffe.

In Jahren mit höheren Niederschlägen fanden die Forschenden größere Mengen an terrestrischem Material in den Flussläufen, als in vergleichsweise trockenen Jahren. Bei schwächerem Regen wurde vor allem gelöste Materie mitgeschwemmt. Je stärker der Regen, desto mehr Fließenergie in den Wasserströmen, sodass auch schwerere Steinchen und Partikel, die sich sonst am Flussbett absetzen, mitgerissen und flussabwärts transportiert werden.

Folgen
Wie sich Art und Menge des im Wasser transportierten Materials ändern, hat erhebliche Konsequenzen in zwei Bereichen: Zum einen bewirkt ein Mehr an organischen Substanzen und Nährstoffen Änderungen in der Wasserqualität sowie in der Folge auch für die Nahrungskette – von den Mikroorganismen bis zu Fischen und anderen Meerestieren, und damit auch für deren Lebensraum. Zum anderen – und das hat laut Heslop noch größere Bedeutung – beeinflussen diese Substanzen auch die Entstehung von Treibhausgasen wie CO2 und Methan: „Wenn in wärmeren Perioden frischerer Kohlenstoff und mehr Strömung vorhanden ist, besteht die Möglichkeit, dass Mikroorganismen diesen Kohlenstoff vermehrt zu Treibhausgasen verarbeiten.“

Resümee und Ausblick
Somit hat das Team durch seine Forschung den Blick nicht nur auf ein neues saisonales Zeitfenster im späteren Sommer gelenkt. „Unsere Ergebnisse werden das Verständnis dafür verbessern, wie die hydrologischen und landschaftlichen Charakteristika die Treibhausgasproduktion in der kanadischen Hocharktis beeinflussen. So gelangen wir zu wichtigen neuen Einsichten über den Kohlenstoffkreislauf in den polaren Permafrostregionen“, resümiert Heslop. Das ist vor allem vor dem Hintergrund des fortschreitenden Klimawandels bedeutsam, in dessen Folge sich Stärke, Ausmaß und Häufigkeit von Sommerregen in der Arktis weiter erhöhen werden. Der Fokus müsse künftig von den größeren Flussläufen mehr zu den kleinen Zuflüssen flussaufwärts wandern, wo die meiste Wechselwirkung zwischen Wasser und Erde stattfindet und die Effekte stärker messbar sind. Für all das brauche es auch neue Methoden und neue Forschungsansätze, so Heslop.

Joanne Heslop wird seit 2019 für drei Jahre mit einem GFZ Discovery Fellowship für Postdoktorand*innen gefördert.

Stark strömender Fluss in der Hoch-Arktis
Erhöhte Strömungsleistung in einem Fluss der Hoch-Arktis als Ergebnis eines herbstlichen Regenereignisses. Diese Niederschlagsereignisse sind wichtige, aber zu wenig beprobte und untersuchte Mechanismen zur Versorgung arktischer Flüsse mit gelöstem und partikulärem terrestrischem Material. (Foto: Scott Lamoureux, Queens University)
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11425_arctic-rainfall_Scott-Lamoureux-…

Stark strömender Fluss in der Hoch-Arktis – Schwenk
Erhöhte Strömungsleistung in einem Fluss der Hoch-Arktis als Ergebnis eines herbstlichen Regenereignisses. (Foto: Scott Lamoureux, Queens University)
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11425-mp4_arctic-rainfall_Scott-Lamour…

Wissenschaftliche Ansprechpartner:
Dr. Joanne Heslop
Sektion Geomikrobiologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28666
E-Mail: joanne.heslop@gfz-potsdam.de

Originalpublikation:
Beel, C., Heslop, J., Orwin, J., Pope, M., Schevers, A., Hung, J., Lafreniere, M., Lamoureux, S.: Emerging dominance of summer rainfall driving High Arctic terrestrial-aquatic connectivity. Nature Communications, 12, 1448 (2021). DOI: 10.1038/s41467-021-21759-3

(nach oben)


Gereinigtes und ungereinigtes Abwasser: In Modellregion (Mexiko) werden Risiken beim Einsatz auf Agrarflächen erforscht

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Julius Kühn-Institut (JKI) untersucht im Rahmen eines neu bewilligten DFG-Projektes den Einfluss der Abwasserqualität auf das Pflanzenmikrobiom und übertragbare Antibiotikaresistenzen

(Braunschweig) FOR5095 – hinter diesem unscheinbaren Kürzel, verbirgt sich ein deutsch-mexikanischer-Forschungsverbund, den die Deutsche Forschungsgemeinschaft (DFG) für die nächsten vier Jahre mit insgesamt rund 2,5 Millionen Euro fördert. Auch die Braunschweiger Mikrobiom-Forscherin Prof. Dr. Kornelia Smalla vom Julius Kühn-Institut (JKI), Bundesforschungsinstitut für Kulturpflanzen ist an FOR5095 beteiligt. Sie leitet das Teilprojekt 5 (SP 5), in dem untersucht wird, ob Antibiotikarückstände in Böden und Pflanzen das Pflanzenmikrobiom beeinflussen und so zur Anreicherung übertragbarer Antibiotika-Resistenzen beitragen.

Die sieben Partner von FOR5095 wollen am Beispiel des weltweit größten zusammenhängenden Abwasserbewässerungssystems nördlich von Mexiko-Stadt die Interaktionen von Schadstoffen, Krankheitserregern und Antibiotikaresistenz erforschen. „In dem rund 900 Quadratkilometer großen Gebiet finden wir einmalige Bedingungen vor“, erklärt Prof. Smalla vom JKI. Denn hier wurden Agrarflächen in den vergangenen 100 Jahren mit einer Mischung aus unbehandeltem Abwasser und Regenwasser bewässert. Dadurch konnten sich die Rückstände von Arznei- und Desinfektionsmitteln, Metalle und auch antibiotikaresistente Bakterien in den Böden der Felder anreichern. Inzwischen wurde im Valle Mezquital die weltweit drittgrößte Kläranlage in Betrieb genommen, die von den Partnern der DFG-Forschergruppe bereits 2013 besichtigt werden durfte. Nun gelangt das Abwasser von Mexiko-Stadt nicht mehr ungeklärt auf die Felder. Die Forschenden befürchten jedoch, dass jetzt mehr antibiotikaresistente Bakterien auf die landwirtschaftlichen Flächen und in die Nahrungskette gelangen könnten. Denn sie vermuten, dass zwar insgesamt weniger Bakterien im geklärten Abwasser enthalten sind, dafür aber multiresistente Bakterien einen Selektionsvorteil haben, wenn das behandelte Abwasser zu einer Mobilisierung der in der Vergangenheit im Boden akkumulierten Schadstoffe führt.

„Diese vermutete Selektion von Antibiotikaresistenzen und die Ausbreitung von Krankheitserregern in Agrarsystemen und ihren Transfer wollen wir untersuchen“, beschreibt Smalla den Beitrag des JKI-Teilvorhabens. Zunächst wird geprüft, ob die Umweltkonzentrationen von Schadstoffen, die aus dem Boden freigesetzt und von Pflanzen aufgenommen werden, hoch genug sind, um Antibiotikaresistenzen zu selektieren und horizontalen Gentransfer, also der Austausch von Genen zwischen verschiedenen Bakterienarten, in Böden und Pflanzen zu stimulieren. Dann soll am JKI herausgearbeitet werden, inwiefern der Bodentyp die Freisetzung von Schadstoffen und die damit verbundene Selektion von Antibiotikaresistenzen verändert. Dazu wird in Topf-Experimenten die Zusammensetzung des Mikrobioms, die Häufigkeit von Antibiotikaresistenz-Genen sowie von mobilen genetischen Elementen, die mit gramnegativen Bakterien assoziiert sind, in drei Bodentypen aus Mexiko verglichen. Alle drei Bodentypen wurden seit über 80 Jahren mit unbehandeltem Abwasser bewässert.

Hintergrundinformation zum Thema Abwassernutzung in der Landwirtschaft
Die Wiederverwendung von Abwasser für die Bewässerung landwirtschaftlicher Flächen ist eine effiziente Möglichkeit, Wasser zu sparen und die Nahrungsmittelproduktion für eine wachsende Bevölkerung unter den Bedingungen des Klimawandels zu gewährleisten. Aufgrund von Investitionen in die Infrastruktur wird in vielen Ländern dazu vermehrt behandeltes Abwasser verwendet. Kläranlagen gelten jedoch als Hotspots für die Entstehung von Antibiotikaresistenzen, und auch geklärtes Abwasser enthält meist Antibiotikarückstände, aber leider weniger organische Substanz, die diese an sich binden. Daher steht die Frage im Raum, ob der Einsatz des geklärten Abwassers nicht neue Probleme mit sich bringt.

Hintergrundinformation zum DFG-Projekt FOR5094
Sprecher der neu eingerichteten DFG-Forschungsgruppe ist Prof. Dr. Jan Siemens, der an der Justus Liebig Universität Gießen (JLU) die Professur für Bodenressourcen und Bodenschutz innehat. Neben der JLU sind die Universität Bonn, das Universitätsklinikum Bonn, die Beuth Hochschule Berlin, das Julius Kühn-Institut in Braunschweig und die Universität Tübingen an der Gruppe FOR5095 beteiligt. Das Projekt wird in Kooperation mit der Universidad Nacional Autónoma de México durchgeführt.

Wissenschaftliche Ansprechpartner:
Wissenschaftliche Ansprechpartnerin
Prof. Dr. Kornelia Smalla
Julius Kühn-Institut (JKI)
Institut für Epidemiologie und Pathogendiagnostik
Messeweg 11/12, 38104 Braunschweig
Tel. 0531 299-3814
kornelia.smalla@julius-kuehn.de

(nach oben)


Gesundheits-Check für Flüsse

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Wissenschaftler der FAU erforschen den Zusammenhang von gelöstem Sauerstoff und Wasserqualität.

Gelöster Sauerstoff ist wichtig für Gewässer. Sein kontinuierlicher Eintrag ist für im Wasser lebende Organismen notwendig – aber durch viele Faktoren gefährdet. In einer Studie, die in der hochrangigen Fachzeitschrift Earth-Science Reviews veröffentlicht* wurde, nehmen Forschende der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) und weitere Autorinnen und Autoren aus dem im Bayerischen Netzwerk für Klimaforschung geförderten Projekt AquaKlif die Rolle des gelösten Sauerstoffs in Flüssen unter die Lupe. Anhand weltweiter Messdaten zeigt die Studie: Da Flüsse die biogeochemischen Informationen ganzer Einzugsgebiete integrieren, kann ihre Sauerstoffdynamik wichtige Hinweise auf die Gesundheit der umgebenden Ökosysteme und Landschaften liefern.
Gelöster Sauerstoff ist eines der wichtigsten Elemente für den Großteil der Lebewesen im Wasser – aber gleichermaßen ein knappes Gut, da seine Löslichkeit begrenzt ist. Die Wassertemperatur, das Fließgefälle in Bächen und Flüssen und die angrenzende Landnutzung beeinflussen die Sauerstoffgehalte in Fließgewässern und deren Sedimenten. Gerade die Sedimente am Bachgrund sind für zahlreiche an und im Wasser lebende Arten ein wichtiger Lebensraum, in dem etliche Tiere das Ei- oder Larvenstadium verbringen. Die Autoren fassen die wichtigsten Quellen und Senken von gelöstem Sauerstoff in Flusssystemen zusammen und diskutieren seine Rolle in angrenzenden Seen, Stauseen, Böden und Grundwasser.

Lebensbedingungen am und um den Fluss
„Spannend waren nach der für ein Review-Paper notwendigen Literaturrecherche unsere eigenen Analysen, in denen wir mit zusammen mit Romy Wild von der TU München über 170.000 Messdaten von gelöstem Sauerstoff aus der Global River Chemistry Datenbank ausgewertet haben“, sagt Hauptautor David Piatka vom GeoZentrum der FAU. Auf weltweitem Maßstab konnte der Einfluss verschiedener Faktoren gezeigt werden, angefangen von wasserchemischen Daten über die Topographie bis hin zur Bevölkerungsdichte im Einzugsgebiet. „So erfahren wir nicht nur etwas über die Lebensbedingungen im Fluss und an seinem Ufer, sondern auch wie es an den vielen kleinen Zuflüssen und in ihrem Umfeld aussieht. Mit dieser Methode können wir sogar für das gesamte Einzugsgebiet abschätzen, wie intakt die Natur dort ist“, bringt es Doktorand David Piatka auf den Punkt. Trotz der Komplexität aller Sauerstoffproduzierenden und -umsetzenden Prozesse in Flüssen zeigte sich die Wassertemperatur als wichtigste Einflussgröße. Piatkas Fazit: „Die umfangreiche Auswertung der vorhandenen Daten lässt erwarten, dass die Klimaerwärmung allein schon aufgrund der geringeren Sauerstofflöslichkeit in wärmer werdenden Gewässern für aquatische Ökosysteme kritisch werden kann.“

Weiterentwicklung von Monitoring-Techniken
Die Forscherinnen und Forscher schlagen abschließend vor, wie das Monitoring von Flüssen – die oft als „Integratoren ganzer Landschaften“ gesehen werden – weiter verbessert werden kann: Neben hochauflösenden Konzentrationsmessungen sind bessere Kenntnisse über Verweildauer sowie Quellen und Senken des Sauerstoffs wichtig. Neuere methodische Werkzeuge wie stabile Isotope, die Analyse von Eisenumsetzungen, biologische Untersuchungen und die Messung von im Wasser gelöstem Radongas können helfen. Diese Techniken werden aktuell im AquaKlif Projekt weiterentwickelt und angewandt.

„Der Artikel bringt viele Fakten über gelösten Sauerstoff in Flüssen erstmals auf globaler und kontinentaler Basis ans Licht“, betont Prof. Johannes Barth, in dessen Arbeitsgruppe für Angewandte Geologie David Piatka promoviert. „Ebenso wichtig ist es, die Umsetzung dieses lebenswichtigen Elements im Detail zu untersuchen: Wie sehen Bilanzen in kleinen Flüssen aus, wie wird Sauerstoff in Sedimente transportiert und mit welchen Raten wird er dort umgesetzt? Das sind entscheidende Fragen für lokale Funktionsweisen von aquatischen Ökosystemen.“

Diese wassergebundenen Lebensgemeinschaften liegen auch Prof. Jürgen Geist von der Technischen Universität München am Herzen: „Die Verfügbarkeit von gelöstem Sauerstoff ist für die Lebewesen im Gewässer von entscheidender Bedeutung. Mit dem Artikel ist es gelungen einen ganzheitlichen und globalen Blick auf die Bedeutung und die Umsetzungsprozesse von Sauerstoff in Gewässern zu bekommen. Aus dem Verständnis dieser Prozesse heraus können wichtige Indikatoren für den Zustand von Gewässersystemen abgeleitet werden.“

„Unser Artikel im renommierten Journal Earth-Science Reviews ist ein gelungenes Beispiel für gemeinsame Ansätze im Verbundprojekt, das Expertise aus Geowissenschaften, Hydrologie und Biologie zusammenbringt und so innovative methodische Ansätze vorschlagen kann“ freut sich Hydrologe Prof. Dr. Stefan Peiffer von der Universität Bayreuth, der das AquaKlif-Projekt als Sprecher vertritt.

*DOI: 10.1016/j.earscirev.2021.103729

“Transfer and transformations of oxygen in rivers as catchment reflectors of continental landscapes: A review”

Informationen zum Verbundprojekt AquaKlif:
https://www.bayceer.uni-bayreuth.de/aquaklif/

Wissenschaftliche Ansprechpartner:
David Piatka und Prof. Johannes Barth
GeoZentrum Nordbayern
Lehrstuhl für Angewandte Geologie
david.piatka@fau.de, Tel. 015163391286
johannes.barth@fau.de, Tel. 01727234591

Originalpublikation:
https://doi.org/10.1016/j.earscirev.2021.103729

(nach oben)


Dicker Luft zu Leibe gerückt – Protein-Baustein hilft atmosphärisches CO2 zu binden: Verfahren aus dem Rostocker LIKAT

Regine Rachow Pressestelle
Leibniz-Institut für Katalyse
Ein neues Verfahren aus dem Rostocker Leibniz-Institut für Katalyse vermag mittels Kohlendioxid aus der Luft ohne Umwege Formiate herzustellen, einen chemischen Grundstoff. Für die Reaktion werden neben dem Katalysator lediglich Wasserstoff und die Aminosäure L-Lysin benötigt. Das ist eine von 20 essenziellen Aminosäuren, aus denen Proteine aufgebaut sind.
Mit diesem Forschungsergebnis bewegt sich die Chemie zumindest schon einmal im Labor einen weiteren Schritt weg von ihrer traditionellen fossilen Rohstoffbasis – Erdöl und Erdgas – hin zu nachhaltigen Prozessen, die Klima und Ressourcen schonen. Veröffentlicht wurde das Paper im renommierten Fachjournal CHEMICAL SCIENCE.

Formiate sind die Salze der Ameisensäure. Sie eignen sich z.B. zum Beizen, Imprägnieren, Konservieren sowie für organische Synthesen. Weltweit werden jährlich 800.000 Tonnen davon produziert.
Das geschieht bisher auf Basis von Kohlenmonoxid, denn ihre Synthese benötigt, wie die Produktion der allermeisten alltäglichen Dinge auf der Welt, Kohlenstoff. „Künftig stellt sich die dringende Frage nach neuen Kohlenstoffquellen“, erläutert Dr. Henrik Junge, Mitautor der Veröffentlichung in CHEMICAL SCIENCE, die Bedeutung des Forschungsthemas. Denn um die globale Erwärmung aufzuhalten, lernt die Weltgemeinschaft gerade, nach und nach auf fossile Roh- und Brennstoffe zu verzichten.

Klimagas als Rohstoff
Die Fachwelt diskutiert deshalb seit einiger Zeit über CO2 aus der Luft als Rohstoff. Einerseits setzt atmosphärisches Kohlendioxid mit seinem steigenden Anteil von derzeit mehr als 400 ppm dem Klima heftig zu. Andererseits ist diese Konzentration für eine direkte Verarbeitung in chemischen Prozessen viel zu gering. Und aktuell eingesetzte Verfahren für eine Anreicherung sind teuer und aufwändig.
Praktisch genutzt wird bisher lediglich die Abluft von Kraftwerken und anderen industriellen Anlagen, die konzentrierteres CO2 emittieren. Dort hält die sogenannte Aminwäsche das CO2 zurück, so dass es als Rohstoff verfügbar wird. Doch Amine sind giftig und ihr intensiver Geruch stört vor allem im Siedlungsumfeld von Biogasanlagen. Überdies sind sie als Abkömmlinge des Ammoniaks ein Produkt der erdölbasierten Chemie, die ja erklärtermaßen abgelöst werden soll.
Die Frage lautet also: Welche umweltverträglichen und weniger giftigen Stoffe eignen sich, um das Kohlendioxid zu binden? Für die CHEMICAL SCIENCE-Autoren Duo Wei, Henrik Junge und LIKAT-Direktor Matthias Beller boten sich Aminosäuren an. Henrik Junge: „Aus der Literatur wissen wir, dass Aminosäuren das CO2 hochkonzentriert in wässriger Lösung festhalten können.“

Reaktionspartner aus der Natur
Die LIKAT-Chemiker nahmen sich als Beispiel ein Protein namens RuBisCO vor, es ist das am häufigsten durch die Photosynthese produzierte Protein. Ein Bestandteil davon ist die Aminosäure L-Lysin, die wiederum CO2 für den weiteren Stoffwechsel stabilisiert, und zwar in Form kohlenstoffhaltiger Salze: Carbamante und Bicarbonate. Sie alle sind Teil katalytischer Mechanismen in der Natur, die zunehmend als Vorbild auch für chemische Reaktionen dienen.
Tatsächlich konnte das Trio Wei, Junge und Beller diesen Prozess nutzen. Sie wiesen zum einen nach, dass L-Lysin die Aminwäsche ersetzen und das CO2 effektiv binden kann. Zum anderen zeigten sie, dass sich in diesem Prozess auch im Labor Carbamate und Bicarbonate bilden. „Und wenn wir diese Stoffe hydrieren, das heißt, Wasserstoff und einen Katalysator dazugeben, gelangen wir zu Formiaten“, erläutert Henrik Junge.
So konnten sie, und darin besteht die Innovation des Verfahrens, im Labor das gewonnene Kohlendioxid gewissermaßen in einem Ritt zu einem sinnvollen, langlebigen Produkt weiterverarbeiten. Und zwar auch in äußerst dünner CO2-Konzentration aus der Luft und mithilfe der nachhaltig produzierten Ausgangsstoffen L-Lysin und Wasserstoff.

SAW-Projekt der Leibniz-Gemeinschaft
Die Forschungsarbeiten gehören zum Verbundprojekt „Supreme“, das von Forschungsgeldern der Leibniz-Gemeinschaft finanziert wird. Beteiligt sind neben dem LIKAT zwei weitere Leibniz-Institute in Greifswald (INP) und Bremen (IWT). Ziel ist es, Kohlendioxid aus der Luft zu Methanol zu hydrieren. Mit den Formiaten enden die LIKAT-Chemiker derzeit auf halben Wege, doch es ist nach den Worten von Henrik Junge ein so „ermutigendes Ergebnis“, dass CHEMICAL SCIENCE diese Geschichte auf das Cover ihrer Ausgabe nahm.

Wissenschaftliche Ansprechpartner:
Dr. Henrik Junge, Telefon: +49 (381) 1281-174, E-Mail: Henrik.Junge@catalysis.de

Originalpublikation:
DOI: 10.1039/d1sc00467k

(nach oben)


Neue Web-Plattform zur Planung der Hochwasservorsorge in Städten

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Mit SaferPlaces lassen sich – basierend auf Open-Data und Berechnungen in der Cloud – Gefahren abbilden und die Effekte von Schutz- und Vorsorgemaßnahmen abschätzen. So können Szenarien bereits in Planungssitzungen online durchgespielt und diskutiert werden.

Starkregen und Hochwasser machen zurzeit – wie schon im vergangenen Winter – Schlagzeilen. Überschwemmungen wie diese, aber auch steigende Meeresspiegel und Sturmfluten stellen – in Bezug auf die wirtschaftlichen Schäden – zusammen mit Stürmen die größte Naturgefahr dar und können auch Leib und Leben bedrohen. SaferPlaces, ein neuer Webservice zur Überflutungsvorsorge, soll Städte und Gemeinden künftig dabei unterstützen, gefährdete Bereiche zu identifizieren sowie Schutz- und Vorsorgemaßnahmen systematisch und effizient zu planen, etwa an Gebäuden, Deichen oder durch Schaffung von Versickerungsflächen. Das interaktive Online-Tool wird im Rahmen der EU-Initiative Climate-KIC unter Mitwirkung des Deutschen GeoForschungsZentrums GFZ Potsdam entwickelt und ist bereits als Prototyp abrufbar. Es stützt sich auf offene Daten und basiert auf neuen klimatischen, hydrologischen und hydraulischen, topografischen und ökonomischen Modellierungstechniken.

Mit dem fortschreitenden Klimawandel nehmen extreme Wetterereignisse zu und machen die Überflutungs- und Hochwasservorsorge auch in vielen Regionen Europas zu einer Daueraufgabe. In den dicht besiedelten Städten und Gemeinden ist das Schadenspotenzial besonders hoch. Informationen über das Ausmaß, die Häufigkeit und die Folgen von Überschwemmungen werden zu einer wesentlichen Grundlage für die Stadtplanung. Damit die Kommunen gezielt und effizient Maßnahmen zum Schutz und zur Vorsorge planen können, wurde im Rahmen des dreijährigen EU-Projektes SaferPlaces ein Web-basiertes Werkzeug hierfür entwickelt. Unter Leitung des Consulting-Unternehmens GECOSistema sind daran neben dem GFZ noch drei weitere Forschungseinrichtungen bzw. Universitäten beteiligt sowie drei weitere Unternehmen und die drei Pilot-Städte Köln (D), Rimini (Italien) und Pamplona (Spanien).

Webservice zur Online-Planung zum Hochwasserschutz
„Das Besondere an unserem System ist der Plattformgedanke“, sagt Kai Schröter, der das Projekt am GFZ leitet. „Die Auswirkungen von Maßnahmen lassen sich auf unserer Plattform unmittelbar berechnen und darstellen, von der Ausbreitung des Wassers bis hin zu den entstehenden Schäden. Entsprechende Szenarien können so beispielsweise von den multi-disziplinären Teams direkt in Planungssitzungen durchgespielt und diskutiert werden.“ In Köln haben bereits Anwenderworkshops stattgefunden mit den Stadtentwässerungsbetrieben, Hochwasserschutzbehörden und Versicherern.

Damit das so schnell und unkompliziert funktioniert, finden alle Berechnungen in der Webcloud statt: Die Nutzer*innen benötigen keine extra Software sondern nur einen Browser, über den sie die verfügbaren Daten eingeben. „Damit wollen wir explizit auch kleinere Städte und Gemeinden ansprechen und unser Werkzeug in vielen Ländern und Städten nutzbar machen“, betont Schröter.

Allgemein verfügbare Daten als Basis
Die Berechnungen basieren auf Open Data, also auf allgemein verfügbaren Datensätzen wie flächendeckende Geländehöhen, Wasserständen von Flüssen und Meer, Regenmengen und deren Häufigkeit, Durchflussmengen in Flüssen sowie den kurz- wie langfristigen Prognosen, die es bereits für die nächsten zwei bis drei Jahrzehnte hierfür gibt. Dazu kommen Informationen über die Landschafts- und Infrastruktur der jeweiligen Regionen.

Abbildung von Gefahren und Planung von Maßnahmen
Zunächst lassen sich so die Gefahren abbilden: Wo entstehen die größten Schäden? Wohin breitet sich das Wasser aus, wenn Starkregen fällt, Flüsse über die Ufer treten oder der Meeresspiegel steigt? Welche Gebäude und Infrastrukturen werden wie stark betroffen? Mit welchen Schäden ist zu rechnen?
Auf dieser Basis können dann Maßnahmen geplant werden. Sie reichen von Umbauten an bestehenden Gebäuden wie erhöhte Zugangsschwellen und abgedichtete Kellerfenster und -zugänge über neue oder verbesserte Deiche und Hochwasserschutzschilde bis hin zur Schaffung von Versickerungsflächen wie tiefliegenden Parks und Grünflächen, die notfalls wochenlang überflutet bleiben können.

Nutzerfreundlichkeit Dank vereinfachter Berechnungsansätze
Damit die Auswirkungen der Maßnahmen auf der Plattform direkt durchgespielt werden können, haben die Forschenden – im Gegensatz zu bestehender Software und Modellierungssystemen – hier explizit vereinfachte Berechnungsansätze verfolgt. Um den Rechenaufwand gering zu halten, mussten sie Algrorithmen entwickeln, die möglichst wenig Rechenkapazität benötigen.

Forschende am GFZ modellieren Schäden an der Infrastruktur
Während andere Projektpartner die Überflutungsflächen unter Berücksichtigung der natürlichen Gegebenheiten wie der Topographie, also der Form der Landschaft modelliert haben, stand im Fokus der GFZ-Forschung die Schadenmodellierung an den Gebäuden. Hierfür wurden zusätzlich Informationen über die Art der Flächennutzung, Gebäudetypen wie Einfamilienhaus oder Gewerbe, aber auch über die sozioökonomischen Eigenschaften der Einwohnerschaft wie deren Einkommensniveau berücksichtigt. „Da wir probabilistische Modelle nutzen, können wir auch die Unsicherheit beschreiben, die mit den Vorhersagen verbunden ist“, betont Schröter.

Die erste Phase des Projektes ist im Juli zu Ende gegangen. „Die drei ursprünglichen Pilotanwendungen laufen und sind schon ziemlich weit ausgereift, auch hinsichtlich der Nutzerfreudlichkeit“, resümiert Schröter. Mittlerweile sind mit Fuenlabrada und Coslada (Spanien), Mailand und Ceriva (Italien), sowie Byronbay (Australien) weitere Fallstudien hinzugekommen. Auch eine globale Anwendung für die Überflutungsberechnung ist inzwischen verfügbar.

Weitere Entwicklungen
Künftig soll eine kommerzielle Nutzung etabliert werden, beispielsweise über den Erwerb von Lizenzen.
Mitte Juli wurde SaferPlaces nach erfolgreicher Projektskizze eingeladen, sich bis Oktober mit einem Vollantrag auf Förderung aus dem EIC Accelerate programme zu bewerben. Damit unterstützt die EU Projekte darin, zur Marktreife zu gelangen.

Die Projektpartner
Zum internationalenen Konsortium unter der Leitung von GECOSistema gehören das CMCC – Euro-Mediterranean Centre on Climate Change, das Helmoltz Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ (Sektion Hydrologie), die Universität Bologna, die Technische Universität Madrid und MEEO Meteorological Environmental Earth Observation.

Die Finanzierung
Das Projekt wurde bis Juli 2021 über drei Jahre vom EIT Climate-KIC gefördert, eine Wissens- und Innovationsgemeinschaft (KIC – Knowledge and Innovation Community), die daran arbeitet, den Übergang zu einer kohlenstofffreien, klimaresistenten Gesellschaft zu beschleunigen.

Weitere Informationen finden Sie auf der Projektwebsite: http://www.saferplaces.co
Der Prototyp des Web-Service ist erreichbar unter: http://www.platform.saferplaces.co
(optimiert für Chrome bzw. Chromium Browser)

Wissenschaftliche Ansprechpartner:
Priv. Doz. Dr.-Ing. Kai Schröter
Sektion Hydrologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1525
E-Mail: kai.schroeter@gfz-potsdam.de

Weitere Informationen:
http://www.saferplaces.co (Projektwebsite)
http://platform.saferplaces.co (Prototyp des neuen Web-Service, optimiert für Chrome bzw. Chromium Browser)

(nach oben)


Ein wissenschaftlicher Test enthüllt, wie anfällig ein Mensch für Corona-Mythen ist

Christina Krätzig Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg
Eine von fünf Personen glaubt Fehlinformationen über Corona. Wer dafür besonders anfällig ist, lässt sich aus dem generellen Umgang der Person mit Informationen ableiten – und sogar vorhersagen. Das zeigt eine Studie, die unter der Leitung von Dr. Dr. Marco Meyer von der Universität Hamburg entstanden ist. Im Online-Selbsttest, der auf den Forschungsergebnissen beruht, kann jede und jeder sich selbst überprüfen.

Knapp 20 Prozent der US-Bevölkerung glaubt falsche Behauptungen über das Coronavirus wie beispielsweise, dass Händetrockner das Virus abtöten können oder dass es durch Stubenfliegen übertragen wird. Die Frage, wer besonders anfällig für solche Mythen ist, lässt sich aufgrund bisher bekannter Faktoren wie der politischen Identität, dem Bildungsgrad, der Intelligenz, der Persönlichkeit oder demografischen Faktoren kaum beantworten.

Ein Team aus Wissenschaftlern der Universität Hamburg, der Macquarie University in Australien und der Rijksuniversiteit Groningen in den Niederlanden hat nun eine Antwort gefunden. Es hat dabei einen neuen Erklärungsansatz verfolgt: den der epistemischen Laster. Die Studie wurde im Fachjournal „Episteme“ veröffentlicht.

Epistemische Laster sind Charaktereigenschaften, die den Erwerb, die Erhaltung und die Weitergabe von Wissen behindern können. Dazu gehören zum Beispiel Gleichgültigkeit gegenüber der Wahrheit oder Starrheit in Bezug auf die eigenen Glaubensgrundsätze. In der Philosophie spielt die Vorstellung der epistemischen Laster eine große Rolle. Doch bisher wurde erst selten versucht, empirische Bestätigungen für deren Bedeutung im Umgang mit Wissen zu erbringen.

„Eine Motivation zu unserer Studie war es, die Rolle epistemischer Laster bei der Bewertung von Informationen generell zu untersuchen. Dazu bietet die Corona-Pandemie eine einzigartige Gelegenheit“, erklärt Marco Meyer, der einen Doktorgrad in Philosophie und einen Doktorgrad in Wirtschaftswissenschaften hält. An der Universität Hamburg leitet er eine Nachwuchsforschungsgruppe und beschäftigt sich schwerpunktmäßig mit dem Thema Ethik.

Die Wissenschaftler haben ihre These an 998 US-Amerikanerinnen und Amerikanern überprüft. Dazu ließen sie die Teilnehmenden ihre Neigung zu epistemischen Lastern zum einen selbst einschätzen. Zum anderen führten sie eine Beobachtungsstudie durch, in der sie den Grad der epistemischen Lasterhaftigkeit mithilfe einer neu entwickelten Skala maßen. In einem dritten Schritt fragten sie die Probandinnen und Probanden gezielt nach ihrem Glauben an Mythen und Fehlinformationen über Covid-19.

„Wir haben herausgefunden, dass Menschen, die nicht auf Corona-Fehlinformationen hereinfallen, zwei Eigenschaften gemeinsam haben: Sie sind erstens neugierig und zweitens in der Lage, ihre Ansichten zu ändern, wenn sie auf vertrauenswürdige Quellen stoßen, die ihren bisherigen Annahmen widersprechen“, so Meyer.

Betrachtet man die Neigung zu epistemischen Lastern, lässt sich doppelt so gut vorhersagen, ob eine Person an Corona-Mythen glaubt als dies aufgrund von Faktoren wie der politischen Identität, dem Bildungsgrad, der Persönlichkeit oder demografischen Aspekten wie beispielswiese Alter, Geschlecht oder ethnische Zugehörigkeit möglich wäre.
Die Studie stützt also die These, dass epistemische Laster generell die Aneignung von Wissen behindern. „Aus den Erkenntnissen könnte man individuellere Ansprachen und Methoden entwickelt, wie Menschen ihre epistemische Starrheit oder Gleichgültigkeit überwinden können, zum Beispiel durch pädagogische Interventionen“, erklärt Mayer. Dies biete einen Ansatz, dem Glauben an Fehlinformation und Verschwörungsmythen langfristig entgegenzuwirken.

Bin ich epistemisch laster- oder tugendhaft? Und was sagt dies über meine Anfälligkeit für Corona- Mythen aus? Die Forschungsfragen der Wissenschaftler zum Ausprobieren und mit anschließender Auswertung (englisch) finden Sie auf den Internetseiten der Universität Hamburg unter https://www.philosophie.uni-hamburg.de/philosophisches-seminar/personen/meyer-ma…

Wissenschaftliche Ansprechpartner:
Dr. Dr. Marco Meyer
Universität Hamburg
Faculty of Humanities
Institute of Philosophy
Mail: marco.meyer@uni-hamburg.de

Originalpublikation:
https://www.cambridge.org/core/journals/episteme/article/epistemic-vice-predicts…

Anhang
Pressemitteilung als PDF

(nach oben)


Wissenschaftliche Politikberatung im Projekt MACSUR SciPol: Mit Wissenschaft gegen den Klimawandel

Hendrik Schneider Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V.
Um die Klimaziele des European Green Deals und des Pariser Klimaabkommens zu erreichen, ist es wichtig, dass Erkenntnisse der Forschung in politische Strategien einfließen. Im Projekt MACSUR SciPol planen zehn Wissenschaftseinrichtungen, eine bislang noch fehlende Schnittstelle zwischen Politik und Wissenschaft für den Sektor Landwirtschaft und Ernährung auf europäischer Ebene zu etablieren. Das Projekt steht Modell für eine institutionalisierte Form wissenschaftlicher Politikberatung. MACSUR SciPol startete im Juni 2021 unter Koordination des Leibniz-Zentrums für Agrarlandschaftsforschung (ZALF) e. V. mit einem Kickoff-Workshop und läuft als Pilotprojekt über 18 Monate.

Landwirtschaft und Nahrungsmittelsysteme sind von den Folgen des Klimawandels betroffen und setzen gleichzeitig nicht unerhebliche Mengen an Treibhausgas-emissionen frei. Im Rahmen des Pariser Abkommens und des Green Deals strebt die EU an, den Ausstoß von Treibhausgasen bis 2030 um 55 Prozent gegenüber 1990 zu reduzieren und bis 2050 Treibhausgas-Neutralität zu erreichen. Das Pilotprojekt MACSUR schafft ein Forum, das politische Akteure mit wissenschaftlicher Expertise dabei unterstützen wird, diese Klimaziele und wirksame Maßnahmen für den Umgang mit dem Klimawandel im europäischen Agrar- und Ernährungssektor umzusetzen. Das übergeordnete Ziel von MACSUR SciPol ist es, ein Verfahren zur wissenschaftsbasierten Beantwortung politischer Fragen zu etablieren.

Prof. Katharina Helming, Projektleiterin von MACSUR SciPol am Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e. V., verdeutlichte im Kickoff-Workshop Ende Juni den besonderen Ansatz des Vorhabens: „Wir haben beobachtet, dass selbst exzellente Forschung nicht immer den Transfer in die Politik schafft. Diese Lücke schließt das Projekt, indem es einen anderen Weg beschreitet. MACSUR SciPol greift gezielt Fragestellungen aus der Politik zu Klimaschutz und Klimawandel in der Landwirtschaft auf und liefert dazu passende wissenschaftliche Antworten. Wir warten also nicht, bis Politik mit Fragen an uns als Wissenschaft herantritt, sondern holen uns die Fragen gezielt aus dem Politikbetrieb der beteiligten Länder. So entwickeln wir passgenaue wissenschaftliche Beratungsansätze.“

MACSUR SciPol ist aus dem Netzwerk MACSUR der Joint Programming Initiative for Agriculture, Food Security and Climate Change (FACCE-JPI) des Rats der Europäischen Union und beteiligter Mitgliedsländer hervorgegangen.

Politische Fragen beantworten
Die Besonderheit des Forschungsprojekts liegt in einer engen Zusammenarbeit der Forschung mit der Politik. Den Ausgangspunkt bilden konkrete Schlüsselfragen, die von europäischen Politikvertreterinnen und -vertretern zu Landwirtschaft, Ernährung und Klimawandel aus jeweils landesspezifischer Perspektive gestellt wurden. Dieser Fragenkatalog ist in drei Themenbereiche unterteilt. Der erste Themenkomplex befasst sich mit Fragen des Klimaschutzes, also Strategien für die Reduktion von Emissionen durch Landwirtschaft, Nutztierhaltung und auf Ebene der Verbraucher, sowie die Bindung von Kohlenstoff. Der zweite Themenkomplex deckt Anpassungsstrategien an die Folgen des Klimawandels ab. Im dritten Themenbereich werden die möglichen Auswirkungen der empfohlenen Strategien zum Klimaschutz und zur Klimaanpassung unter anderem auf Mensch und Tier, Ökosysteme und Biodiversität, soziale Gerechtigkeit und Ernährungssicherheit diskutiert.

Modellbasiertes Wissen und interdisziplinäre Zusammenarbeit
Um konkrete Antworten auf diese Fragen zu liefern, greift MACSUR SciPol auf Forschungserkenntnisse zurück, die aus wissenschaftlichen Modellen generiert werden. Modelle ermöglichen es, zukünftige Erträge unter Einfluss des Klimawandels abzuschätzen oder Treibhausgasemissionen zu kalkulieren, die in Landwirtschaft und Nahrungsmittelerzeugung bis zum Verbraucher entstehen. „Was modellgeneriertes Wissen angeht, kann das Projekt auf die gebündelten Modellierungskompetenzen aus dem Netzwerk MACSUR und der FACCE JPI zurückgreifen“, betont Prof. Frank Ewert, Wissenschaftlicher Direktor des ZALF und derzeitiger Vorsitzender des Wissenschaftlichen Beirats von FACCE JPI im Kickoff-Workshop von MACSUR SciPol im Juni.

Das Projekt verfolgt einen transdisziplinären, partizipativen Ansatz. Um politische Entscheidungsfindung zu unterstützen, werden zusätzlich zu der engen Kooperation zwischen Forschung und Politik auch Vertreterinnen und Vertreter aus Landwirtschaft, Zivilgesellschaft und Naturschutz in Multi-Stakeholder-Dialoge einbezogen. Das wissenschaftliche Netzwerk des Projekts besteht derzeit aus Projektpartnern verschiedener Fachrichtungen aus acht europäischen Ländern. Die Global Research Alliance on Agricultural Greenhouse Gases unterstützt das Projekt und tritt als Beobachterorganisation für MACSUR SciPol auf.

Projektpartner:
– Koordination: Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V., Deutschland
– Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei, Deutschland
– Universität Aarhus, Dänemark
– Institute of Agricultural Economics, Ungarn
– The Irish Agriculture and Food Development Authority, (Teagasc), Irland
– Universität Florenz, Italien
– Universität Birmingham, Großbritannien
– Queens University Belfast, Nordirland
– Stichting Wageningen Research, Niederlande
– Universität für Bodenkultur Wien, Österreich

Netzwerkpartner:
– Institute for Rural and Regional Research, Norwegen
– Agricultural Research And Development Station, Rumänien
– Facultad de Ciencias Agropecuarias, Universität Córdoba, Argentinien
– French National Research Institute for Agriculture, Food and Environment, Frankreich
– Österreichisches Institut für Wirtschaftsforschung, Österreich

Förderhinweis:
Bundesanstalt für Landwirtschaft und Ernährung (Deutschland), Universität Aarhus (Dänemark), Research Institute of Agricultural Economics (Ungarn), Department of Agriculture, Food and the Marine (Irland), Ministry of Agricultural, Food and Forestry Policies (Italien), Department for Environment Food and Rural Affairs (Großbritannien), Ministry of Agriculture, Nature and Food Quality (Niederlande), Bundesministerium für Landwirtschaft, Regionen und Tourismus (Österreich), Research Council of Norway (Norwegen), French National Research Institute for Agriculture, Food and Environment (Frankreich), Global Research Alliance (Sekretariat beim New Zealand Ministry for Primary Industries, Neuseeland)

Wissenschaftliche Ansprechpartner:
Prof. Katharina Helming
Programmbereich 3 „Agrarlandschaftssysteme“
khelming@zalf.de

Originalpublikation:
https://www.zalf.de/de/aktuelles/Seiten/Pressemitteilungen/Politikberatung-Klima…

Weitere Informationen:
https://www.faccejpi.net/en/FACCEJPI/FACCE-JPI/Actions/Core-Theme-1/Knowledge-Hu… Webseite MACSUR SciPol
https://www.faccejpi.net/en/FACCEJPI/FACCE-JPI/About.htm Webseite FACCE JPI
https://twitter.com/FScipol MACSUR SciPol auf Twitter

(nach oben)


Pärchenbeziehung ist meist von Vorteil für Bakterien: Ökologen der Uni Osnabrück untersuchen Teamwork in der Natur

Dr. Oliver Schmidt Stabsstelle Kommunikation und Marketing
Universität Osnabrück
Indem sie eine Symbiose mit einem anderen Organismus eingehen, können Bakterien neue Nahrungsressourcen nutzen. Durch diese Pärchenbildungsstrategie vergrößern sie zumeist auch ihren Lebensraum. Zu diesem Ergebnis kommt die Arbeitsgruppe um Prof. Dr. Christian Kost vom Fachbereich Biologie/Chemie der Uni Osnabrück. Sein Team hatte die Bedeutung partnerschaftlicher Wechselbeziehungen für das Nahrungsmanagement am Beispiel von fünf verschiedenen Bakterienarten untersucht. Die Studie ist unter dem Titel „Obligate cross-feeding expands the metabolic niche of bacteria“ in dem wissenschaftlichen Fachjournal Nature Ecology & Evolution erschienen: https://www.nature.com/articles/s41559-021-01505-0

„In der Natur sehen wir, dass Bakterien oft auf andere Bakterienstämme angewiesen sind, diese mit ihren lebensnotwendigen Nährstoffen zu versorgen. Solche sogenannten ‚Mutualismen‘ sind partnerschaftliche Wechselbeziehungen zwischen Bakterien, aus denen beide Interaktionspartner einen positiven Nutzen ziehen“, erklärt Prof. Kost. Da beide Bakterienstämme oft über unterschiedliche Nahrungspräferenzen verfügen würden, stellte sich die Frage, ob Paare zweier voneinander abhängiger Bakterienstämme mehr oder weniger Nährstoffressourcen nutzen können als die beiden Bakterienstämme alleine.

Zusammen mit Kollegen der Universität Gießen erzeugte Kosts Team unter kontrollierten Laborbedingungen Bakterienstämme, die einen bestimmten Nährstoff nicht mehr selbst herstellen konnten. Weiterwachsen konnten diese Stämme nur, wenn sie den benötigen Nährstoff von einem zweiten Bakterienstamm bekamen. Die Paare wurden in verschiedenen Nährmedien kultiviert, die je eine unterschiedliche Nahrungsressource enthielten. Durch Analyse des Wachstums der Bakterienstämme untersuchten die Ökologen dann, ob eine solche partnerschaftliche Beziehung die Zahl der nutzbaren Nahrungsressourcen eher vergrößerte oder verkleinerte.

„Unter diesen im Labor erzeugten Bedingungen konnten wir beobachten, dass die Ko-Kultur zweier voneinander abhängiger Bakterienstämme ihren gemeinsamen Lebensraum meist erweiterte“, berichtet Prof. Kost. So brachte der Mutualismus den Bakterienpaaren einen echten Überlebensvorteil.

Im Detail stellte das Forschungsteam fest, dass weiter entfernt verwandte Bakterienarten ihren Nischenraum als Paar deutlich mehr erweitern konnten als artverwandte Paare. Auch Stämme, die sich auf die Nutzung weniger Nahrungsressourcen spezialisiert hatten, konnten sich durch die sogenannte „mutualistische Interaktion“ neue Nahrungsquellen erschließen. Im Gegensatz dazu verkleinerte der Mutualismus den Nischenraum von Generalisten-Bakterien, so das Studienergebnis. Vereinfacht gesagt: Paare aus der Kategorie „Gleich und gleich“ sowie besonders unwählerische Individuen erhielten durch das Pärchendasein keinen nennenswerten Vorteil, wohingegen gegensätzliche Paare und Spezialisten gemeinsam wachsen konnten.

„Unsere Forschung hilft zu verstehen, wie sich Symbiosen und mutualistische Interaktionen auf die beteiligten Partner auswirken. Diese Art von Wechselbeziehung ist weit in der Natur verbreitet und betrifft nicht nur Bakterien, sondern beispielsweise auch Pflanzen und ihre Bestäuber oder Stickstoff-fixierende Bakterien und Pilze im Wurzelbereich. Unsere Arbeit identifiziert ‚Teamwork‘ in der Natur als wichtige Strategie, mit der Organismen ihre Fähigkeiten deutlich erweitern können“, resümiert Prof. Dr. Christian Kost von der Universität Osnabrück.
Zur Veröffentlichung: https://www.nature.com/articles/s41559-021-01505-0 

Contact:
Prof. Dr. Christian Kost
Osnabrueck University, Department of Ecology
christian.kost@uni-osnabrueck.de
+49 541 969-2853
https://www.kostlab.com

(nach oben)


Gereinigtes und ungereinigtes Abwasser: In Modellregion (Mexiko) werden Risiken beim Einsatz auf Agrarflächen erforscht

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Julius Kühn-Institut (JKI) untersucht im Rahmen eines neu bewilligten DFG-Projektes den Einfluss der Abwasserqualität auf das Pflanzenmikrobiom und übertragbare Antibiotikaresistenzen

(Braunschweig) FOR5095 – hinter diesem unscheinbaren Kürzel, verbirgt sich ein deutsch-mexikanischer-Forschungsverbund, den die Deutsche Forschungsgemeinschaft (DFG) für die nächsten vier Jahre mit insgesamt rund 2,5 Millionen Euro fördert. Auch die Braunschweiger Mikrobiom-Forscherin Prof. Dr. Kornelia Smalla vom Julius Kühn-Institut (JKI), Bundesforschungsinstitut für Kulturpflanzen ist an FOR5095 beteiligt. Sie leitet das Teilprojekt 5 (SP 5), in dem untersucht wird, ob Antibiotikarückstände in Böden und Pflanzen das Pflanzenmikrobiom beeinflussen und so zur Anreicherung übertragbarer Antibiotika-Resistenzen beitragen.

Die sieben Partner von FOR5095 wollen am Beispiel des weltweit größten zusammenhängenden Abwasserbewässerungssystems nördlich von Mexiko-Stadt die Interaktionen von Schadstoffen, Krankheitserregern und Antibiotikaresistenz erforschen. „In dem rund 900 Quadratkilometer großen Gebiet finden wir einmalige Bedingungen vor“, erklärt Prof. Smalla vom JKI. Denn hier wurden Agrarflächen in den vergangenen 100 Jahren mit einer Mischung aus unbehandeltem Abwasser und Regenwasser bewässert. Dadurch konnten sich die Rückstände von Arznei- und Desinfektionsmitteln, Metalle und auch antibiotikaresistente Bakterien in den Böden der Felder anreichern. Inzwischen wurde im Valle Mezquital die weltweit drittgrößte Kläranlage in Betrieb genommen, die von den Partnern der DFG-Forschergruppe bereits 2013 besichtigt werden durfte. Nun gelangt das Abwasser von Mexiko-Stadt nicht mehr ungeklärt auf die Felder. Die Forschenden befürchten jedoch, dass jetzt mehr antibiotikaresistente Bakterien auf die landwirtschaftlichen Flächen und in die Nahrungskette gelangen könnten. Denn sie vermuten, dass zwar insgesamt weniger Bakterien im geklärten Abwasser enthalten sind, dafür aber multiresistente Bakterien einen Selektionsvorteil haben, wenn das behandelte Abwasser zu einer Mobilisierung der in der Vergangenheit im Boden akkumulierten Schadstoffe führt.

„Diese vermutete Selektion von Antibiotikaresistenzen und die Ausbreitung von Krankheitserregern in Agrarsystemen und ihren Transfer wollen wir untersuchen“, beschreibt Smalla den Beitrag des JKI-Teilvorhabens. Zunächst wird geprüft, ob die Umweltkonzentrationen von Schadstoffen, die aus dem Boden freigesetzt und von Pflanzen aufgenommen werden, hoch genug sind, um Antibiotikaresistenzen zu selektieren und horizontalen Gentransfer, also der Austausch von Genen zwischen verschiedenen Bakterienarten, in Böden und Pflanzen zu stimulieren. Dann soll am JKI herausgearbeitet werden, inwiefern der Bodentyp die Freisetzung von Schadstoffen und die damit verbundene Selektion von Antibiotikaresistenzen verändert. Dazu wird in Topf-Experimenten die Zusammensetzung des Mikrobioms, die Häufigkeit von Antibiotikaresistenz-Genen sowie von mobilen genetischen Elementen, die mit gramnegativen Bakterien assoziiert sind, in drei Bodentypen aus Mexiko verglichen. Alle drei Bodentypen wurden seit über 80 Jahren mit unbehandeltem Abwasser bewässert.

Hintergrundinformation zum Thema Abwassernutzung in der Landwirtschaft
Die Wiederverwendung von Abwasser für die Bewässerung landwirtschaftlicher Flächen ist eine effiziente Möglichkeit, Wasser zu sparen und die Nahrungsmittelproduktion für eine wachsende Bevölkerung unter den Bedingungen des Klimawandels zu gewährleisten. Aufgrund von Investitionen in die Infrastruktur wird in vielen Ländern dazu vermehrt behandeltes Abwasser verwendet. Kläranlagen gelten jedoch als Hotspots für die Entstehung von Antibiotikaresistenzen, und auch geklärtes Abwasser enthält meist Antibiotikarückstände, aber leider weniger organische Substanz, die diese an sich binden. Daher steht die Frage im Raum, ob der Einsatz des geklärten Abwassers nicht neue Probleme mit sich bringt.

Hintergrundinformation zum DFG-Projekt FOR5094
Sprecher der neu eingerichteten DFG-Forschungsgruppe ist Prof. Dr. Jan Siemens, der an der Justus Liebig Universität Gießen (JLU) die Professur für Bodenressourcen und Bodenschutz innehat. Neben der JLU sind die Universität Bonn, das Universitätsklinikum Bonn, die Beuth Hochschule Berlin, das Julius Kühn-Institut in Braunschweig und die Universität Tübingen an der Gruppe FOR5095 beteiligt. Das Projekt wird in Kooperation mit der Universidad Nacional Autónoma de México durchgeführt.

Wissenschaftliche Ansprechpartner:
Wissenschaftliche Ansprechpartnerin
Prof. Dr. Kornelia Smalla
Julius Kühn-Institut (JKI)
Institut für Epidemiologie und Pathogendiagnostik
Messeweg 11/12, 38104 Braunschweig
Tel. 0531 299-3814
kornelia.smalla@julius-kuehn.de

(nach oben)


Ganz nach Plan

Claudia Eulitz Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Kieler Forschungsteam entwickelt selektiven Katalysator für gezielte chemische Reaktionen

Der Zufall spielt in chemischen Reaktionen oft eine große Rolle. Fast immer entstehen dabei zahlreiche unerwünschte Nebenprodukte, die unnötig Energie und Ressourcen verbrauchen. Ein Forschungsteam um Professorin Swetlana Schauermann vom Institut für Physikalische Chemie der Christian-Albrechts-Universität zu Kiel (CAU) kombiniert verschiedene Messverfahren, um chemische Reaktionen auf atomarer Ebene zu untersuchen und so grundlegend besser zu verstehen. In der renommierten Fachzeitschrift Angewandte Chemie haben sie jetzt eine Methode vorgestellt, mit der sich Reaktionen so gestalten lassen, dass am Ende nur das gewünschte Molekül entsteht. Den Unterschied macht eine spezielle Extraschicht von Molekülen, die als Katalysator die gewünschte Reaktion gezielt auslöst.

Was genau dazu führt, dass am Ende einer chemischen Reaktion ein bestimmter neuer Stoff entsteht, ist im Einzelnen nicht bekannt. Die Synthese von neuen Molekülen läuft häufig nach dem „trial and error“-Prinzip ab: Wissenschaftlerinnen und Wissenschaftler müssen oft zahlreiche Tests durchführen, bis sie das gewünschte Ergebnis erhalten. Das Kieler Forschungsteam verfolgt einen anderen Ansatz und kombinierte dafür spezielle spektroskopische und mikroskopische Methoden. „Wir wollen zunächst die Prozesse auf atomarer Ebene verstehen, um anschließend selektive Katalysatoren entwickeln zu können, mit denen sich chemische Produkte gezielt herstellen lassen“, sagt Swetlana Schauermann, Professorin für Oberflächenchemie und Katalyse an der CAU.

Aufgrund seiner bisherigen Untersuchungen nahm das Team an, dass eine zusätzliche Molekülschicht auf Oberflächen eine gezielte Reaktion auslösen kann. Dafür untersuchten sie, wie aus Acrolein mithilfe eines Palladium-Katalysators gezielt Propenol hergestellt werden kann, wenn die Oberfläche des Metalls vorab mit Allylcyanid beschichtet wurde. Normalerweise kann durch eine Reaktion mit Wasserstoff, auch Hydrierung genannt, entweder Propenol (Alkohol) oder Propanal (Aldehyd) entstehen. „Als Molekül für die zusätzliche Schicht haben wir Allylcyanid gewählt, weil es eine spezielle elektronische Struktur und einer hohen Elektronendichte besitzt. Aufgrund seiner Eigenschaften kann es sehr gut mit reagierenden Molekülen in Wechselwirkungen treten“, erklärt Carsten Schröder, Doktorand in der Arbeitsgruppe von Schauermann und Erstautor der Studie. Außerdem spielt es in zahlreichen Industriezweigen eine Rolle, in denen mit organischen Synthesen gearbeitet wird.

Für seine Experimente beschichtete das Forschungsteam zunächst reines Palladiummetall mit Allylcyanid. Im Rastertunnelmikroskop konnten sie eine Schicht im Detail sichtbar machen und zeigen, dass die drei Kohlenstoffatome des Allyls flach auf den Metallatomen lagen. Als sie die Oberfläche anschließend Wasserstoff aussetzten, begann eine chemische Umwandlung und die flache Schicht veränderte sich. Im Rastertunnelmikroskop zeigten sich jetzt deutlich kürzere Abstände zwischen den Allylcyanid-Molekülen.

„Durch eine Kombination unserer spektroskopischen und mikroskopischen Analysemethoden fanden wir heraus, was passiert war: Der Wasserstoff hatte sich an das Allylcyanid-Molekül gebunden und es in einen gesättigten Kohlenwasserstoff mit einer sogenannten Iminfunktion umgewandelt“, sagt Schröder. Die Molekülenden mit dem gesättigten Kohlenwasserstoffrest verloren den Kontakt zu den Palladiumatomen, wodurch sich die Moleküle aufrichteten und so eine dichtere Schicht auf der Oberfläche bildeten. Hierauf konnte das Acrolein jetzt positionsgenau andocken und so den Hydrierungsprozess auslösen, der zur Entstehung von Propenol führt.

In dieser Art ist es zum ersten Mal gelungen, einen Katalysator mit einer zusätzlichen Molekülschicht zu aktivieren und auf atomarer Ebene zu untersuchen. „Ein detailliertes Verständnis solcher Prozesse könnte das Forschungsgebiet zu Katalysatoren rasant weiterentwickeln“, hofft Schauermann. Überflüssige Reaktionsprodukte zu entfernen und zu entsorgen, ist bislang mit viel Aufwand verbunden. „Wenn wir in der Lage sind, einzelne Moleküle gezielt herzustellen, können wir Energie, Kosten und Ressourcen sparen und zum Beispiel zu umweltfreundlicheren Prozessen beitragen.“

Bildmaterial steht zum Download bereit:
http://www.uni-kiel.de/de/pressemitteilungen/2021/162-Katalysator-1.jpg
Bildunterschrift: Mit hochpräzisen Messmethoden will das Forschungsteam um Professorin Swetlana Schauermann (von rechts), Carsten Schröder und Marvin Schmidt chemische Reaktionen auf atomarer Ebene verstehen, um sie zielgerichtet ablaufen zu lassen.

http://www.uni-kiel.de/de/pressemitteilungen/2021/162-Katalysator-2.jpg
Bildunterschrift: An der Infrarotspektroskopieanlage stellt Doktorand Carsten Schröder den Druck der Acrolein-Moleküle ein, um die chemische Reaktion zu starten.

http://www.uni-kiel.de/de/pressemitteilungen/2021/162-Katalysator-3.jpg
Bildunterschrift: Doktorand Marvin Schmidt führt Proben des Katalysatormetalls ins Rastertunnelmikroskop ein, um atomare Veränderungen auf der Oberfläche zu untersuchen.

http://www.uni-kiel.de/de/pressemitteilungen/2021/162-Katalysator-4.jpg
Bildunterschrift: Unter dem Rastertunnelmikroskop können die Chemikerinnen und Chemiker sehen, wie sich die Moleküle auf der Oberfläche ihres Katalysatormetalls im nicht-reaktiven Zustand (a) und unter reaktiven Bedingungen (b) unterscheiden. Das Modell zeigt, wie sich die chemische Zusammensetzung der Ligandenlage unter reaktiven Bedingungen verändert und so die Entstehung von Propenol begünstigt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. rer. nat. Swetlana Schauermann
Institut für Physikalische Chemie
Tel.: +49 431 880-2831
E-Mail: schauermann@pctc.uni-kiel.de
http://www.schauermann.phc.uni-kiel.de

Originalpublikation:
Understanding Ligand-Directed Heterogeneous Catalysis: When the Dynamically Changing Nature of the Ligand Layer Controls the Hydrogenation Selectivity, Carsten Schröder, Marvin C. Schmidt, Philipp A. Haugg, Ann-Katrin Baumann, Jan Smyczek, Swetlana Schauermann, Angew. Chem. Int. Ed. 2021, 60, https://doi.org/10.1002/anie.202103960

Weitere Informationen:
https://onlinelibrary.wiley.com/page/journal/15213773/homepage/press/202120press… – Pressemitteilung der Zeitschrift Angewandte Chemie (Englisch)
http://www.uni-kiel.de/de/detailansicht/news/162-katalysator – Link zur Meldung
http://www.kinsis.uni-kiel.de – Website Forschungsschwerpunkt KiNSIS (Kiel Nano, Surface and Interface Science – KiNSIS) der CAU

(nach oben)


25.000 Jahre altes menschliches Umweltgenom wiederhergestellt

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Uralte Sedimente aus Höhlen können DNA über Jahrtausende konservieren. Deren Analyse wird allerdings dadurch erschwert, dass meist nur wenige Sequenzen aus den Sedimenten gewonnen werden können. Ron Pinhasi und Pere Gelabert haben nun in einer Studie der Universität Wien drei Säugetier-Umweltgenome aus einer einzigen 25.000 Jahre alten Bodenprobe der Satsurblia-Höhle im Kaukasus (Georgien) gewonnen. Die Studie erscheint in Current Biology.

Die Satsurblia-Höhle wurde von Menschen zu unterschiedlichen Zeiten im Paläolithikum bewohnt: Bisher konnte an diesem Fundort bereits ein 15.000 Jahre altes Genom eines menschlichen Individuums sequenziert werden. In den älteren Schichten der Höhle wurden keine weiteren menschlichen Überreste entdeckt.

Innovativer Ansatz ermöglicht DNA-Bestimmung in Umweltproben
Ron Pinhasi und Pere Gelabert haben mit einem internationalen Team gemeinsam mit Susanna Sawyer von der Universität Wien und in Zusammenarbeit mit Pontus Skoglund und Anders Bergström vom Francis Crick Institute in London einen innovativen Ansatz angewendet. Dieser ermöglicht eine DNA-Bestimmung in Umweltproben mit Hilfe aufwändiger Sequenzierungsmethoden und Datenanalyseressourcen. Dadurch konnte ein menschliches Umweltgenom der BIII-Höhlenschicht wiedergewonnen werden, das ca. 25.000 Jahre alt ist und damit vor der Eiszeit datiert wird.

Durch diesen neuen Ansatz konnte bewiesen werden, dass ein menschliches Umweltgenom ohne Skelettüberreste wiedergewonnen werden kann. Die Analyse des genetischen Materials ergab, dass das menschliche Umweltgenom SAT29 eine alte menschliche Abstammungslinie darstellt, die sich teilweise in der heutigen west-eurasischen Bevölkerung fortsetzt. Um diese Ergebnisse zu bestätigen, stellten die Wissenschafter*innen einen Vergleich zwischen dem wiedergewonnenen Genom und den genetischen Sequenzen aus Knochenüberresten der nahegelegenen Dzudzuana-Höhle an. Dieser lieferte den eindeutigen Beweis für die genetische Ähnlichkeit. Somit ist auch die Möglichkeit einer späteren Kontamination der Proben in der Gegenwart ausgeschlossen.

Vergangene Ökosysteme rekonstruieren
Neben dem identifizierten menschlichen Genom konnten noch weitere Genome aus den Umweltproben wiedergewonnen werden, die vom Wolf oder Bison stammen. Die Sequenzen wurden zur Rekonstruktion der Populationsgeschichte von Wolf und Bison im Kaukasus herangezogen und tragen damit zum besseren Verständnis der Populationsdynamik dieser Tierarten bei. Die Forscher*innen planen nun die Durchführung weiterer Analysen der Bodenproben aus der Satsurbia-Höhle, um Erkenntnisse zu den Interaktionen zwischen alte Fauna und Menschen, sowie Auswirkungen der Klimaveränderungen auf Säugetierpopulationen zu gewinnen. Durch die Möglichkeit der DNA-Gewinnung aus Bodenproben kann die Evolution ganzer vergangener Ökosysteme rekonstruiert werden.

Publikation in Current Biology:
Gelabert et al. 2021. Genome-scale sequencing and analysis of human, wolf and bison DNA from 25,000 year-old sediment. Current Biology. DOI:

Wissenschaftliche Ansprechpartner:
Ron Pinhasi, PhD
Department für Evolutionäre Anthropologie
Universität Wien
1090 – Wien, Althanstraße 14 (UZA I)
+43-1-4277-547 21
+43-664-60277-547 21
ron.pinhasi@univie.ac.at

Originalpublikation:
Publikation in Current Biology:
Gelabert et al. 2021. Genome-scale sequencing and analysis of human, wolf and bison DNA from 25,000 year-old sediment. Current Biology. DOI: 10.1016/j.cub.2021.06.023

(nach oben)


Bohnen nur gegart genießen

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Mehr Meldungen zu gesundheitlichen Beeinträchtigungen nach dem Verzehr von grünen Bohnen

Im Jahr 2020 erhielten die Giftinformationszentren auffällig viele Anfragen zu Beschwerden nach Verspeisen von grünen Bohnen. Die pandemiebedingte Veränderung des Essverhaltens in Privathaushalten könnte mit dazu beigetragen haben. So deuten verschiedene Studien darauf hin, dass Menschen in Deutschland mehr Gemüse konsumieren und öfter selbst kochen als vor der Pandemie. „Im Gegensatz zu vielen anderen Gemüsearten dürfen Bohnen nicht roh verzehrt werden“, sagt Professor Dr. Dr. Andreas Hensel, Präsident des Bundesinstituts für Risikobewertung (BfR). „Rohe Bohnen enthalten Phasin. Das Protein kann für den Menschen schon in minimalen Dosen gesundheitsschädlich sein und wird erst durch hohe Temperaturen zerstört.“ Auch die Kommission „Bewertung von Vergiftungen“ des BfR rät deshalb zu besonderer Vorsicht. Schonende Garmethoden, wie sanftes Dünsten oder Dämpfen, eignen sich nicht für Bohnen. Ausreichend erhitzt sind Hülsenfrüchte aber gut bekömmlich. Sie enthalten viele wertvolle Inhaltsstoffe.

Link zur BfR-App „Vergiftungsunfälle bei Kindern“:
https://www.bfr.bund.de/de/apps_vergiftungsunfaelle.html

In der modernen Küche wird häufig nur schonend gegart – dadurch bleibt das Gemüse knackig und weniger Vitamine gehen verloren. Bei einigen Gemüsearten, wie zum Beispiel Gartenbohnen, sollte bei der Zubereitung jedoch unbedingt auf eine ausreichende Erhitzung und Garzeit geachtet werden. Die Samen und Hülsen der grünen Gartenbohne enthalten das Protein Phasin, das zur Gruppe der Lektine gehört. Auch in anderen Bohnenarten kommen solche Lektine vor. Phasin kann ¬Magen-Darm-Störungen verursachen.

Nach dem Verzehr weniger roher Samen treten häufig Bauchschmerzen und Übelkeit auf. In schweren Fällen kann es zu blutigen Durchfällen, Fieber und Blutdruckabfall kommen. Die Symptome beginnen meist zwei bis drei Stunden nach Konsum der Samen. Ob Symptome auftreten und wie stark diese ausgeprägt sind, ist individuell sehr unterschiedlich. Kinder sind aufgrund ihres geringen Körpergewichts besonders gefährdet.

Wenn versehentlich rohe Bohnen gegessen wurden oder nach einer unzureichenden Garung Symptome auftreten, empfiehlt das BfR, umgehend ein Giftinformationszentrum anzurufen. Kontaktdaten und weitere Informationen zu giftigen Pflanzen gibt es in der BfR-App „Vergiftungsunfälle bei Kindern“.

Wer Bohnen im eigenen Garten anbaut, sollte Kinder über die Gefahr aufklären oder sicherstellen, dass sie keinen unbeaufsichtigten Zugang zu den Pflanzen haben. Vorsicht auch mit Samentütchen zur Aussaat: Die teilweise bunt marmorierten Bohnensamen können auf Kinder einen besonderen Reiz ausüben.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Corona macht uns müde

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Der Verlauf einer Pandemie in einem Land wird wesentlich von sozialen, politischen und psychologischen Prozessen bestimmt. Diese soziale Dynamik erschien bis heute als kaum prognostizierbar, und machte es unmöglich, einen Pandemieverlauf vorherzusagen. Denn die meisten vorliegenden Simulationsmodelle sind nur wenige Wochen belastbar, da sie soziale Prozesse statisch oder zu linear abbilden. Hier setzt eine neue Studie des Helmholtz-Zentrums Hereon von Prof. Kai Wirtz an. Sie ist jetzt im Fachjournal Scientific Reports erschienen.

Jede Pandemie wirkt auf das Leben und Handeln der Menschen, und dies steuert wiederum den Pandemieverlauf. Die bestimmenden sozialen, politischen und psychologischen Faktoren konnten bislang nicht durch mathematische Modelle beschrieben werden, was Prognosen der Coronapandemie schwierig machte. Dem will die neue Studie abhelfen. Der Forscher Kai Wirtz vom Hereon-Institut für Küstensysteme – Analyse und Modellierung hat dort vor allem die sozialen Phänomene und deren Veränderung in quantitativer Form beschrieben. Das entspricht Bestrebungen der Helmholtz-Gemeinschaft, wonach alle Disziplinen angehalten sind, die Forschung zur Pandemie voranzutreiben. „Soziale Modellierung treibt mich als Wissenschaftler schon länger um. Sie ist vor kurzem auch in der Küstenforschung angekommen. Die größte Herausforderung bei dieser Entwicklung war die Einbindung des menschlichen Handelns in konventionelle epidemiologische Modelle“, so Wirtz.

Wie Corona die Menschen verändert
Für die neue Studie nutzt Wirtz die Einmaligkeit der globalen Coronapandemie. Sie geht mit einer nie da gewesenen Datenerhebung einher, wie er betont. Die Studie nutzt einen Teil dieser Datensätze – sie kommen vor allem von Apple, John Hopkins CSSE und YouGov – um ein neuartiges Modell anhand der unterschiedlichen Pandemieverläufe von 20 betroffenen Regionen quantitativ zu testen. Die Regionen entsprechen elf EU-Ländern, darunter Italien, Scheden und Deutschland, dem Iran und acht Bundesstaaten in den USA.

Allen Ländern, die Anfang 2020 von der Pandemie betroffen waren, gelang es, die Infektionsraten durch Maßnahmen wie soziale Distanzierung zu reduzieren. Nachdem im Mai 2020 die Lockdowns aufgehoben wurden, erreichten einige Regionen sehr niedrige Fallzahlen, während andere von einer anhaltend hohen Sterblichkeit betroffen waren. Später, im Herbst und Winter 2020/2021, wurden alle diese Regionen von massiven zweiten und dritten Wellen getroffen, trotz der Erfahrungen aus den ersten Lockdowns.

Das Modell der Studie konnte die Prognostizierbarkeit von gesellschaftlichem Handeln wesentlich verbessern, indem es klassische Gleichungen zur Ausbreitung eines Virus mit einfachen Regeln zur gesellschaftlichen Dynamik kombiniert: Als Grundlage wird angenommen, dass Gesellschaften solidarisch und rational handeln, um die kombinierten Schäden aus COVID-19-bedingter Mortalität und den unmittelbaren sozio-ökonomischen Kosten von Kontaktverboten möglichst gering zu halten. „Allerdings zeigen Simulationsergebnisse, dass noch ein weiterer Mechanismus zentral zur Beschreibung der Dynamik in den 20 Regionen ist: die Erosion gesellschaftlichen Zusammenhalts, in der Wissenschaft soziale Kohäsion genannt, einhergehend mit einer sinkenden Bereitschaft zu sozialer Distanzierung“, sagt Wirtz. Psychologische Ermüdung, bröckelnde Gruppendynamik, Existenzdruck können Ursachen dafür sein.

Verlorener Zusammenhalt
Erst die Simulation dieses Erosionsprozesses führt zu Kurven regionaler Sterblichkeitsraten und Mobilitäts- und Verhaltensänderungen, die fast exakt mit den empirischen Daten übereinstimmen. Die Studie stellt somit das erste Modell vor, das den Vorhersagehorizont von bislang maximal drei Wochen auf bis zu einem Jahr erweitert. Potenziell kann es auch den Einfluss von neuen SARS-CoV-2 Mutationen beschreiben.

Anhand der Studie können die regional diversen zweiten und dritten Wellen der Pandemie als Folge unterschiedlicher gesellschaftlicher Kohäsion und klimatologischer Faktoren erklärt werden. Die Modellrechnungen zeigen, dass in vielen Ländern im Sommer 2020 eine Null-Covid-Strategie möglich gewesen wäre. „Allerdings nur bei Aufhaltung des sozialen Ermüdungsprozesses sowie rigider Einreisebeschränkungen“, sagt Kai Wirtz. Wegen der guten Übereinstimmung mit den Daten kann das Modell Hinweise für mittelfristige strategische Planung geben, etwa zur effizienteren Impfstoffverteilung. Bereits Anfang 2021 sagte es für Deutschland voraus, dass jeder verzögerte Tag der Massenimpfung im Schnitt zu 178 zusätzlichen Covid-Toten führt. Mit dieser Forschung ist der menschliche Umgang mit dem Virus ein Stück besser analysierbar geworden und hilft uns bei zukünftigen Entscheidungen.

Wissenschaftliche Ansprechpartner:
Prof. Kai Wirtz I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I T: +49 (0) 4152 87-1513 I kai.wirtz@hereon.de I www.hereon.de

Christoph Wöhrle I Helmholtz-Zentrum Hereon I Kommunikation und Medien
T: +49 (0)4152 87-1648 I presse@hereon.de I www.hereon.de

Originalpublikation:
https://doi.org/10.1038/s41598-021-93248-y

Weitere Informationen:
https://www.hereon.de/institutes/coastal_systems_analysis_modeling/ecosystem_mod…

(nach oben)


Metallrückgewinnung aus Abwässern: Innovative biotechnologische Verfahren und ihr Impact

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)
Industrielle Abwässer enthalten schwach konzentrierte kritische Metalle. Um diese zurückzugewinnen, haben zehn europäische Partner im Projekt BIOMIMIC zwei Prozesse weiterentwickelt. Zum Projektteam gehörten auch zwei deutsche Partner: Das Fraunhofer ISI hat die Verfahren im Hinblick auf Wirtschaftlichkeit und Ökologie sowie auf ihren Beitrag zur Versorgungssicherheit untersucht, G.E.O.S. hat ein biotechnologisches Verfahren entwickelt, das Metalle und Sulfat aus Grubenwässern beseitigen kann.

Im Projekt BIOMIMIC wurden Verfahren weiterentwickelt, mit denen sich kritische Metalle aus industriellen Abwässern zurückgewinnen lassen. Zehn europäische Partner aus Wissenschaft und Industrie betrachteten dafür drei Abwasserströme: Grubenwässer aus stillgelegten Bergbaustollen in Sachsen, Sickerwasser aus der Rotschlammlagerung einer Aluminiumoxid-Herstellungsanlage in Irland sowie Lösungen, die bei der Laugung von Aschen aus einer schwedischen Müllverbrennung anfallen.

Als Koordinator der deutschen Teilprojekte leitete das Fraunhofer-Institut für System- und Innovationsforschung ISI das Teilvorhaben »Impact«. Die Wissenschaftler:innen sollten den potenziellen Nutzen der in BIOMIMIC entwickelten Verfahren im Hinblick darauf bewerten, welchen Beitrag sie zur Versorgungssicherheit der EU mit kritischen Rohstoffen leisten können, wie sie ökonomisch realisierbar sind und welche ökologischen Vor- und Nachteile sie haben.

Der zweite deutsche Verbundpartner, die G.E.O.S. Ingenieurgesellschaft mbH, entwickelte im Teilvorhaben »Verfahrenstechnik« ein Sulfatreduktionsverfahren und demonstrierte es im kleintechnischen Maßstab. Damit lassen sich metall- und sulfathaltige Wässer unter Verwendung eines Bewegtbettbioreaktors erfolgreich behandeln: Mehr als 90 Prozent der Metalle werden als Metallsulfide abgetrennt, mehr als 99 Prozent der toxischen Substanzen und mehr als 60 Prozent des Sulfats werden entfernt. Ein Vorteil des Verfahrens ist der geringe regeltechnische Aufwand, da es ohne Gaszufuhr auskommt. Weiterhin ist die nicht verwertbare Reststoffmenge mit einem Zehntel des Ausgangsprodukts deutlich geringer als bei chemischen Behandlungsverfahren.

Auch die Ergebnisse der anderen Projektpartner zeigen, dass sich Prozesse mit sulfatreduzierenden Bakterien sehr gut eignen, um metall- und sulfathaltige Wässer zu reinigen und die Wertmetalle zurückzugewinnen. Zur Aufbereitung des Sickerwassers aus der Aluminiumoxid-Herstellungsanlage wurde eine Anlage für ein Biosorptionsverfahren fertiggestellt.

Prozesse können helfen, lokale Umweltprobleme zu lösen
Die Impact-Bewertung des Fraunhofer ISI zeigt, dass die in BIOMIMIC weiterentwickelten Verfahren technisch in der Lage sind, Metallverunreinigungen aus den betrachteten Abwasserströmen zu entfernen. Der potenzielle Beitrag dieser Aufbereitung zur EU-Versorgungssicherheit ist zwar eher gering, die Potenziale zur Lösung lokaler Umweltprobleme sind aber nicht zu vernachlässigen.

Um jedoch eine eindeutig umweltgerechtere und wirtschaftlich realisierbare Alternative zu rein chemischen Behandlungen der Abfallströme zu werden, müssen beide Verfahren hinsichtlich ihrer ökologischen und ökonomischen Leistung weiter optimiert werden: Der Prozess mit sulfatreduzierenden Bakterien ließe sich unter anderem verbessern, indem die Energieeffizienz gesteigert wird, zudem könnten andere Abfallströme genutzt werden, um Energie und Kohlenstoff für den Prozess zur Verfügung zu stellen. Beim Biosorptionsverfahren hat die Nutzung von Biokohle gegenüber Hydrokohle ökologische und ökonomische Vorteile.

Projektleiterin Dr. Sabine Langkau, die am Fraunhofer ISI das Geschäftsfeld Nachhaltigkeitsinnovationen und Politik leitet, betont: »Die Aufbereitung von industriellen Abwässern bietet oft keine ökonomischen Gewinnmöglichkeiten für Unternehmen, selbst wenn diese Abwasserströme wie in den hier untersuchten Fällen versorgungskritische Metalle enthalten. Daher bedarf es auch weiterhin gesetzlicher Vorgaben wie beispielsweise der aktuellen EU-Wasserrahmenrichtlinie, um Abwasserbehandlungsverfahren in die Anwendung zu bringen und damit lokale Umweltprobleme zu lösen. Darüber hinaus kann eine Bewertung der ökologischen und ökonomischen Auswirkungen der Verfahren unter Berücksichtigung der eingesetzten Energie- und Chemikalienmengen helfen, die Verfahren zu optimieren und das am besten geeignete Verfahren auszuwählen.«

Über das Projekt:
Das Projekt »BIOMIMIC« bestand aus mehreren Teilprojekten, an denen zehn europäische Partner innerhalb der transnationalen Ausschreibung des ERA-Nets ERA-MIN 2 gefördert wurden. Die deutschen Teilprojekte »Impact« und »Verfahrenstechnik« wurden vom Bundesministerium für Bildung und Forschung gefördert.

Medienkontakt
Anne-Catherine Jung
Leiterin Presse und Kommunikation
Fraunhofer-Institut für System- und Innovationsforschung ISI
Telefon +49 721 6809-100
E-Mail presse@isi.fraunhofer.de

Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der fundierten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.

Wissenschaftliche Ansprechpartner:
Dr. Sabine Langkau: Telefon +49 721 6809-498, E-Mail sabine.langkau@isi.fraunhofer.de

Weitere Informationen:
http://publica.fraunhofer.de/documents/N-636240.html BIOMIMIC: Innovative biotechnologische Methoden zur effektiven Metallrückgewinnung aus Sekundärmaterialien (Abschlussbericht und Kurzfassung)
https://biomimic-project.eu/ Informationen zum Projekt

(nach oben)


Neue Daten zur Langzeit-Immunität von COVID-19-Infizierten

Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
Forscherinnen und Forscher an der Universität zu Lübeck und am Gesundheitsamt der Hansestadt Lübeck haben eine weitere Studie zur Dauer der Immunität nach einer COVID-19-Infektion abgeschlossen und herausgefunden, dass die Immunität mindestens 10 Monate anhält. Die Kombination aus Zellimmunität und Antikörpern scheint ursächlich zu sein.

Die Fragestellung war, ob und falls ja wie lange infizierte Personen nach einer SARS-CoV-2 Infektion Antikörper und Interferon-gamma (IFN-γ) produzieren und so anschließend über ausreichende Abwehrmechanismen verfügen, die sie vor einer erneuten Infektion schützen können.

Insgesamt 412 Erwachsene mit überwiegend milder oder moderater Symptomatik wurden im Rahmen dieses Projekts untersucht. Das Blut der Teilnehmenden wurde auf das Vorhandensein von spezifischen anti-SARS-CoV-2 IgG Antikörpern und auf die Freisetzung von Interferon-gamma (IFN-γ) untersucht. IFN-γ ist einer der wichtigsten Botenstoffe im Immunsystem und wird von sogenannten T-Lymphozyten freigesetzt. Bei den meisten Infektionen, so auch bei dem Coronavirus, sind diese Zellen unverzichtbar, damit die sogenannten B-Lymphozyten schützende Antikörper produzieren können. Somit kann eine gezielte Aussage über die Abwehrlage getroffen werden.
Anti-SARS-CoV-2 IgG Antikörper konnten auch zehn Monate nach der Infektion bei 316/412 (76,7%) der Studienteilnehmerinnen und Studienteilnehmer gemessen werden. Bei 274/412 (66,5 %) der Patientinnen und Patienten waren sowohl Antikörper (IgG) nachweisbar und der IFN-γ Test fiel positiv aus.
Im Schnitt waren auch 300 Tage nach der Infektion noch 50% der Antikörper und der IFN-γ Konzentrationen nachweisbar. Interessanterweise wurden bei einigen Teilnehmenden zwar hohe Antikörperwerte, aber niedrige IFN-γ-Spiegel gemessen und umgekehrt. Diese Beobachtung wird weiter untersucht. Das Projekt wurde in Kooperation mit der Firma Euroimmun in Lübeck durchgeführt. Die Ergebnisse wurden bereits auf dem medRxiv-preprint server veröffentlicht.

“Unsere Daten zeigen, dass bei nahezu allen Teilnehmerinnen und Teilnehmern nach durchgemachter COVID-Infektion eine ausreichende Immunreaktion stattgefunden hat. Der Schutz hält für mindestens 10 Monate nach Infektion an. Die Ergebnisse können helfen zu entscheiden, in welchen Abständen Auffrischimpfungen gegen das Virus nötig sind“, so Prof. Dr. Werner Solbach, vom Zentrum für Infektions- und Entzündungsforschung an der Universität zu Lübeck.

„In unserer gemeinsamen Studie haben wir neben der etablierten Untersuchung auf Antikörper den Ansatz verfolgt, mit Hilfe der IFN-γ Messung eine Aussage zur so genannten zellulären Immunität, d.h. Abwehrlage auf Zellebene, treffen zu können. Die Ergebnisse sind beruhigend und lassen den Schluss zu, dass nur in der Zusammenschau von Antikörpern und Zellimmunität eine Aussage getroffen werden kann, wie lange man nach einer durchgemachten COVID-Infektion geschützt ist“, so Priv.-Doz. Dr. Alexander Mischnik, Leiter des Lübecker Gesundheitsamts und Letztautor der Studie.

Die vollständige Publikation ist online abrufbar unter:
https://medrxiv.org/cgi/content/short/2021.06.24.21259218v1

Wissenschaftlicher Kontakt:
Prof. Dr. med. Werner Solbach
Zentrum für Infektions- und Entzündungsforschung
Universität zu Lübeck
Ratzeburger Allee 160 | 23562 Lübeck
Tel.: 0451 3101 1947
werner.solbach@uni-luebeck.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Werner Solbach
Zentrum für Infektions- und Entzündungsforschung
Universität zu Lübeck
Ratzeburger Allee 160 | 23562 Lübeck
Tel.: 0451 3101 1947
werner.solbach@uni-luebeck.de

Originalpublikation:
https://medrxiv.org/cgi/content/short/2021.06.24.21259218v1

(nach oben)


Hy2Biomethane: Intelligente Kombination von Biogas und Wasserstoff

Severin Mantel-Lehrer Hochschulkommunikation
Technische Hochschule Ingolstadt
Das Institut für neue Energie-Systeme (InES) der Technischen Hochschule Ingolstadt (THI) erhält eine Förderung für das Projekt „Hy2Biomethane“. Unter Verwendung des bei Biogasanlagen durch die Fermentation anfallenden Kohlendioxids soll mit Wasserstoff aus einer vor Ort angeschlossenen Elektrolyse wiederum Methan erzeugt werden. Als vielversprechender Konversionspfad wird dabei die biologische Methanisierung näher untersucht. Das konkrete Ziel des Forschungsprojektes besteht in der Konzeptionierung, Entwicklung und labortechnischen Erprobung der verfahrenstechnischen Einbindung eines Rieselbettreaktors in die Druckwasserwäsche-basierten Biogasaufbereitung.

Das Institut für neue Energie-Systeme (InES) der Technischen Hochschule Ingolstadt (THI) geht mit einem weiteren Forschungsvorhaben beim Thema Wasserstoffinfrastruktur und -verwertung voran. Wissenschaftler des InES-Forschungsbereichs Industrielle Energiesysteme profitieren dabei von besten Voraussetzungen bei der an der THI vorhandenen Laborinfrastruktur.
Auch die Politik unterstreicht mittlerweile durch vielfältige Initiativen den Stellenwert, den Wasserstoff als universeller Energieträger für kommende Phasen der Energiewende einnehmen soll. Vor diesem Hintergrund beschäftigt sich auch das InES bereits seit Jahren mit dieser Zukunftstechnologie. Im Rahmen des nun vom Bundesministerium für Wirtschaft und Energie geförderten Projekts „Hy2Biomethane“ sollen Biogas und Wasserstoff intelligent miteinander kombiniert werden.
Unter Verwendung des bei Biogasanlagen durch die Fermentation anfallenden Kohlendioxids soll mit Wasserstoff aus einer vor Ort angeschlossenen Elektrolyse wiederum Methan erzeugt werden. Als vielversprechender Konversionspfad wird dabei die biologische Methanisierung näher untersucht. Das konkrete Ziel des Forschungsprojektes besteht in der Konzeptionierung, Entwicklung und labortechnischen Erprobung der verfahrenstechnischen Einbindung eines Rieselbettreaktors in die Druckwasserwäsche-basierten Biogasaufbereitung. Den hierfür speziell entwickelten Rieselbettreaktor steuert der Lehrstuhl für Energieverfahrenstechnik der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) als Projektpartner bei. Die Konzeptionierung sowie den Aufbau der gesamten Versuchsanlage übernehmen die Wissenschaftler des InES. Dabei können sie auch auf die exzellente Infrastruktur im Labor für Bioenergietechnik der Fakultät Maschinenbau am Campus der THI zurückgreifen.
Prof. Markus Goldbrunner leitet als Verbundkoordinator das Gesamtvorhaben. „Die Erzeugung von Biomethan durch die intelligente Kombination von Biogasanlagen und Elektrolyse, sowie die Einspeisung von Biomethan in das Erdgasnetz bietet nicht nur für Biogasanlagen eine zukunftsorientierte Alternative“, so Prof. Goldbrunner.
Das Projekt „FlexBiomethane“, ein zweites Forschungsvorhaben des InES, befasst sich bereits seit vergangenem Jahr mit der katalytischen Direktmethanisierung von Biogas und ergänzt damit die oben beschriebenen Forschungsaktivitäten zur Wasserstofferzeugung und Methanisierung. Beide Projekte werden in der kommenden Ausgabe 04/2021 der VDI-Zeitschrift „Technik in Bayern“ näher erläutert, welche sich dem Schwerpunktthema Wasserstoff widmet.
Details zu allen weiteren Forschungsprojekten des Instituts für neue Energie-Systeme sowie auch dessen Forschungsbereichs Industrielle Energiesysteme können auf den Webseiten des InES abgerufen werden: http://www.thi.de/go/energie

(nach oben)


Carbon Black aus Autoreifen recyceln

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Altreifen werden bislang vorwiegend zur Gewinnung von Energieträgern genutzt: Das darin enthaltene Carbon Black wird nur zu geringen Anteilen recycelt, da es etwa 20 Prozent mineralische Asche enthält. Mit einem neuen Verfahren des Fraunhofer-Instituts für Bauphysik IBP lässt sich diese Asche nahezu vollständig abtrennen – und so sowohl das Carbon Black als auch die Minera-lien aus der Asche erneut nutzen.

Etwa drei Kilogramm Carbon Black – auch Industrieruß genannt – stecken in einem üblichen PKW-Reifen. Das Problem dabei: Für die Herstellung einer Tonne Carbon Black braucht man etwa 1,5 Tonnen fossile Rohstoffe und große Mengen Wasser, es entstehen bis zu drei Tonnen Kohlenstoffdioxid. Es wäre daher äußerst sinnvoll, das in Altreifen enthaltene Carbon Black zu recyclen. Das in ihnen enthaltene Rohstofflager ist riesig: Etwa vier Milliarden Altreifen haben sich bereits auf Deponien angesammelt, jährlich kommen etwa 1,8 Milliarden Reifen dazu. Bislang gewinnt man aus den Altreifen – ebenso wie aus technischen Gummimaterialien – jedoch vor allem Öle, mit denen wiederum Energie für industrielle Prozesse gewonnen wird oder die als Rohstoff in Raffinerien eingesetzt werden. Das Recovered Carbon Black dagegen, das bei dem Pyrolyse-Verfahren entsteht, bleibt größtenteils ungenutzt: Es enthält bis zu 20 Prozent mineralische Asche, die aus den bei der Reifenherstellung genutzten Additiven besteht – vor allem aus silikatischen Verbindungen und Zinkkomponenten.

Purifiziertes Carbon Black aus Altreifen
Forscherinnen und Forscher des Fraunhofer IBP in Valley haben im Auftrag der RCB Nanotechnologies GmbH aus München ein Entmineralisierungsverfahren entwickelt, über das sich das recycelte Carbon Black von seiner mineralischen Last befreien lässt. »Das so behandelte Recoverd Carbon Black ist nahezu frei von mineralischen Reststoffen, es lässt sich beispielsweise zu 100 Prozent für die Seitenteile von Reifen einsetzen – also ohne Beimischung von primärem Carbon Black. Es kann die ursprünglichen Industriematerialien somit vollständig ersetzen«, sagt Dr. Severin Seifert, Gruppenleiter am Fraunhofer IBP. Zum Vergleich: Ohne die Entmineralisierung lassen sich gerade einmal zehn Prozent des recycelten Carbon Blacks zum Primärmaterial zumischen. Dazu kommt: Bei dem Entmineralisierungsverfahren entsteht nicht nur hochwertiger Industrieruß. Auch die Mineralstoffe werden mit großer Reinheit wiedergewonnen und können industriell weiterverwendet werden.

Doch wie gelingt es den Forschern, das Carbon-Black-Asche-Gemisch, das beim Pyrolyse-Verfahren entsteht, entsprechend aufzureinigen? »Wir nutzen dazu einen nasschemischen Prozess«, erläutert Christian Kaiser, Projektleiter am Fraunhofer IBP. »Vereinfacht gesagt: Wir geben das (Roh) Carbon Black-Asche-Gemisch zusammen mit verschiedenen Additiven in einen Reaktor, vermischen es mit Fluid und fahren eine definierte Druck- und Temperaturkurve. Dabei werden die einzelnen Stoffe selektiv aus dem Gemisch herausgelöst.« Was sich zunächst einfach anhört, hat es durchaus in sich: Die Parameter und Additive müssen derart eingestellt werden, dass sich jeweils nur ein bestimmtes Mineral möglichst sortenrein aus dem Gemisch herauslöst. Zudem müssen Temperatur und Druck dabei so moderat bleiben, dass das Verfahren auch technisch ohne größere Einschränkungen umsetzbar ist. Auch dürfen nicht zu viele Additive zugegeben werden – schließlich gilt es, die wirtschaftlichen Aspekte mit im Blick zu behalten und den Prozess nicht zu teuer werden zu lassen. Einen Teil der Additive gewinnen die Forscher und Forscherinnen daher zurück und schließen auch hier den Stoffkreislauf. Das Ergebnis des Entmineralisierungsverfahrens: Recyceltes Carbon Black mit hohem Reinheitsgrad für den Einsatz in Reifen und anderen Gummiprodukten sowie als Farbmittel (Masterbatch) für Kunststoffanwendungen, Silikate, die etwa in der Baustoffindustrie oder für Farben eingesetzt werden können, sowie Zinksalze für unterschiedlichste Anwendungen.

Industrielle Anlage bereits im Bau
Eine Pilotanlage mit einem Reaktorvolumen von 200 Litern existiert bereits – und wird die nächsten zwei Jahre am Fraunhofer IBP in Valley für die weiterführende Forschung aktiv im Betrieb sein. Ziel ist es, das Recovered Carbon Black auch für weitere industrielle Anwendungen nutzbar zu machen. Der Grundprozess ist ebenfalls bereits patentiert, mit der RCB Nanotechnologies GmbH als exklusivem Lizenznehmer. Derzeit arbeitet die Firma daran, den Prozess in den industriellen Maßstab zu überführen: Die Produktionshalle ist bereits gebaut, das Reaktorvolumen für einen Produktionsstrang soll jeweils bei 4000 Litern liegen. Das heißt: Ein Produktionsstrang wird pro Stunde 400 Kilogramm recyceltes Carbon Black von der Asche befreien – das sind 2500 Tonnen pro Jahr. In der finalen Ausbaustufe soll die gesamte Anlage eine Kapazität von knapp 30 000 Tonnen pro Jahr haben.

Längerfristig soll der Prozess zudem von einem Batch-Prozess in einen kontinuierlichen Prozess überführt werden. Auch Interessenten gibt es bereits: »Unsere Partner bekommen mittlerweile mehr Musteranfragen, als wir bedienen können«, sagt Kaiser. » Schließlich, stellt das so veredelte Recovered Carbon Black eine erste ernstzunehmende und nachhaltige Lösung für den Ersatz der technischen Industrierußen dar.«

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/juli-2021/carbon-bl…

(nach oben)


SARS-CoV-2: Schnelltests nur bedingt zuverlässig

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Gängige Schnelltests auf eine Infektion mit dem SARS-CoV-2-Virus erkennen Infizierte deutlich seltener als ein PCR-Test. Das zeigt eine neue Studie eines Forschungsteams der Würzburger Universitätsmedizin.

Im Bemühen, die Corona-Pandemie einzudämmen, sind Antigen-Schnelltests derzeit ein weit verbreitetes Instrument. In der Schule, vor dem Besuch von Kulturveranstaltungen, auf der Fahrt in den Urlaub: Überall ist ein negatives Testergebnis der Schlüssel zum Einlass. Kein Wunder: Schließlich sind die Schnelltests eine einfache, kostengünstige und direkt vor Ort auswertbare Möglichkeit der Testung auf eine Infektion mit SARS-CoV-2.

Labordaten der Hersteller, auf denen die Zulassung basiert, bescheinigen den Tests eine hohe Zuverlässigkeit. Verglichen mit der Referenzmethode der COVID-19-Diagnostik, dem Nachweis der Erbsubstanz des Virus durch sogenannte PCR-Tests, soll ihre Sensitivität Werte von über 90 Prozent erreichen. „Sensitivität“ gibt in diesem Fall an, bei welchem Prozentsatz erkrankter Patienten die Infektion durch die Anwendung des Tests tatsächlich erkannt wird, das heißt, ein positives Testresultat auftritt.

Sensitivität liegt deutlich unter Herstellerangaben
Forscherinnen und Forscher aus den Instituten für Hygiene und Mikrobiologie sowie Virologie und Immunbiologie der Julius-Maximilians-Universität Würzburg (JMU) sowie mehrerer Kliniken des Universitätsklinikums Würzburg (UKW) sind jetzt zu einem anderen Ergebnis gekommen. Demnach liegt die Sensitivität der Antigen-Schnelltests im klinischen Praxiseinsatz mit 42,6 Prozent signifikant unter den Herstellerangaben. Die Ergebnisse dieser Studie hat das Team in der aktuellen Ausgabe der Fachzeitschrift EBioMedicine veröffentlicht.

Aus insgesamt 5.068 Untersuchungen stammen die Daten der Studie – bei den Teilnehmenden wurden jeweils sowohl ein Antigen-Schnelltest als auch ein PCR-Test durchgeführt. Anschließend wurden die Ergebnisse miteinander verglichen. Während die Sensitivität der Schnelltests dabei deutlich schlechter als erwartet ausfiel, erreicht ein anderes Kriterium gute Werte: die Spezifität. Sie liegt mit 99,68 Prozent im Bereich der Herstellerangaben. Die Spezifität beziffert den Anteil der korrekt negativ getesteten Personen.

Potenzielle Superspreader werden gut erkannt
„Unsere Auswertung zeigt, dass SARS-CoV-2-Infizierte mit sehr hoher Viruslast – potenzielle ‚Superspreader‘ – sehr zuverlässig mittels Antigen-Schnelltests als positiv erkannt werden. In SARS-CoV-2-Proben mit niedrigen Viruslasten hingegen werden Infektionen so gut wie nicht erkannt“, fasst Studienleiter Dr. Manuel Krone die zentralen Ergebnisse der Studie zusammen. Krone ist Arbeitsgruppenleiter am Institut für Hygiene und Mikrobiologie und seit 1. Juni 2021 stellvertretender Leiter der Stabsstelle Krankenhaushygiene des UKW.

Problematisch ist dies aus Sicht der Mediziner vor allem zu Beginn einer Infektion. „Dann liefern Antigen-Schnelltests möglicherweise erst später als ein PCR-Test die richtige Diagnose und können so den Betroffenen eine falsche Sicherheit geben“, sagt Krone. Den Testanwendern sollte dies bewusst sein, so der Mediziner. Schließlich sei die Gefahr groß, dass sich Infizierte aufgrund eines negativen Testergebnisses nicht mehr an die Abstands- und Hygieneregeln halten und somit das Virus in ihrem Umfeld verbreiten. Weniger problematisch sei das „falsch-negative“ Testergebnis am Ende einer Infektion, weil dann von den Infizierten kein hohes Ansteckungsrisiko mehr ausgeht.

Wichtige Erkenntnisse für Teststrategien
Die Ergebnisse der Studie sind für COVID-19-Teststrategien von großer Bedeutung: „Antigen-Schnelltests sollten nicht als Ersatz für PCR-Untersuchungen bei symptomatischen Personen eingesetzt werden, wenn PCR-Kapazitäten zur Verfügung stehen“, sagt Krone. Von ihrem Einsatz prinzipiell abraten will der Mediziner jedoch nicht: „Großflächig und regelmäßig eingesetzt ermöglichen sie eine zusätzliche Erkennung von in vielen Fällen auch asymptomatischen SARS-CoV-2-Infizierten und damit eine Unterbrechung von Infektionsketten.“

Isabell Wagenhäuser, Doktorandin am Institut für Hygiene und Mikrobiologie und Erstautorin der Studie, ergänzt: „In Situationen, in denen eine momentan hohe Infektiosität ausgeschlossen werden soll, weil viele Menschen auf engem Raum zusammenkommen, können Antigen-Schnelltests eine sinnvolle Ergänzung weiterer Hygienemaßnahmen darstellen. Auch die infektionsepidemiologische Lage spielt eine wichtige Rolle bei der Beurteilung, ob ein Einsatz von Antigen-Schnelltests sinnvoll ist.“

Inzidenz muss berücksichtigt werden
Das sieht auch Professor Ulrich Vogel, Leiter der Stabsstelle Krankenhaushygiene des UKW, so. Er weist darauf hin: „Bei der Entscheidung zum Einsatz von Antigen-Schnelltests muss immer auch die aktuelle Inzidenz bedacht werden, da der positive Vorhersagewert der Tests bei niedrigen Inzidenzen abfällt.“

Wissenschaftliche Ansprechpartner:
Dr. Manuel Krone, Institut für Hygiene und Mikrobiologie, T: +49 931 31-88040, krone_m@ukw.de

Originalpublikation:
Clinical performance evaluation of SARS-CoV-2 rapid antigen testing in point of care usage in comparison to RT-qPCR. Isabell Wagenhäuser, Kerstin Knies, Vera Rauschenberger, Michael Eisenmann, Miriam McDonogh, Nils Petri, Oliver Andres, Sven Flemming, Micha Gawlik, Michael Papsdorf, Regina Taurines, Hartmut Böhm, Johannes Forster, Dirk Weismann, Benedikt Weißbrich, Lars Dölken, Johannes Liese, Oliver Kurzai, Ulrich Vogel, Manuel Krone, EBioMedicine (2021); 69:103455, https://doi.org/10.1016/j.ebiom.2021.103455

(nach oben)


Säure in der Nano-Pore: Wasser in Zeolithen hilft bei der Umwandlung von Biomasse in Biosprit

Dr. Andreas Battenberg Corporate Communications Center
Technische Universität München
Zeolithe sind extrem poröse Materialien: Zehn Gramm davon können eine innere Oberfläche von der Größe eines Fußballfeldes besitzen. Ihre Hohlräume lassen sich nutzen, um chemische Reaktionen zu katalysieren und damit Energie zu sparen. Ein internationales Forschungsteam hat nun neue Erkenntnisse über die Rolle von Wassermolekülen in diesen Prozessen gewonnen. Eine wichtige Anwendung ist die Umwandlung von Biomasse in Biosprit.

Treibstoff aus Biomasse gilt zwar als klimaneutral, dennoch benötigt man Energie um ihn herzustellen: Erst höhere Temperaturen und Druck sorgen dafür, dass die gewünschten chemischen Reaktionen stattfinden.

„Wenn wir in Zukunft auf fossile Energieträger verzichten und Biomasse im großen Stil effizient nutzen wollen, dann müssen wir auch Wege finden, den Energiebedarf bei der Verarbeitung zu reduzieren“, sagt Johannes Lercher, Professor für Technische Chemie an der Technischen Universität München (TUM) und Direktor am Institute for Integrated Catalysis am Pacific Northwest National Laboratory in Richland, Washington (USA).

Zusammen mit einem internationalen Forschungsteam hat der Chemiker sich jetzt die Rolle von Wassermolekülen bei Reaktionen innerhalb der nur wenige Nanometer großen Poren in Zeolithen genauer angesehen.

Das Saure an der Säure
Eine Säure zeichnet sich dadurch aus, dass sie bereitwillig Protonen abgibt. Salzsäure spaltet sich so auf in ein negativ geladenes Chlorid-Anion, wie es auch im Kochsalzkristall vorkommt, und ein positiv geladenes Proton, das in Wasser an Wassermoleküle andockt. Es entsteht so ein positiv geladenes Hydronium-Ion, das dieses Proton aber auch gerne wieder weiter reicht, beispielsweise an ein organisches Molekül.

Wird diesem ein Proton „aufgedrängt“, versucht es sich zu stabilisieren. Aus einem Alkohol kann so ein Molekül mit einer Doppelbindung werden – ein typischer Reaktionsschritt auf dem Weg von Biomasse zu Biosprit. Die Wände von Zeolithen stabilisieren die bei der Umwandlung auftretenden Übergangszustände und helfen so, den Energieaufwand für die Reaktion zu minimieren.

Ein Zeolith wird sauer
In Zeolithen gibt es Sauerstoffatome im Kristallverband, die bereits ein Proton besitzen. Im Zusammenspiel mit Wassermolekülen bilden sie, wie molekulare Säuren, Hydronium-Ionen.

Während die sich im Wasser jedoch verteilen, sind sie im Zeolithen fest gebunden. Durch chemische Vorbehandlung kann man die Zahl dieser aktiven Stellen variieren und so in den Poren des Zeolithen eine bestimmte Dichte von Hydronium-Ionen herstellen.

Der optimale Zeolith für jede Reaktion
Das Forschungsteam variierte nun systematisch die Größe der Hohlräume, die Dichte der aktiven Zentren und die Wassermenge. So konnte es zeigen, welche Porengröße und welche Wassermenge ausgewählte Beispielreaktion am besten katalysiert.

„Grundsätzlich kann man die Reaktionsgeschwindigkeit steigern, indem man die Poren enger macht und die Ladungsdichte erhöht“, erklärt Johannes Lercher. „Diese Steigerung hat allerdings Grenzen: Wenn es zu eng wird und die Ladungen zu dicht nebeneinander sind, nimmt die Reaktionsgeschwindigkeit wieder ab. Für jede Reaktion kann man so die optimalen Bedingungen finden.“

„Zeolithe sind für alle chemischen Reaktionen geeignet, deren Reaktionspartner in diese Poren hineinpassen und bei denen eine Säure als Katalysator eingesetzt wird“, betont Lercher. „Wir stehen hier ganz am Anfang einer Entwicklung die das Potenzial hat, die Reaktivität von Molekülen auch bei niedrigen Temperaturen deutlich zu erhöhen und damit bei der Gewinnung von Kraftstoffen oder chemischen Substanzen in erheblichem Umfang Energie einzusparen.“

An der Forschung beteiligt waren das Forschungszentrum für Chemie und Katalyse an der Technischen Universität München, das US-Institute for Integrated Catalysis am Pacific Northwest National Laboratory, das Schweizer Paul-Scherrer-Institut sowie die Universität Yangzhou und das Qingdao Institute of Bioenergy and Bioprocess Technology in China. Die Arbeit wurde gefördert durch die Technische Universität München und das US Department of Energy, Office of Science.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Johannes A. Lercher
Lehrstuhl für Technische Chemie II und
Zentralinstitut für Katalyseforschung
Technische Universität München
Lichtenbergstr. 4, 85748 Garching
Tel.: +49 89 289 13540 – E-Mail: johannes.lercher@ch.tum.de

Originalpublikation:
Niklas Pfriem, Peter H. Hintermeier, Sebastian Eckstein, Sungmin Kim, Qiang Liu, Hui Shi, Lara Milakovic, Yuanshuai Liu, Gary L. Haller, Eszter Baráth, Yue Liu, Johannes A. Lercher
Role of the ionic environment in enhancing the activity of reacting molecules in zeolite pores
Science, May 28, 2021: Vol. 372, Issue 6545, pp. 952-957 – DOI: 10.1126/science.abh3418

Weitere Informationen:
https://science.sciencemag.org/content/372/6545/952.abstract Originalpublikation
https://www.tum.de/nc/die-tum/aktuelles/pressemitteilungen/details/36774/ Presseinformation auf der TUM-Website
https://www.department.ch.tum.de/tc2/ Website der Arbeitsgruppe

(nach oben)


Ist Carsharing gut für die Umwelt?

Miriam Hegner Presse- und Öffentlichkeitsarbeit
Verband der Hochschullehrer für Betriebswirtschaft e.V.
Carsharing ermöglicht registrierten Nutzern die unkomplizierte Miete eines Fahrzeuges per Smartphone. Während in stationsbasierten Systemen jedes Auto nach der Miete wieder zu seinem festen Standort zurückgebracht werden muss, ermöglichen free-floating Systeme die Rückgabe auf jedem beliebigen öffentlichen Parkplatz einer Großstadt. Jochen Gönsch, Professor für Betriebswirtschaftslehre und Service Operations an der Universität Duisburg-Essen, erläutert, warum das gut für die Umwelt ist.

Moderne und bedarfsorientierte Flotten senken den Verbrauch
Viele Carsharing-Anbieter verfügen über moderne Fahrzeuge, die sehr gute Verbrauchs- und Abgaswerte besitzen. Nicht zuletzt aus Imagegründen stehen zahlreiche Elektrofahrzeuge zur Verfügung. Hinzu kommt, dass die Flotten aus überdurchschnittlich vielen Kleinwagen bestehen. Automobilhersteller senken so über ihre Carsharing-Töchter den durchschnittlichen Verbrauch aller hergestellten Pkw. Für sie ist das wichtig, weil die EU hier Obergrenzen vorschreibt. Ein weiteres Argument ist oft, dass Kundinnen und Kunden immer das passende Auto nutzen können: Die Kundin muss nicht immer Kleinbus fahren, nur weil sie ab und an mit der Familie in Urlaub fährt, sondern kann die Größe des PKWs nach tatsächlichem Bedarf wählen.

Gute Auslastung schont die Umwelt
Auch wenn die Auslastung von Carsharing-Fahrzeugen meist im einstelligen Prozentbereich liegt, so werden sie doch deutlich intensiver genutzt als Privatfahrzeuge. Für die gleiche Fahrleistung müssen also weniger Fahrzeuge hergestellt und entsorgt werden. Vor allem wird der benötigte Parkraum reduziert – laut Studien um bis zu 20%.

Aber: Wird am Ende tatsächlich der Pkw oder auch der Bus ersetzt?
Es stellt sich die Frage, ob durch Carsharing tatsächlich der eigene PKW oder nur die Nutzung des öffentlichen Nahverkehrs ersetzt wird. Studien zeigen, dass bei Nutzern von Carsharing der private Pkw-Besitz sinkt. Die entsprechenden Fahrten werden einerseits durch Carsharing, insbesondere aber auch durch den öffentlichen Nahverkehr ersetzt. Das heißt, Carsharing leistet mittelfristig einen Beitrag zu einer nachhaltigen, zukunftsfähigen Mobilität.

Professor Gönsch ist einer von über 170 VHB experts des Verbands der Hochschullehrer für Betriebswirtschaft e.V. (VHB). Mit rund 2.800 Mitgliedern ist der Verband eine wachsende, lebendige Plattform für wissenschaftlichen Austausch, Vernetzung und Nachwuchsförderung in allen Bereichen der BWL und darüber hinaus.

Wissenschaftliche Ansprechpartner:
Jochen Gönsch, Professor für Betriebswirtschaftslehre und Service Operations an der Universität Duisburg-Essen
jochen.goensch@uni-due.de

Weitere Informationen:
https://vhbonline.org/vhb-experts

(nach oben)


Kontaktlinse fürs Ohr

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Lärm, ein Hörsturz, Gefäßverengungen, das Alter – Schwerhörigkeit kann viele Ursachen haben. Um Betroffenen mit Hörschädigung ein besseres Leben zu ermöglichen, hat das Mannheimer Start-up Vibrosonic eine neuartige Hörhilfe entwickelt, deren Lautsprecher direkt auf dem Trommelfell aufliegt. Diese Hörkontaktlinse® muss nicht implantiert werden. Ihre Klangqualität übertrifft die bisheriger Hörsysteme. Vibrosonic ist eine Ausgründung der Fraunhofer-Projektgruppe für Automatisierung in der Medizin und Biotechnologie PAMB des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA und der Universitäts-HNO-Klinik Tübingen.

Etwa 15 Millionen Deutsche sind schwerhörig, schätzt der Deutsche Schwerhörigenbund e.V. In vielen Fällen können Hörhilfen das Hörvermögen verbessern und den Alltag der betroffenen Menschen erleichtern. Bei gängigen Hörgeräten sitzt der Lautsprecher im Gehörgang des Trägers. Daraus resultierende akustische Verzerrungen können die Klangqualität beeinträchtigen. Das Mikrofon befindet sich hinter dem Ohr und ist dadurch anfällig für Störgeräusche wie etwa Wind. Mit einer innovativen Hörhilfe will das Mannheimer Start-up Vibrosonic diesen Nachteilen entgegenwirken. Dr. Dominik Kaltenbacher und Dr. Jonathan Schächtele, ehemals Wissenschaftler der Fraunhofer-Projektgruppe PAMB, und Dr. Ernst Dalhoff von der Uni-HNO-Klinik Tübingen haben das Unternehmen im Jahr 2016 ausgegründet. Heute, fünf Jahre später, zählt Vibrosonic 27 Mitarbeitende.

Auf der Hörkontaktlinse® basierende Hörlösungen von Vibrosonic verstärken Klänge im Frequenzbereich von 80 Hz bis 12 kHz
Die erste, CE-zertifizierte Hörlösung Vibrosonic alpha besteht aus drei Komponenten: der Hörkontaktlinse®, einem Gehörgangsmodul und einem Hinter-dem-Ohr-Modul. Hörkontaktlinse® und Gehörgangsmodul verbleiben fest im Gehörgang, das Hinter-dem-Ohr-Modul kann flexibel abgenommen werden. Mit der Hörkontaktlinse® sitzt der Lautsprecher nicht im Gehörgang, sondern auf dem Trommelfell. Schwingungen überträgt sie ohne Luftschall direkt auf die Gehörknöchelchen. Die Klangübertragung erfolgt durch direkte mechanische Stimulation des Gehörs. Dadurch kann das natürliche Hören weitgehend nachempfunden werden.

Die Hörkontaktlinse®, Lautsprecher und eine der drei Komponenten der Vibrosonic alpha, ist in der Lage, Klänge im gesamten hörbaren Frequenzbereich von unter 80 Hz bis deutlich über 12 kHz zu verstärken. Klassische Systeme hingegen können dies nicht.

Aufgrund der Unterschiede in der Trommelfellform wird die Hörkontaktlinse® für jeden Patienten individuell hergestellt. Dazu wird der Vibrosonic-Aktor, ein piezoelektrischer Mikrolautsprecher, in eine Silikonform eingegossen. »Da unsere Hörkontaktlinse® direkt auf dem Trommelfell getragen wird – wie eine Kontaktlinse auf dem Auge – können sehr tiefe und besonders hohe Töne sehr gut verstärkt und störende Geräusche durch Rückkopplungen prinzipbedingt weitgehend vermieden werden. Die tiefen Töne sind beispielsweise beim Genuss von Musik entscheidend, weil der Klang dadurch satter wird. Hohe Töne gut hören zu können, ist für das Sprachverstehen wichtig, denn die codierten Obertöne machen den Charakter einer Stimme aus«, erläutert Vibrosonic CEO Dr. Dominik Kaltenbacher.

Strukturen des Aktors tausendmal kleiner als ein menschliches Haar
Bei hochgradiger Schwerhörigkeit oder extremer Miniaturisierung stoßen herkömmliche Hörgeräte aufgrund von Rückkopplungs- und Verzerrungseffekten an ihre Grenzen – verursacht durch Leistungsgrenzen der seit jeher verwendeten Spulen-Lautsprecher. »In der Hörkontaktlinse® verwenden wir den weltweit ersten Hörgerätelautsprecher, der konsequent mit den Methoden der Mikrosystemtechnik entwickelt und realisiert wurde, den sogenannten Vibrosonic-Aktor. Einzelne Strukturen des Vibrosonic-Aktors sind tausendmal kleiner als die Dicke eines menschlichen Haars. Trotz kleinster Abmessungen verfügt er über überragende audiologische Eigenschaften«, sagt Kaltenbacher.

Hörsystem für Patienten mit leichtem bis moderat schwerem Hörverlust
Erste Studien mit wenigen Probanden haben gezeigt, dass Vibrosonic alpha das Klangerlebnis von Menschen mit leichter bis mittelgradiger Hörschädigung verbessern kann. Das System eignet sich für Patienten ab 18 Jahren und kann sowohl auf einem als auch auf beiden Ohren getragen werden, je nach individuellem Hörverlust. Geplant ist aber, alle derzeitigen Hörsystemkomponenten derart zu miniaturisieren, dass sie im Gehörgang verschwinden und unsichtbar sind.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/juli-2021/kontaktli…

(nach oben)


19,6 Millionen Beschäftigte arbeiten in einer anderen Gemeinde

Christian Schlag Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
Knapp 60 Prozent der sozialversicherungspflichtig Beschäftigten arbeiteten im Jahr 2020 nicht an ihrem Wohnort. Das entspricht 19,6 Millionen Menschen. Gegenüber dem Vorjahr blieb sowohl die Zahl als auch der Anteil der Beschäftigten stabil, die auf dem Weg zur Arbeit die Gemeindegrenzen überschreiten. Das ergab eine Auswertung des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR), die sich auf Pendlerstatistiken der Bundesagentur für Arbeit stützt.

Knapp 60 Prozent der sozialversicherungspflichtig Beschäftigten arbeiteten im Jahr 2020 nicht an ihrem Wohnort. Das entspricht 19,6 Millionen Menschen. Gegenüber dem Vorjahr blieb sowohl die Zahl als auch der Anteil der Beschäftigten stabil, die auf dem Weg zur Arbeit die Gemeindegrenzen überschreiten. Das ergab eine Auswertung des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR), die sich auf Pendlerstatistiken der Bundesagentur für Arbeit stützt.

Die Pendlerstatistik sagt nichts darüber aus, wie viele Beschäftigte sich im vergangenen Jahr im Homeoffice befanden und entsprechend nicht täglich pendelten. Sie zeigt jedoch, wie sich die Arbeitsmarktzentren regional verteilen und wie weit diese aufs Umland ausstrahlen.

Im Vergleich der Großstädte übt München die größte Anziehungskraft für Arbeitskräfte aus dem Umland aus. So wohnten im Jahr 2020 410.000 der in München arbeitenden Beschäftigten außerhalb der Stadtgrenzen. Es folgen Frankfurt am Main (384.000), Hamburg (355.000) und Berlin (332.000).

Die höchsten Anteile an Beschäftigten mit einem Wohnort außerhalb der Stadtgrenzen wiesen im Jahr 2020 die Großstädte Darmstadt (69 Prozent), Ludwigshafen am Rhein, Erlangen und Offenbach am Main (jeweils 68 Prozent) auf.

„Die Pandemie hat die Arbeitswelt grundlegend verändert“, so der Leiter des BBSR, Dr. Markus Eltges. „Formen der mobilen Arbeit bieten die große Chance, den Pendlerverkehr in den Großstädten und ihrem Umland zu reduzieren – und damit auch die umwelt- und gesundheitlichen Belastungen zu verringern, die durch das Pendeln entstehen. Kleine und mittelgroße Kommunen können als Wohnorte abseits der Großstädte attraktiver werden, wenn Beschäftigte nur wenige Tage im Monat im Büro sind und größtenteils von zu Hause aus arbeiten“, sagt Eltges. „Die Arbeitgeber müssen diese neue Arbeitswelt auch wollen und sehen, was sie für Vorteile hat. Bei einer Win-win-Situation wird es kein Zurück in die alte Arbeitswelt geben.“

Interessierte können die Ergebnisse für die Großstädte auf der Website des BBSR unter http://www.bbsr.bund.de abrufen.

Datengrundlage der Auswertung sind die Pendlerstatistiken der Bundesagentur für Arbeit mit Stand 30.06.2020.

Kontakt

Kontakt
Christian Schlag
Stab Direktor und Professor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
im Bundesamt für Bauwesen und Raumordnung (BBR)
Deichmanns Aue 31–37
53179 Bonn
Telefon: +49 228 99401-1484
christian.schlag@bbr.bund.de

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) berät als Ressortforschungseinrichtung die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

Wissenschaftliche Ansprechpartner:
Thomas Pütz
Referat „Digitale Stadt, Umwelt und Verkehr“
Telefon: +49 228 99401-2300
thomas.puetz@bbr.bund.de

(nach oben)


Gemeinsam für Umwelt und Gesellschaft: Umfangreiche Analyse zum Klimawandel vorgestellt

Martin Labadz Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Der Klimawandel schreitet weiter voran. Doch wie wirkt er sich künftig auf die Natur, unsere Gesundheit, unser Wirtschaften und unseren Alltag aus? Mögliche Veränderungen und Anpassungsoptionen hat die BfG zusammen mit zahlreichen anderen Bundesbehörden in einer umfassenden Analyse erarbeitet. Entstanden ist die Klimawirkungs- und Risikoanalyse des Bundes.

Die Klimawirkungs- und Risikoanalyse (KWRA) ist eine der umfangreichsten Analysen von Risiken und Wirkungen des Klimawandels in Deutschland. Sie wird im Auftrag der Bundesregierung im Rahmen der Deutschen Anpassungsstrategie an den Klimawandel (DAS) alle sechs Jahre durch das Behördennetzwerk „Klimawandel und Anpassung“ erstellt. An der aktuellen Version, die heute im Rahmen einer vom Bundesumweltministerium veranstalteten Abschlusskonferenz vorgestellt wurde, haben Expertinnen und Experten aus 25 Bundesbehörden und -institutionen aus neun Ressorts mitgearbeitet – federführend organisiert vom Umweltbundesamt. Die KWRA umfasst somit die gesammelten Erkenntnisse und Ergebnisse der behördlichen Forschungsarbeit zum Thema Klimawandel, und das interdisziplinär und ressortübergreifend.

Für den Bereich Wasser hat die BfG ihre Expertise in den Sachstandsbericht einfließen lassen. Denn: Wasser ist und bleibt einer der wichtigsten Faktoren für Mensch, Umwelt und Wirtschaft: Ansteigende Meeresspiegel, zunehmende Hochwasserereignisse, aber auch Niedrigwasser, verbunden mit steigenden Wassertemperaturen und abnehmender Wasserqualität, könnten zukünftig viele gesellschaftlich relevante Bereiche vor Herausforderungen stellen.

Dr. Birgit Esser, Leiterin der BfG, betonte auf der Abschlusskonferenz: „Es ist essentiell, dass wir den Blick in die wasserwirtschaftliche Zukunft immer auf den neuesten wissenschaftlichen Stand bringen. Die komplexe Herausforderung Klimawandel kann aber nur interdisziplinär sowie behörden- und ressortübergreifend angegangen werden. Alle Perspektiven sind gleichermaßen gefordert, vom Umweltschutz bis hin zur Ingenieurtechnik. Deshalb arbeiten wir im Behördennetzwerk der DAS, aber auch in den Forschungsprogrammen Blaues Band Deutschland, im Nationalen Hochwasserschutzprogramm und BMVI-Expertennetzwerk intensiv mit.“

Bei diesen und weiteren ressortübergreifenden Programmen liefert die BfG wesentliche Grundlagen für die Klimawirkungsanalysen und die Klimaanpassung. Und stellt damit für das Thema Wasser insgesamt und insbesondere für die Bundeswasserstraßen Daten für eine Vielzahl von Themen und Nutzern bereit, und das auf stets aktuellem Wissensstand.

Wissenschaftliche Ansprechpartner:
Dr. Enno Nilson (0261-1306 5325, nilson@bafg.de)

Anhang
Pressemitteilung: Gemeinsam für Umwelt und Gesellschaft: Umfangreiche Analyse zum Klimawandel vorgestellt

(nach oben)


Kleingewässer in Agrarlandschaften stark mit Pestiziden belastet

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Pestizide sichern die Erträge in der Landwirtschaft, indem sie schädliche Insekten, Pilze und Unkräuter bekämpfen. Sie gelangen aber auch in Bäche und schädigen die aquatischen Lebensgemeinschaften, die für den Erhalt der Artenvielfalt entscheidend sind, Teil des Nahrungsnetzes sind und die Selbstreinigung des Wassers unterstützen. In einem bundesweiten Monitoringprogramm haben Wissenschaftler:innen unter UFZ-Leitung gezeigt, dass die Grenzwerte für Pestizide zu hoch angesetzt sind und selbst diese in über 80 Prozent der Gewässer überschritten werden. Wie sie schreiben, kann der Verlust der Artenvielfalt nur gestoppt werden, wenn die Umweltrisikobewertung der Pestizide reformiert wird.

Zwei Jahre lang haben die Forscherinnen und Forscher die Pestizidbelastung an mehr als 100 Messstellen an Bächen untersucht, die durch überwiegend landwirtschaftlich genutzte Tieflandregionen in zwölf Bundesländern fließen. Sie stellten dort erhebliche Überschreitungen des RAK-Werts fest – das ist die im behördlichen Zulassungsverfahren eines Pflanzenschutzmittels festgelegte Konzentration eines Wirkstoffs, die im Gewässer nicht überschritten werden darf, um negative Auswirkungen auf Gewässerorganismen zu verhindern. So wurden die RAK-Werte in der überwiegenden Mehrzahl der Gewässer überschritten (81 Prozent). In 18 Prozent der Bäche wurden sogar für mehr als zehn Pestizide derartige Überschreitungen nachgewiesen. „Wir haben bundesweit eine deutlich höhere Pestizidbelastung in den Kleingewässern nachgewiesen als wir das ursprünglich erwartet haben“, sagt Prof. Matthias Liess, Ökotoxikologe am UFZ und Koordinator des Projekts Kleingewässermonitoring. Zum Beispiel überschritt Thiacloprid, ein Insektizid aus der Klasse der Neonicotinoide, den RAK-Wert in drei Gewässern um mehr als das 100fache. Andere Insektizide wie Clothianidin, Methiocarb und Fipronil, aber auch Herbizide wie Terbuthylazin, Nicosulfuron und Lenacil toppten den RAK-Wert um den Faktor 10 bis 100 in 27 Gewässern.

Aufgrund des umfangreichen Datensatzes konnten die Forscher:innen nachweisen, dass Pestizide auf Lebensgemeinschaften aquatischer Wirbelloser bereits in viel niedrigeren Konzentrationen wirken als bisher in der Pestizid-Zulassung angenommen. Ab welcher Konzentration das der Fall ist, hängt davon ab, welche Arten überleben sollen. Sollen in Kleingewässern beispielsweise empfindliche Insektenarten wie Köcherfliegen und Libellen geschützt werden, sind sehr viel niedrigere Grenzwerte – um den Faktor 1.000 – notwendig als wenn eher unempfindliche Schnecken und Würmer erhalten werden sollen. „Für empfindliche Insektenarten ist die Pestizidkonzentration in den kleinen Tieflandgewässern der wesentliche Faktor, der ihr Überleben bestimmt. Andere Umweltprobleme wie Gewässerausbau, Sauerstoffmangel oder zu hoher Nährstoffgehalt spielen dagegen eine geringere Rolle“, sagt Matthias Liess. Damit habe diese Studie erstmals ein Ranking der Umweltprobleme ermöglicht.

In der derzeitigen Zulassungspraxis von Pflanzenschutzmitteln wird die hohe Empfindlichkeit der Arten im Ökosystem unterschätzt. Denn bislang wird das ökologische Risiko von Pestiziden im Freiland auf Basis von Laborstudien, künstlichen Ökosystemen und Simulationsmodellen vorhergesagt. Die Ergebnisse aus dem Labor spiegelten aber laut Matthias Liess nicht die Realität wider: „Im Ökosystem wirken neben Pestiziden noch zahlreiche weitere Stressoren auf die Organismen, sodass diese auf Pestizide deutlich empfindlicher reagieren. Natürliche Stressoren wie der Räuberdruck oder die Konkurrenz der Arten werden im Zulassungsverfahren nicht ausreichend berücksichtigt. Diese offensichtlichen Probleme fallen aber nicht auf, da sowohl die Menge des Pestizideintrags als auch ihre Wirkung weder in Deutschland noch in anderen Staaten in der Umwelt validiert werden“, sagt er.

Im Verlauf des Kleingewässermonitorings stellten die Wissenschaftler:innen weiter fest, dass die Art der Probenahme entscheidenden Einfluss auf die gemessenen Konzentrationen der Pestizide hat. Sie hatten nämlich nicht nur die von der EU-Wasserrahmenrichtlinie als Standard vorgegebene Schöpfprobe genommen, sondern auch eine sogenannte Ereignisprobe. Dabei nimmt ein automatisch gesteuerter Probenehmer nach einem Niederschlagsereignis Wasserproben aus dem Gewässer. „Die Ereignisprobe liefert wesentlich realistischere Ergebnisse, da die Pestizide insbesondere bei Niederschlägen durch den aufkommenden Oberflächenabfluss vom Acker in die Gewässer eingetragen werden“, sagt Matthias Liess. Die ereignisbezogenen Proben weisen gegenüber den Schöpfproben eine 10-fach höhere Belastung auf. „Um die Gewässerbelastung realistisch abzubilden, müssen Proben nach Regenfällen genommen werden. Deshalb brauchen wir ein regelmäßiges behördliches Umweltmonitoring, um die Menge und die Auswirkungen der Pestizide bewerten zu können“, sagt Matthias Liess. Auch müssten neue wissenschaftliche Erkenntnisse schneller als bislang in den Zulassungsprozess neuer Pflanzenschutzmittel einfließen, fordern er und seine Kolleg:innen. „Dass heute noch Pestizide eingesetzt werden, deren Zulassung viele Jahre zurückliegt und damit oft auf einer überholten Risikobewertung beruht, muss sich schnellstens ändern. Nur so können wir die Artenvielfalt in unseren Gewässern erhalten und mit ihnen die Leistungen, die diese Lebensgemeinschaften für unsere Ökosysteme erbringen.“

Die vom Umweltbundesamt (UBA) beauftragte Pilotstudie „Kleingewässermonitoring“ (KgM) wurde federführend vom UFZ-Department System-Ökotoxikologie durchgeführt und vom UFZ und dem UBA finanziert. Beteiligt haben sich daran elf UFZ-Departments, die Universität Koblenz-Landau, die Universität Duisburg-Essen, die Christian-Albrechts-Universität zu Kiel das UBA sowie die 12 Umweltbehörden der beteiligten Bundesländer.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Liess
UFZ-Department System-Ökotoxikologie
matthias.liess@ufz.de

Originalpublikation:
Matthias Liess, Liana Liebmann, Philipp Vormeier, Oliver Weisner, Rolf Altenburger, Dietrich Borchardt, Werner Brack, Antonis Chatzinotas, Beate Escher, Kaarina Foit, Roman Gunold, Sebastian Henz, Kristina L. Hitzfeld, Mechthild Schmitt-Jansen, Norbert Kamjunke, Oliver Kaske, Saskia Knillmann, Martin Krauss, Eberhard Kuster, Moritz Link, Maren Luck, Monika Moder, Alexandra Muller, Albrecht Paschke, Ralf B. Schafer, Anke Schneeweiss, Verena C. Schreiner, Tobias Schulze, Gerrit Schuurmann, Wolf von Tumpling, Markus Weitere, Jorn Wogram, Thorsten Reemtsma: Pesticides are the dominant stressors for vulnerable insects in lowland streams. Water Research (2021): https://doi.org/10.1016/j.watres.2021.117262

Weitere Informationen:
http://www.ufz.de/kgm

(nach oben)


Fußball-Bundesliga: Stadionbesuche ohne konsequente Maskenpflicht führten zu mehr Infektionen

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Zu Beginn der vergangenen Saison waren bei vielen Spielen der ersten, zweiten und dritten Fußballbundesliga Zuschauer im Stadion erlaubt. Eine neue Studie des RWI – Leibniz-Institut für Wirtschaftsforschung und der SDU University of Southern Denmark in Sonderborg untersucht die Auswirkungen dieser Events auf das Corona-Infektionsgeschehen. Das Ergebnis: Spiele der ersten Bundesliga, die mit höheren Zuschauerzahlen verbunden waren, haben zu einem statistisch signifikanten Anstieg der Neuinfektionen geführt. Der Effekt ist dabei auf jene Spiele zurückzuführen, bei denen Masken lediglich auf den Wegen zum Sitzplatz getragen werden mussten.

Das Wichtigste in Kürze:
– An den ersten beiden Spieltagen der ersten bis dritten Fußballbundesliga der Saison 2020/21 konnten je nach Spiel bis zu 10.000 Zuschauer – bei unterschiedlichen lokalen Hygienekonzepten – ins Stadion gehen.
– Die Studie stellt bei einer Gesamtbetrachtung aller Ligen keine signifikanten Auswirkungen der Spiele auf das Infektionsgeschehen fest. Dies ändert sich allerdings, wenn nur die Spiele der ersten Bundesliga – und mit höheren Zuschauerzahlen – betrachtet werden: Diese Spiele haben zu einer statistisch signifikant höheren Infektionsdynamik geführt.
– Im Durchschnitt führten Erstligaspiele an den ersten beiden Spieltagen zu 0,6 Infektionen mehr pro 100.000 Einwohner pro Tag. Dies entspricht im betrachteten Zeitraum einem lokalen Anstieg der Infektionsraten um etwa sieben bis acht Prozent.
– Hierbei stellt die Studie deutliche Unterschiede mit Blick auf die Maskenpflicht fest. Demnach ist der Effekt auf die Spiele zurückzuführen, bei denen Masken lediglich auf den Wegen zum Platz getragen werden mussten. Spiele mit strenger Maskenpflicht – d.h. permanente Tragepflicht auch am zugewiesenen Platz – haben dagegen nicht zu höheren Infektionszahlen geführt.
– Die Studie vergleicht die lokale COVID-19-Infektionsentwicklung in den Landkreisen, in denen ein Profifußballspiel mit mindestens 1.000 Zuschauern stattfand, mit der Entwicklung in Landkreisen, in denen keine Profimannschaften beheimatet sind. Die Untersuchung ist somit unabhängig von dem in der Praxis schwierigen Nachweis der tatsächlichen Infektionsorte. Bisherige lokale Analysen, die keine Infektionen im Stadion aufgezeigt haben, bezogen sich nur auf die Infektionen, bei denen Gesundheitsämter den tatsächlichen Infektionsort nachweisen konnten.

„Die Studie deutet darauf hin, dass Sportveranstaltungen mit vielen Zuschauern ein erhöhtes Infektionsrisiko darstellen, wenn im Stadion keine konsequente Maskenpflicht gilt“, sagt Studienautor Philipp Breidenbach, stellvertretender Leiter des Forschungsdatenzentrums Ruhr am RWI. „Gute Hygienekonzepte im Stadion scheinen das Risiko wirksam zu reduzieren, zumindest bei Spielen mit begrenzter Zuschauerzahl.“

Wissenschaftliche Ansprechpartner:
Dr. Philipp Breidenbach, philipp.breidenbach@rwi-essen.de , Tel.: (0201) 8149-328,

Originalpublikation:
Dieser Pressemitteilung liegt die Studie „Large-scale sport events and COVID-19 infection effects: Evidence from the German professional soccer ‚experiment’“ von Philipp Breidenbach und Timo Mitze zugrunde, die in der Fachzeitschrift „The Econometrics Journal“ erscheinen wird.

(nach oben)


60 Prozent der Flüsse weltweit fallen zeitweise trocken – Tendenz steigend

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Ein internationales Forscher*innen-Team, unter ihnen Senckenberg-Generaldirektor Klement Tockner, hat erstmalig alle Flüsse weltweit erfasst und quantifiziert, die zeitweise austrocknen. Sie zeigen, dass 60 Prozent der globalen Fließgewässer an mindestens einem Tag im Jahr trockenfallen – über alle Kontinente und klimatischen Zonen hinweg. In der unter Leitung von Mathis Messager von der McGill Universität im kanadischen Montreal entstandenen und heute im renommierten Fachjournal „Nature“ veröffentlichten Studie zeigen die Forschenden, dass über die Hälfte der Weltbevölkerung in der Nähe dieser zeitweise trockenfallenden Flüsse lebt – Tendenz steigend.

Seit Jahrtausenden siedeln Menschen bevorzugt in der Nähe von Gewässern. Flüsse sind Teil des globalen Wasserkreislaufs, bedeutender Lebensraum für zahlreiche Arten, Wirtschaftsfaktor, Transportweg, Energielieferant und Erholungsort. Doch gerade die Bäche und Flüsse leiden immens unter dem globalen Klimawandel, der intensiven Landnutzung und dem Ressourcenverbrauch. „Aktuell konzentriert sich die Forschung und die daraus folgenden Schutzmaßnahmen überwiegend auf Gewässer, die permanent Wasser führen“, erklärt Prof. Dr. Klement Tockner, Gewässerökologe und Generaldirektor der Senckenberg Gesellschaft für Naturforschung sowie Professor an der Goethe-Universität Frankfurt, und fährt fort: „Doch sogar große, charismatische Flüsse, wie beispielsweise der Nil, der Gelbe Fluss in China oder der nordamerikanische Rio Grande, fallen bereits vollständig trocken. Dies kann zu einem erschwerten Wasserzugang für Millionen von Menschen führen und hat tiefgreifende Auswirkungen auf das Ökosystem Fluss.“

Unter der Leitung des Doktoranden Mathis Messager, McGill Universität in Montreal, zeigt Tockner gemeinsam mit internationalen Kolleg*innen in der heute veröffentlichten Nature-Studie, dass weltweit in 51 bis 60 Prozent der Flüsse an mindestens einem Tag im Jahr kein Wasser fließt. In besonders trockenen Gebieten der Erde, wie in Indien, Westaustralien oder der afrikanischen Sahelzone, sind es laut der Modellierungen sogar 99 Prozent der Fließgewässer. „Aber auch in den kühlgemäßigten und feuchten Klimazonen trocknen fast 30 Prozent der Fließgewässer immer wieder aus. Unter Berücksichtigung kleiner Bäche sind es dort sogar mehr als die Hälfte der Wasserläufe. Mit anderen Worten: Flüsse, die – zumindest temporär – trockenfallen sind eher die Regel als die Ausnahme auf der Erde“, fügt der Gewässerökologe hinzu. Regionale Beispiele hierfür sind der Urselbach, ein etwa 16 Kilometer langes Gewässer, das im Vordertaunus entspringt und durch Frankfurt führt, sowie die Weil, ein Zufluss der Lahn, welche im vergangenen Sommer trockenfielen. Tockner ergänzt: „Natürlich trockenfallende Gewässer sind wertvolle und einzigartige Lebensräume, aber trocknet ein permanent wasserführender Bach oder Fluss aus, dann hat das massive Auswirkungen auf die Natur und schlussendlich den Menschen.“

Anhand von hydrologischen, klimatischen, bodenkundlichen und geologischen Daten von 5615 Messstationen konnten die Forscher*innen zeigen, dass trockenfallende Flüsse auf allen Kontinenten und in allen Klimazonen zu finden sind. „Das hat weitreichende Konsequenzen für die Erforschung und den Schutz von Fließgewässern“, erklärt Tockner und fährt fort: „Um die zukünftigen Auswirkungen des Klima- und Landschaftswandels auf diese Ökosysteme und ihre Arten verstehen zu können, müssen wir das Trockenfallen der Flüsse als einen zentralen Parameter berücksichtigen.“ Zukünftig werden laut den Forschenden nicht nur die Hochwässer zunehmen, sondern insbesondere auch die Austrocknung der Gewässer.

Laut der Studie ist der nächstgelegene Bach oder Fluss für 52 Prozent der Weltbevölkerung nicht durchgängig wasserführend. Der Gewässerökologe ist sich sicher, dass die neuen Ergebnisse helfen werden, die Flüsse nachhaltiger zu bewirtschaften und damit auch die Menschen, die für ihren Lebensunterhalt und ihre Kultur direkt auf diese Ökosysteme angewiesen sind, zu schützen. „Wir können nun zeigen wo und dass Fließgewässer nicht immer fließen, in einem nächsten Schritt möchten wir untersuchen, wann und wie lange diese Trockenzeiten heute und in Zukunft auftreten und was bedeutet es für Natur und Mensch“, gibt Tockner einen Ausblick.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Klement Tockner
Generaldirektor der Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1214
klement.tockner@senckenberg.de

Originalpublikation:
Messager, M.L., Lehner, B., Cockburn, C. et al. Global prevalence of non-perennial rivers and streams. Nature 594, 391–397 (2021). https://doi.org/10.1038/s41586-021-03565-5

(nach oben)


Schlaf trägt möglicherweise zur besseren Wirksamkeit einer Impfung und zu einer verbesserten Immunabwehr bei

Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)
Ein ausreichender und erholsamer Schlaf hat einen positiven Effekt auf das Immunsystem, kann vielleicht sogar Infekten vorbeugen und kann dienlich für die Genesung sein. Zunehmend klar wird, dass Schlaf auch eine wichtige Rolle in der Immunantwort nach einer Impfung hat. Schlafhygienische Maßnahmen sind deshalb nicht nur ein wichtiges Instrument für eine möglicherweise bessere Wirksamkeit einer Impfung, sondern tragen auch allgemein zu einer verbesserten Immunabwehr bei.

In dem Sprichwort „Schlaf ist die beste Medizin“ steckt viel mehr Wahrheit als man zunächst vermuten würde. Dass Schlaf in engem Zusammenhang mit einem funktionierenden Immunsystem steht, ist unumstritten, auch wenn die Zusammenhänge dieser beiden sehr komplexen Systeme sicherlich bisher nur in Ansätzen verstanden werden. Dabei sind die Verbindungen zwischen Schlaf und Immunsystem bidirektional, das heißt, dass auf der einen Seite eine Aktivierung des Immunsystems, z.B. im Rahmen eines Infektes, den Schlaf beeinflussen kann, aber auch andersherum der Schlaf wesentlich für eine funktionierende Immunabwehr ist. Die Aktivierung des Immunsystems während eines Infektes oder auch bei chronisch entzündlichen Erkrankungen kann sowohl zu einem erhöhten Schlafbedürfnis mit einer erhöhten Schlafdauer und -intensität, aber auch zu einer Schlafstörung mit vermindertem oder fragmentiertem Schlaf führen.

Ein ausreichender und erholsamer Schlaf hat einen positiven Effekt auf das Immunsystem, kann vielleicht sogar Infekten vorbeugen und kann dienlich für die Genesung sein. Man nimmt an, dass der Schlaf wesentlich dafür verantwortlich ist, ein Gleichgewicht von während des Wachens anfallenden Entzündungsmediatoren wiederherzustellen und bestimmte Funktionen des Immunsystems in Gang zu setzen, die für die Abwehr eines Infektes notwendig sind. Schlaf ist somit für das Immunsystem keineswegs ein passiver Zustand, sondern das Gehirn und Körper sind hoch aktiv während dieses besonderen Zustands. Es ist bereits gut bekannt, dass Schlafmangel einen negativen Einfluss auf das Immunsystem hat und das Risiko von Infektionen erhöht. In ersten Untersuchungen zu COVID-19 hatten Betroffene mit einem schweren COVID-19-Verlauf häufiger bereits schwerwiegendere Schlafstörungen auch schon vor der Erkrankung.

Bei einer Impfung soll bewusst eine Immunreaktion ausgelöst werden. Bisher gibt es nur wenige Studien, die den Zusammenhang von Schlaf, Immunreaktion und die Wirkung von Impfungen im Zusammenhang von Schlaf untersucht haben. Diese Studien zeigen bisher keine eindeutigen Befunde und sind möglicherweise auch in Abhängigkeit der spezifischen Impfung unterschiedlich. Der Schlaf kann in der ersten Nacht nach einer Impfung beeinträchtigt sein. Bei Untersuchungen von gesunden Probanden, die eine Hepatitis A bzw. eine Impfung gegen das Influenza A-Virus bekommen hatten, konnte gezeigt werden, dass diese Schlafstörungen jedoch nur sehr mild ausgeprägt waren. Anderseits konnte aber nachgewiesen werden, dass die Intensität von Tiefschlaf nach einer Impfung Einfluss auf die Zahl der gebildeten Antikörper hatte. Die Mechanismen, die hierbei eine Rolle spielen, sind sehr komplex und das Wissen der Zusammenhänge wächst. „Zunehmend klar wird, dass Schlaf auch eine wichtige Rolle in der Immunantwort nach einer Impfung hat. Ob diese Daten auf eine Corona-Impfung übertragbar sind, ist bisher zwar nicht bestätigt, aber sehr gut möglich. Sicher ist, dass man vor und nach einer Impfung aktiv auf einen ausreichenden und erholsamen Nachtschlaf achten sollte. Schlafhygienische Maßnahmen sind deshalb nicht nur ein wichtiges Instrument für eine möglicherweise bessere Wirksamkeit einer Impfung, sondern tragen auch allgemein zu einer verbesserten Immunabwehr bei“, betont Dr. med. Anna Heidbreder, Mitglied des DGSM-Vorstands und Oberärztin in der Universitätsklinik für Neurologie der Medizinischen Universität Innsbruck. Schlaf ist also nicht nur die „beste Medizin“, sondern hat sogar präventive Funktionen.

Dieses Thema wird zur Pressekonferenz des DGSM-Aktionstages Erholsamer Schlaf gemeinsam mit weiteren spannenden Aspekten unter dem Motto „Schlaf in Zeiten von Covid-19“ am 18. Juni 2021 von schlafmedizinischen Experten weiter erläutert. Die Pressekonferenz findet online in der Zeit von 10.00-11.00 Uhr statt. Dazu möchten wir interessierte Medienvertreter recht herzlich einladen! Bitte melden Sie sich beim Pressekontakt an und Sie erhalten die Zugangsdaten zur Pressekonferenz zugesandt.

Pressekontakt:
Conventus Congressmanagement & Marketing GmbH
Romy Held
Mobil: 0173/5733326
E-Mail: romy.held@conventus.de

Weitere Informationen:
http://www.dgsm.de
http://www.dgsm.de/gesellschaft/aktionstag/aktionstag-2021

(nach oben)


Positionspapier: Herausforderungen einer nationalen Wasserstrategie in Forschung und Umsetzung

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Wassersicherheit für Mensch und Natur ist ein Grundpfeiler nachhaltiger Politik. Die Water Science Alliance, in der sich die deutsche Wasserforschung disziplinenübergreifend zusammengeschlossen hat, begrüßt deshalb die jüngst vorgestellte Nationale Wasserstrategie des Bundesumweltministeriums, insbesondere ihre Prinzipien der Inte- gration, Vorsorge und Orientierung am natürlichen Wasserhaushalt. Die Umsetzung der Strategie erfordert innovative Konzepte basierend auf wissenschaftlichen Erkenntnissen. Schlüssel zum Erfolg ist dabei ein offener, systematischer Dialog unter Beteiligung aller relevanten Nutzergruppen, der öffentlichen Verwaltung, der Politik und der Wissenschaft.

Der Druck auf Wasserressourcen und Gewässer steigt kontinuierlich – in Deutschland ebenso wie weltweit. Wasser wird für Menschen und Ökosysteme knapp und gerät bei hohen Niederschlägen außer Kontrolle. Belastungen von Grund- und Oberflächenwasser durch Schad- und Fremdstoffe werden zunehmend komplex. Die Folgen sind eine immer aufwendiger werdende Wasseraufbereitung und -versorgung, vermehrte Schäden an lnfrastrukturen und degradierte Gewässer mit eingeschränkter ökologischer Funktionalität.

Die in einem langen Prozess mit Bürger- und Expertenbeteiligung erarbeitete und am 8. Juni 2021 vorgestellte Nationale Wasserstrategie greift diese Herausforderungen auf. Sie spiegelt die nicht nur in der Bundespolitik gereifte Erkenntnis, dass neben einer klugen Klima- und Biodiversitätspolitik eine gesamtheitliche Wasserstrategie als tragende Säule der nachhal- tigen Entwicklung im 21. Jahrhundert unverzichtbar ist.

Die Deutsche Wasserforschungsallianz (WSA) begrüßt die Eckpunkte der Nationalen Was- serstrategie und die damit verbundene Initiative der Bundespolitik, das Wasser- und Gewäs- sermanagement strategisch anzugehen. Die Empfehlung der WSA für Politik und Verwaltung lautet deshalb, die Nationale Wasserstrategie in der kommenden Legislaturperiode mit Mut und Weitsicht auszugestalten und umzusetzen. Integration, Orientierung am natürlichen Wasserhaushalt und Vorsorge als Kernpunkte der Strategie sind elementar für eine erfolg- reiche Wasserpolitik der Zukunft. Das Management von Wasserressourcen und Gewässern muss deshalb als Querschnittsaufgabe organisiert und dabei eine konsequent integrative Perspektive eingenommen werden. Dies erfordert neue konzeptionelle Ansätze und Koope- rationen – eingebettet in eine solide Wissens- und Datenbasis über natürliche und techni- sche Wassersysteme und deren Interdependenzen.

Die von der Politik formulierten Ziele sind in ihrer Gesamtheit begrüßenswert ambitioniert. Übergeordnetes Ziel ist, Wassersicherheit gleichermaßen für die menschliche Nutzung und die Gewässerökosysteme zu gewährleisten. Die Vision muss dabei ein Null-Defizit-Ziel sein:
D.h. Eingriffe in Wassersysteme sind nur dann vertretbar, wenn Ökosystemfunktionen erhal- ten oder verbessert werden. Dieses Prinzip macht radikal neue Ansätze und Prioritäten für das Wasser- und Gewässermanagement erforderlich, nicht nur aus technischer Sicht, son- dern auch um Zielkonflikte zu minimieren und zu lösen. Politik und öffentliche Verwaltung müssen sich auf diese Herausforderungen einstellen.

Leitidee ist eine Systemperspektive, die der multisektoriellen Funktion von Wasser gerecht wird:
• Das Management von Wasserressourcen und Gewässern muss Kriterien folgen, die sich gleichzeitig am Wohl des Menschen, am Erhalt der Biodiversität und an der Gewährleistung funktionierender Ökosysteme orientieren.
• Wassermengenwirtschaft, Wasser- und Gewässerqualität bedürfen einer konsequent integrativen Betrachtung.
• Werkzeuge für die Wasserplanung bedürfen einer kohärenten und integrativen Sicht auf Wassersysteme jenseits der heutigen Betrachtung einzelner Teile des Wasserkreislaufs, Infrastrukturen und Gewässer.
• Kurz- und langfristige Prognosen müssen angesichts des rasch fortschreitenden Klimawandels deutlich verbessert werden bei gleichzeitig hoher regionaler und jahreszeitlicher Differenzierung.

Aus diesen Anforderungen leitet sich die Notwendigkeit ab, neue Konzepte und quantitative Werkzeuge des Wassermanagements zu entwickeln. Sie sind verbunden mit hohen Ansprü- chen an die Qualität und Quantität der zu erhebenden Daten sowie an die verwendeten Modelle und ihre konzeptionelle und datentechnische Kompatibilität. Dabei müssen sowohl moderne Methoden der Datenwissenschaften als auch – wie in der Klimaforschung – leis- tungsfähige Modell-Ensembles für die Entwicklung von Vorhersagen und Szenarien mit quantitativen Angaben zur Modellunsicherheit entwickelt werden. Die Einsetzbarkeit dieser Werkzeuge muss ferner über weite Bereiche der räumlichen und zeitlichen Skalen gewähr- leistet sein.

Als ein zentrales Instrumentarium für die Erarbeitung unmittelbar praxistauglichen Wissens sieht die WSA darüber hinaus die Einrichtung von Reallaboren. Sie erlauben es, die Gesamt- heit der Einflussfaktoren und Wechselwirkungen in Gewässern und ihren Einzugsgebieten zu beurteilen. Das schließt menschliche Aktivitäten ein. Reallabore verknüpfen darüber hinaus Wissen über Wassersysteme aus allen relevanten Bereichen mit konkreten Planungsansät- zen. Reallabore sind datengestützt und lassen sich als ‚Digitale Zwillinge‘ realer Einzugsgebie- te mit allen wichtigen Teilkomponenten virtuell in Modellsystemen abbilden. Darauf aufbau- end können komplexe Szenarien, Entscheidungsräume und Dialogprozesse entwickelt und dargestellt werden.

Trotz großer Fortschritte weist modernes integriertes Wassermanagement noch viele kon- zeptionelle Wissens- und Datenlücken auf, die die erfolgreiche Umsetzung der Nationalen Wasserstrategie behindern. Diese Lücken können durch ein langfristig angelegtes Wasserfor- schungs- und Entwicklungsprogramm geschlossen werden, das die schrittweise Umsetzung der Strategie unterstützt. Ein solches Aktionsprogramm müsste aus der Systemperspektive heraus formuliert, disziplinenübergreifend organisiert und zwischen der durch die wissen- schaftlichen Fachverbände vertretenen Wasserforschungsgemeinschaft, der öffentlichen Verwaltung und der Politik abgestimmt sein.

Für dringend erforderlich erachtet die Deutsche Wasserforschungsallianz aus diesem Grund ein ‚Forschungsbegleitprogramm Nationale Wasserstrategie‘. Aktuelle nationale und regio- nale Forschungsprogramme liefern dazu wichtige Elemente. Sie greifen aber allein zu kurz. Grund ist, dass sie die in der Nationalen Wasserstrategie erkannte Bedeutung der quanti- tativen Abbildung der zentralen Prozesse aus einer Gesamtsystemperspektive heraus nicht angemessen widerspiegeln. Erfolgversprechende Ansätze ähnlich ambitionierter nationaler Initiativen zur Stärkung der Forschung jenseits von Fachgrenzen, Ressortzuständigkeiten und Bund-Ländergrenzen existieren bereits in anderen Bereichen hoher Dringlichkeit.

Die Wasserforschung in Deutschland ist mit ihrem Innovationspotenzial und gebündelten Wissen bestens gerüstet, Partner in Behörden und Politik zu unterstützen, um den großen Herausforderungen im Wassermanagement zu begegnen. Dies gilt für die universitäre, die außeruniversitäre und die Ressortforschung gleichermaßen. Gemeinsam müssen sie die bes- ten Köpfe mobilisieren, um den aktuellen Wissensstand und neueste konzeptionelle und methodische Entwicklungen in ein gesamtheitliches Systemverständnis einzubringen. Dafür stehen in Deutschland profunde Prozesskenntnisse und ein umfangreiches Methoden- spektrum zur Verfügung, das von der molekularen Analytik der Wasserinhaltsstoffe bis zur Echtzeitüberwachung hydrologischer, chemischer und ökologischer Systemgrößen im Ein- zugsgebietsmaßstab reicht.

Die Water Science Alliance (WSA) – die Deutsche Wasserforschungsallianz – wurde 2013 als gemeinnütziger Verein gegründet. Sie hat sich zum Ziel gesetzt, die in mehr als zehn Fachdisziplinen agierende und kleinteilig strukturierte Wasserforschung Deutschlands zu- sammenzuführen, disziplinenübergreifende Forschungsthemen zu identifizieren und zu fördern, sowie Potenziale der Integration zu erschließen. Anlässlich der diesjährigen Konfe- renz der Wasserforschungsallianz am 15. und 16. Juni 2021 wurden das Strategierahmen- papier der WSA ‚Wassersysteme im Wandel – Herausforderungen und Forschungsbedarfe für die Deutsche Wasserforschung‘ vorgestellt und verabschiedet.

Diese Pressemitteilung wird vom UFZ stellvertretend für alle anderen beteiligten Institutionen verschickt.

Wissenschaftliche Ansprechpartner:
Prof. Mark Gessner
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
gessner@igb-berlin.de

Prof. Peter Krebs
Technische Universität Dresden
peter.krebs@tu-dresden.de

Prof. Florian Leese
Universität Duisburg-Essen
florian.leese@uni-due.de

Prof. Stefan Peiffer
Universität Bayreuth
s.peiffer@uni-bayreuth.de

Prof. Georg Teutsch
Helmholtz-Zentrum für Umweltforschung (UFZ)
gf@ufz.de

Originalpublikation:
Strategie-Rahmenpapier der Water Science Alliance, veröffentlicht am 14. Juni 2021: https://zenodo.org/record/4923068

Weitere Informationen:
https://www.watersciencealliance.org/

(nach oben)


Weniger sozialer Zeitdruck fördert den Schlaf und das Wohlbefinden

Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)
Die pandemiebedingten sozialen Einschränkungen, die wir in den letzten 14 Monaten erleben mussten, sind ein weltweites soziales „Experiment“. Wie sich die Zeit des Lockdowns insbesondere auf den Schlaf und die damit verbundenen täglichen Abläufe auswirkte, untersuchte eine Arbeitsgruppe der LMU München. Es konnte festgestellt werden, dass die sozialen Einschränkungen tiefgreifende Auswirkungen auf das zirkadiane Timing und den Schlaf hatten.

Die Arbeitsgruppe um Prof. Dr. Till Roenneberg vom Institut für Medizinische Psychologie führte zwischen dem 4. April und dem 6. Mai 2020 eine globale Chrono-Corona-Umfrage durch, bei der 11.431 Erwachsene aus 40 Ländern nach ihrem Schlaf-Wach-Verhalten und verschiedenen Aspekten des Wohlbefindens befragt wurden. Alle Fragen wurden vor und während des Lockdown separat gestellt. Die endgültige Stichprobe bestand aus 7.517 Befragten (68,2% Frauen), die im Durchschnitt knapp 33 Tage im Lockdown waren. „Die Schlafmitte an Arbeitstagen verzögerte sich durchschnittlich um 50 Minuten und an freien Tagen um 22 Minuten. Die Schlafdauer am Arbeitstag wurde um 26 Minuten erhöht und an freien Tagen um 9 Minuten verkürzt“, berichtet Till Roenneberg.

Die Regulierung des menschlichen Schlafes ist mit drei Uhren verbunden, der zirkadianen Uhr, der Sonnenuhr und der sozialen Uhr (Schule/Arbeit und Mahlzeiten). Zirkadiane Uhren werden überwiegend von der Sonnenuhr gesteuert und die Diskrepanz zwischen der zirkadianen und der sozialen Uhr wird als sozialer Jetlag bezeichnet. Dieser nahm laut der Studie während des Lockdown um rund 30 min ab. Bei den meisten Menschen näherten sich die Schlaf-Wach-Zeiten während der sozialen Einschränkungen denen vorm Lockdown an. Änderungen der Schlafdauer und des sozialen Jetlags wurden beeinflusst von der Verwendung von Weckern im Lockdown und waren bei jungen Erwachsenen größer. Der Aufenthalt im Freien und die damit verbundene Lichtexposition reduzierte sich infolge der sozialen Einschränkungen bei den Studienteilnehmern um 50% (2,35 h auf 1,13 h), was sich auf das Schlaf-Wach-Verhalten und verschiedene Aspekte des Wohlbefindens auswirkte. „Das schließt selbstbewertete Schlafqualität, Lebensqualität, körperliche Aktivität, Produktivität und Bildschirmzeit ein, wobei längere Bildschirmzeit eindeutig als schlechter angesehen wurde“, erklärt Roenneberg. Obwohl sich all diese Aspekte im Durchschnitt verschlechterten, berichteten viele Teilnehmer über keine Änderungen oder sogar Verbesserungen. Waren die Befragten weniger im Freien, wurde das mit negativerem Wohlbefinden (mit Ausnahme der Produktivität) verbunden und beeinflusste auch Verzögerungen der Schlafmitte, jedoch nicht der Schlafdauer.

„Unsere Ergebnisse deuten auf ein massives Schlafdefizit unter sozialem Zeitdruck vor der Pandemie hin, geben Aufschluss über den tatsächlichen Schlafbedarf verschiedener Altersgruppen und legen nahe, dass ein sozialer Jetlag bis 20 min toleriert wird. Ein entspannterer sozialer Zeitdruck fördert somit mehr Schlaf, weniger sozialen Jetlag und eine geringere Nutzung des Weckers. Lockdown-bedingte Veränderungen des Wohlbefindens werden durch Sonnenlichtexposition im Freien beeinflusst, so dass mehr Zeit bei Tageslicht zu einer höheren psychischen (z. B. subjektiven Lebensqualität) und körperlichen (z. B. körperliche Aktivität und Schlafqualität) Belastbarkeit beitragen kann“, fasst Prof. Roenneberg zusammen.

Dieses Thema wird zur Pressekonferenz anlässlich des DGSM-Aktionstages Erholsamer Schlaf gemeinsam mit weiteren spannenden Aspekten unter dem Motto „Schlaf in Zeiten von Covid-19“ am 18. Juni 2021 von schlafmedizinischen Experten weiter erläutert. Die Pressekonferenz findet online in der Zeit von 10.00-11.00 Uhr statt. Dazu möchten wir interessierte Medienvertreter recht herzlich einladen! Bitte melden Sie sich beim Pressekontakt an und Sie erhalten die Zugangsdaten zur Pressekonferenz zugesandt.

Wünschen Sie weitere Informationen zum DGSM-Aktionstag Erholsamer Schlaf am 21. Juni oder allgemein zum Thema Schlaf, so wenden Sie sich sehr gern ebenfalls an den Pressekontakt. Selbstverständlich unterstützen wir Sie auch bei Ihrer Berichterstattung und Experten der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin stehen Ihnen als Gesprächspartner für Interviews zur Verfügung!

Pressekontakt:
Conventus Congressmanagement & Marketing GmbH
Romy Held
Mobil: 0173/5733326
E-Mail: romy.held@conventus.de

Originalpublikation:
„Lock the Clock: The Effects of Social Restrictions on Daily Timing, Sleep and Wellbeing“
Maria Korman1 and Till Roenneberg2-4
1Dept. of Occupational Therapy, Faculty of Health Sciences, Ariel University, Ariel, Israel
2Institute and Polyclinic for Occupational-, Social- and Environmental Medicine, LMU Munich, Munich, Germany; 3Institute for Medical Psychology, LMU Munich, 4Chronsulting UG, Germany

Weitere Informationen:
https://www.dgsm.de/gesellschaft/aktionstag/aktionstag-2021

(nach oben)


Einkommen, Vermögen, Aufstiegschancen: Wie die Deutschen Ungleichheit (miss-)verstehen

Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
Konstanzer Forschende zeigen mit dem ‚Ungleichheitsbarometer‘: Die deutsche Bevölkerung schätzt das Ausmaß von Ungleichheit oftmals falsch ein und unterschätzt insbesondere Vermögensungleichheit. Das hat auch politische Konsequenzen.

„Die Mitte“ ist in Deutschland in den letzten Jahrzehnten zum Ideal der politischen und sozialen Geometrie geworden. Ein Großteil der Bevölkerung ordnet sich selbst der Mittelschicht zu, obwohl das Ausmaß von ökonomischer Ungleichheit in Deutschland weiterhin beträchtlich ist und tendenziell zunimmt – dies zeigen neue Befragungsdaten des Konstanzer ‚Ungleichheitsbarometers‘. Die individuellen Wahrnehmungen der Verteilung von Einkommen und Vermögen, aber auch der eigenen Aufstiegschancen, weichen erheblich von der Realität ab – mit deutlichen Auswirkungen auf politische Prozesse.

Der Exzellenzcluster „The Politics of Inequality“ finanziert mit dem „Ungleichheitsbarometer“ ein Projekt, in dem die Wahrnehmungen von Ungleichheit und damit zusammenhängende politische Einstellungen in regelmäßigen Abständen erhoben und untersucht werden. In Zusammenarbeit mit dem Berliner Think Tank “Das Progressive Zentrum” werden nun erste Ergebnisse der ersten Befragungswelle veröffentlicht.

Prof. Dr. Marius R. Busemeyer, Sprecher des Exzellenzclusters und einer der Autoren der Studie, fasst zusammen: „Ungleichheit bleibt eine der zentralen Herausforderungen unserer Zeit. Das ‚Ungleichheitsbarometer‘ zeigt, wie die deutsche Bevölkerung dieses Problem wahrnimmt und welche Lösungen sie sich von der Politik erhofft.“ Die Wahrnehmung (und Fehlwahrnehmung) von Ungleichheit hat unmittelbar politische Konsequenzen: Das Ausmaß, in dem Menschen Ungleichheit als Problem wahrnehmen, beeinflusst ihre politischen Präferenzen und damit letztlich auch politisches Handeln.

Prof. Dr. Wolfgang Schroeder, Vorsitzender des wissenschaftlichen Beirats des Progressiven Zentrums, betont die Wichtigkeit dieser Forschung für die öffentliche Debatte: „Damit wir auch in Zukunft gemeinsam gut in Deutschland leben können, brauchen wir eine intensivere öffentliche Debatte über soziale Ungleichheit und wir müssen evidenzbasierte Lösungswege entwickeln. Daher freuen wir uns, dass durch dieses Forschungsprojekt eine wissenschaftliche Grundlage dafür geschaffen wird.“
Das Policy Paper mit ersten Ergebnissen ist auf der Webseite des Progressiven Zentrums verfügbar https://www.progressives-zentrum.org/wenn-alle-denken-sie-seien-teil-der-mittels…
Die wichtigsten Ergebnisse aus dem Policy Paper im Überblick:

Mehrheit wünscht eine gleichere Gesellschaft
Die Bevölkerung nimmt insgesamt eine hohe Ungleichheit im Land wahr, sowohl bei Einkommen und Vermögen als auch auf anderen Gebieten. Diese Wahrnehmungen sind jedoch häufig verzerrt. So ordnet sich ein Großteil der Bevölkerung der Mittelschicht zu, das heißt, Reiche unterschätzen ihre relative Einkommensposition und Arme überschätzen sie. Dadurch wird das Gesamtausmaß von Einkommensungleichheit unterschätzt. Gleichzeitig sehen die Befragten die Gesamtverteilung von Ressourcen wie Einkommen und Vermögen als sehr ungleich an; rund 77 Prozent wünschen sich eine egalitärere Gesellschaft.

Vermögensungleichheit wird unterschätzt
72 Prozent der Befragten halten den Einkommensunterschied zwischen den zehn Prozent Deutschen mit dem höchsten und zehn Prozent mit dem niedrigsten Einkommen für „sehr groß“. die Vermögensunterschiede in den gleichen Segmenten hält mit 65 Prozent der Befragten ein geringerer Anteil für „sehr groß“. Aber: Die Ungleichheit bei den Vermögen ist fast dreimal größer als die bei den Einkommen. Dennoch werden die Unterschiede bei den Einkommen deutlich schärfer wahrgenommen.

Aufstiegschancen werden pessimistisch gesehen
Rund die Hälfte der Befragten glauben nicht an Aufstiegsversprechen. Ein Drittel der Befragten hat, im Vergleich zu den Eltern, bereits konkrete Abstiegserfahrungen erlebt. Rund 20 Prozent bewegen sich nach ihrer Einschätzung in etwa auf dem Einkommens- und Vermögensniveau der Eltern im gleichen Alter. Insgesamt werden die Chancen für einen sozialen Aufstieg für Angehörige der unteren Einkommensklassen eher pessimistisch beurteilt: Fast 38 Prozent der Befragten gehen davon aus, dass Kinder aus der niedrigsten Einkommensgruppe auch in dieser Gruppe verbleiben werden.

Politische Implikationen
Die verzerrten Wahrnehmungen von Ungleichheit haben konkrete politische Implikationen. Die Tatsache, dass das Ausmaß von Ungleichheit tendenziell unterschätzt wird, mindert die Unterstützung für Umverteilungspolitik, wie z.B. Vermögens- oder Erbschaftssteuern, aber auch höhere Einkommenssteuern. Die pessimistische Einschätzung von Aufstiegschancen könnte Politikverdrossenheit und die Unterstützung für rechtspopulistische Parteien befördern. Die Forschenden machen in ihrem Policy Paper mehrere Vorschläge, wie die Politik auf ihre Befunde reagieren könnte. Sie regen insbesondere besser informierte öffentliche Debatten an, um das öffentliche Bewusstsein für das reale Ausmaß von Ungleichheit in verschiedenen Dimensionen zu schärfen. Die Menschen müssten in die Lage versetzt werden, abstrakte Vorstellungen von Ungleichheit besser auf ihre konkrete Lebenssituation zu beziehen. Dazu bedürfe es auch mehr öffentlicher Räume, in denen Menschen mit unterschiedlichem Hintergrund in einen Austausch treten.

Faktenübersicht:
• Aktuelle Publikation: Luna Bellani, Nona Bledow, Marius R. Busemeyer, Guido Schwerdt: Wenn alle Teil der Mittelschicht sein wollen: (Fehl-)Wahrnehmungen von Ungleichheit und warum sie für Sozialpolitik wichtig sind. Policy Papers: COVID-19 und soziale Ungleichheit – Thesen und Befunde 06. 26. Mai 2021. Herausgeber: Exzellenzcluster „The Politics of Inequality“ der Universität Konstanz und Das Progressive Zentrum, Berlin.
Download: https://www.progressives-zentrum.org/wenn-alle-denken-sie-seien-teil-der-mittels…
• Exzellenzcluster „The Politics of Inequality“: https://www.ungleichheit.uni.kn/; Projektwebseite: https://www.ungleichheit.uni.kn/forschung/projekte/inequality-barometer/
• „Das Progressive Zentrum“ ist ein unabhängiger und gemeinnütziger Think-Tank mit dem Ziel, die Vernetzung progressiver Akteurinnen und Akteure zu fördern und Politik für ökonomischen und gesellschaftlichen Fortschritt mehrheitsfähig zu machen. Sitz in Berlin, Aktivitäten in vielen Ländern Europas (u. a. Frankreich, Polen, Großbritannien) sowie in den USA.
• Dr. Luna Bellani ist Mikroökonomin und Principal Investigator am Exzellenzcluster „The Politics of Inequality”, wo sie eine Arbeitsgruppe leitet. Ihre Forschungsinteressen umfassen Inter-Generationen-Mobilität in Bezug auf Einkommen und Bildung, politische Umverteilungsökonomie sowie Haushalts- und Gender-Ökonomie.
• Nona Bledow ist Politikwissenschaftlerin und forscht am Exzellenzcluster „The Politics of Inequality” an der Universität Konstanz. Ihre Forschungsinteressen gelten der politischen Ökonomie und dem Wohlfahrtsstaat, Gewerkschaften und Arbeitsmarktpolitik, politischer Entwicklungsökonomie und politischer Theorie und Philosophie.
• Marius R. Busemeyer ist Professor für Politikwissenschaft mit dem Schwerpunkt Vergleichende Politische Ökonomie an der Universität Konstanz und Sprecher des Exzellenzclusters „The Politics of Inequality“. Seine Forschungsschwerpunkte liegen im Bereich der Wohlfahrtsstaatenforschung, Bildungs- und Sozialpolitik, Theorien des institutionellen Wandels sowie der Digitalisierung.
• Guido Schwerdt ist Professor für Public Economics sowie Principal Investigator und Mitglied des Erweiterten Vorstands am Exzellenzcluster „The Politics of Inequality“ an der Universität Konstanz. In seine Forschung konzentriert er sich auf Politikevaluierung, Bildungs- und Arbeitsmarktökonomie sowie Public Economics.

Wissenschaftliche Ansprechpartner:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

(nach oben)


Geplante Maßnahmen des Nationalen Hochwasserschutzprogramms sind wirksam

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Simulationen zeigen: Große Hochwasser an Donau, Elbe und Rhein könnten zukünftig im Ernstfall beträchtlich gesenkt werden. BfG und UBA veröffentlichen Ergebnisse des gemeinsamen Forschungsprojekts.

Ein besserer überregionaler Hochwasserschutz ist möglich. Das zeigen die Ergebnisse eines fünfjährigen Forschungsvorhabens der Bundesanstalt für Gewässerkunde (BfG) im Auftrag des Umweltbundesamts (UBA), in dem die Wirksamkeit der geplanten Maßnahmen im Nationalen Hochwasserschutzprogramm (NHWSP) an Donau, Elbe und Rhein überprüft wurden. Demnach könnten durch die Maßnahmen die Pegelstände zukünftiger großer Hochwasser über weite Streckenabschnitte zwischen 10 und 50 cm reduziert werden – unter bestimmten Umständen sogar deutlich mehr. Insgesamt zeigen die NHWSP-Maßnahmen in allen drei Flussgebieten eine deutliche überregionale Wirksamkeit. Zu den knapp 70 untersuchten Maßnahmen zählen Deichrückverlegungen, Hochwasserrückhaltebecken und Flutpolder, die den Flüssen Ausbreitungsraum geben können und teilweise beträchtliche Volumina der Hochwasserwelle aufnehmen sowie zurückhalten können.

Die verheerenden Hochwasser im Sommer 2013 an Donau und Elbe sind vielen Menschen im Gedächtnis geblieben. Mit dem Nationalen Hochwasserschutzprogramm von Bund und Ländern sollen Flussanlieger künftig besser vor solchen Ereignissen geschützt und mögliche Schäden zukünftiger Hochwasser verringert werden. Ziel des Programms ist es, die Umsetzung großräumiger, überregional wirksamer Hochwasserschutzmaßnahmen der Länder zu beschleunigen. So stellt der Bund derzeit für die Raum gebenden Maßnahmen des NHWSP jährlich bis zu 100 Millionen Euro finanzielle Mittel zur Verfügung und beteiligt sich an den Kosten der gemeldeten Hochwasserschutzmaßnahmen der Länder.

In ihrer Untersuchung analysierten die Forscherinnen und Forscher die Maßnahmen mithilfe großräumiger mathematischer Modelle. In enger Zusammenarbeit und Abstimmung mit den Ländern wurden dabei gemeinsame Modellsysteme für die Flussgebiete aufgebaut, ein bundesweit einheitlicher Untersuchungsansatz entwickelt und vergleichbare Wirkungsanalysen parallel in den drei größten deutschen Flussgebieten durchgeführt.

Die Ergebnisse der fünfjährigen Forschungs- und Entwicklungsarbeit sind in drei Flussgebietsberichten sowie einem übergeordneten Synthesebericht zusammengefasst.

Wissenschaftliche Ansprechpartner:
Carina Schuh, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5090, E-Mail: schuh@bafg.de

Originalpublikation:
– Flussgebietsbericht Donau | BfG-Bericht 2049: http://doi.bafg.de/BfG/2021/BfG-2049.pdf
– Flussgebietsbericht Elbe | BfG-Bericht 2048: http://doi.bafg.de/BfG/2021/BfG-2048.pdf
– Flussgebietsbericht Rhein | BfG-Bericht 2047: http://doi.bafg.de/BfG/2021/BfG-2047.pdf
– Synthesebericht | UBA-TEXTE 70/2021: https://www.umweltbundesamt.de/publikationen/untersuchungen-zur-ermittlung-der-w…
– Synthesebericht | UBA-TEXTE 70/2021: https://www.umweltbundesamt.de/node/87251/

(nach oben)


Studie: Besonders deutliche Immunantwort bei der Impfstoffkombination von Astrazeneca und Biontech

Friederike Meyer zu Tittingdorf Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Wenn der Impfstoff des Herstellers Astrazeneca bei der Zweitimpfung mit dem Biontech-Wirkstoff kombiniert wird, zeigen die Geimpften eine deutlich stärkere Immunantwort als bei einer doppelten Astrazeneca-Impfung. Diese Abwehrreaktion des Körpers ist sogar auch geringfügig höher als bei einer zweifachen Biontech-Impfung. Zu diesem Ergebnis kommt ein Forscherteam unter Leitung von Immunologie-Professorin Martina Sester an der Universität des Saarlandes. Das Team hat in den vergangenen Wochen die Immunreaktion von 250 Personen im Detail untersucht. Die erst vorläufigen, aber schon vielversprechenden Ergebnisse sind noch nicht wissenschaftlich publiziert.

An der Studie, bei der die Stärke der Immunantwort zwei Wochen nach Abschluss einer vollständigen Impfung bestimmt wurde, haben sich 250 Personen beteiligt. Diese wurden vom Betriebsarzt am Universitätsklinikum des Saarlandes in Homburg in den vergangenen Monaten geimpft. Ein Teil von ihnen hatte eine zweifache Astrazeneca-Impfung oder eine zweifache Impfung der Hersteller Biontech und Pfizer erhalten, den weiteren Probanden wurde mit einem Abstand von neun bis zwölf Wochen eine Kombination aus beiden Impfstoffen – eine sogenannte heterologe Impfung – verabreicht. Einige wenige Personen wurden zudem mit dem Moderna-Impfstoff oder einer Kombination aus Astrazeneca und Moderna geimpft.

„Vor dem Hintergrund, dass die Ständige Impfkommission die heterologe Impfung im März ohne eigentliche Zulassungsstudien empfehlen musste, werden Analysen wie unsere aus dem Labor für Transplantations- und Infektionsimmunologie dringend benötigt. Wir haben bei den geimpften Personen nicht nur untersucht, wie viele Antikörper sie gegen das Coronavirus gebildet haben, sondern wir haben auch die Wirkstärke der sogenannten neutralisierenden Antikörper bestimmt. Diese gibt uns Auskunft darüber, wie gut die Antikörper das Virus davon abhalten, in die Zellen einzudringen“, erläutert Martina Sester, Professorin für Transplantations- und Infektionsimmunologie der Universität des Saarlandes.

Die Analyse der Antikörper-Bildung ergab, dass eine kombinierte Astra-Biontech-Impfung ebenso wie eine zweifache Biontech-Impfung eine wesentlich höhere Wirksamkeit zeigte als eine zweifache Astrazeneca-Impfung. So konnten bei den beiden erstgenannten Varianten etwa zehnmal mehr Antikörper im Blut nachgewiesen werden. „Bei den neutralisierenden Antikörpern zeigte die kombinierte Impfstrategie sogar noch leicht bessere Ergebnisse als eine zweifache Biontech-Impfung“, fasst Martina Sester zusammen.

Darüber hinaus hat das Forscherteam zwei Typen von so genannten T-Zellen unter die Lupe genommen. Die T-Helferzellen unterstützen den menschlichen Körper unter anderem dabei, dass Antikörper gebildet werden. Bei der Vernichtung der infizierten Zellen kommen zudem die T-Killerzellen ins Spiel. Diese sind besonders wichtig, um schwerwiegende Verläufe einer Covid19-Erkrankung zu verhindern.

Bei der Bildung beider Zellarten hatten die Impfstoff-Kombination von Astrazeneca und Biontech sowie die zweifache Biontech-Impfung eindeutig die Nase vorn. Die heterologe Impfung führte bei der Bildung der Killerzellen ähnlich wie bei den neutralisierenden Antikörpern sogar zur stärksten Reaktion. „Hier zeigt sich recht markant, dass die zweifache Astrazeneca-Impfung die Immunabwehr weniger mobilisieren kann als die beiden anderen Varianten. Das bedeutet nicht, dass viele der so geimpften Personen keinen ausreichenden Impfschutz aufweisen, denn die Zulassungsstudie und der Erfolg der Impfkampagnen in vielen Ländern zeigen eine hohe Effektivität der Astrazeneca-Vakzine. Mit einer zweiten Dosis kann jedoch nicht mehr das volle Potential ausgeschöpft werden, das eigentlich in diesem Impfstoff liegt“, erklärt die Immunologin.

Auch wenn die Forscherinnen und Forscher noch nicht alle Daten zur Zellbildung vollständig auswerten konnten, waren sie überrascht von der Eindeutigkeit der Ergebnisse. „Dies ist auch der Grund, warum wir diese jetzt schon mit der Öffentlichkeit teilen wollen und nicht erst das wissenschaftliche Begutachtungsverfahren abgewartet haben“, erläutert Martina Sester. Für die wissenschaftliche Publikation der Studie werden die Forscher ihre Daten noch unter verschiedenen Aspekten auswerten, etwa dem Geschlecht und Alter und der Frage, bei welcher Impfstoff-Kombination die meisten Nebenwirkungen auftraten. „Wir sind der Meinung, dass wenn noch weitere Forscherteams zu ähnlichen Ergebnissen kommen, man intensiv über eine Kombination von Vektor- und mRNA-Impfstoffen nachdenken sollte. Zudem wäre es wichtig für Menschen mit Vorerkrankungen, deren Immunabwehr zum Beispiel durch Medikamente geschwächt ist, zu überprüfen, ob diese nicht spätestens als dritte Impfung eine kombinierte Version bekommen sollten, um ein möglichste breite Immunreaktion des Körpers zu erzeugen“, sagt Immunologie-Professorin Martina Sester.

Die Forschungsarbeit wurde von der saarländischen Landesregierung unterstützt. Ministerpräsident und Wissenschaftsminister Tobias Hans: „Von Beginn der Pandemie an haben wir im Bereich der Forschungsförderung den Schwerpunkt unserer Unterstützungen auf die Erforschung und Bekämpfung des Coronavirus gelegt. Es freut mich besonders, dass das Vorhaben von Professorin Martina Sester nun einen wertvollen Beitrag dazu leistet, die Immunität nach heterologer Impfung zu charakterisieren und vulnerable Gruppen zukünftig noch besser schützen zu können. Dieses Ergebnis zeigt erneut die hohe wissenschaftliche Exzellenz an den Hochschulen unseres Landes.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martina Sester
Transplantations- und Infektionsimmunologie
Universität des Saarlandes/ Universitätsklinikum des Saarlandes
Tel.: 06841 162-3557
E-Mail: martina.sester@uks.eu

Weitere Informationen:
http://www.uniklinikum-saarland.de/de/einrichtungen/kliniken_institute/infektion…

Ergänzung vom 16.06.2021
Der Preprint-Artikel zur Studie wurde jetzt veröffentlicht.
„Immunogenicity and reactogenicity of a heterologous COVID-19 prime-boost vaccination compared with homologous vaccine regimens“:
https://www.medrxiv.org/content/10.1101/2021.06.13.21258859v1

(nach oben)


Schaufenster Bioökonomie: Dünger aus Bioabfällen und häuslichen Abwässern

Florian Klebs Hochschulkommunikation
Universität Hohenheim
Projekt mit Beteiligung der Uni Hohenheim will Nährstoffpartnerschaften zwischen Stadt und Land etablieren und Stoff-Kreisläufe durch moderne Verwertungsverfahren schließen.

Immer knapper werdende Rohstoffe, die Herausforderungen des Klimawandels und eine ständig wachsende Weltbevölkerung: Langfristig führt kein Weg daran vorbei, die vorhandenen Ressourcen nachhaltiger und effizienter zu nutzen. Gelingen kann dies unter anderem, wenn Nähr- und Wertstoff-Kreisläufe in der landwirtschaftlichen Produktion wieder geschlossen werden und alle Rohstoffe und Produkte möglichst lange im Einsatz bleiben. Dazu gehört es auch Reststoffe als wertvolle Rohstoffquelle zu sehen. Mit der Aufgabe, innovative Verwertungsverfahren für Bioabfälle und häusliche Abwässer zu entwickeln und so die Stoff-Kreisläufe zwischen Stadt und Land wieder zu schließen, beschäftigt sich das Kooperationsprojekt RUN. Im Rahmen des BMBF-Programms „Agrarsysteme der Zukunft“ erhalten die Forschungsteams der Universität Hohenheim in Stuttgart rund 680.000 Euro an Fördermitteln. Das macht RUN zu einem Schwergewicht der Forschung.

Rund dreiviertel der Deutschen leben in Städten und verbrauchen dort Lebensmittel, die auf dem Land erzeugt wurden. Auf diese Weise sind Produktionsketten entstanden, bei denen Nähr- und Wertstoffe von einem Ort zum anderen transportiert werden und schließlich zum größten Teil mit Abfällen und Abwasser verloren gehen.

Hier setzt das Kooperationsprojekt RUN an. RUN steht für Rural Urban Nutrient Partnership, also Nährstoffgemeinschaften zwischen Stadt und Land. In diesem interdisziplinären Forschungsprojekt verfolgen Partner aus Wissenschaft und Praxis das langfristige Ziel, Agrarsysteme nachhaltiger und klimafreundlicher zu gestalten und Ressourcen sowie Energie einzusparen.

Das braucht neue technische, städtebauliche und logistische Strukturen, bei denen die Trennung, Aufbereitung, Umwandlung sowie die Rückführung der Nährstoffe in den Kreislauf auf verschiedenen Ebenen Hand in Hand gehen. Aber auch ein verändertes Konsumverhalten der Gesellschaft ist dafür notwendig.

Kreisläufe schließen, Ressourcen schonen, Stadt und Land miteinander verbinden
Kernidee von RUN ist es, aus Bioabfällen und häuslichem Abwasser die darin enthaltenen Nährstoffe zu gewinnen, um aus ihnen Düngemittel oder auch recycelbare Bioplastikfolie und Pflanzenkohle herzustellen. Also Produkte, die in der Landwirtschaft eingesetzt werden können, um zum Beispiel Obst und Gemüse anzubauen.

Dieses wird auf dem Wochenmarkt in der Stadt verkauft, von den Bewohnern verarbeitet und gegessen. Dabei fallen wieder nutzbarer Abfall und Abwasser an. Auf diese Weise entsteht zwischen Landwirten und Stadtbewohnern ein Kreislaufsystem, bei dem wertvolle Nähr- und Wertstoffe mehrfach genutzt werden.

Design-Dünger und Pflanzenkohle im Test
Bevor es jedoch soweit ist, müssen zunächst einmal die notwendigen Techniken entwickelt werden. Dazu testen Forschende von der Universität Stuttgart zunächst in Laborversuchen verschiedene Methoden der Rückgewinnung und Aufbereitung von Bio-Abfällen und häuslichem Abwasser.

Heraus kommen so genannte Design-Dünger und Pflanzenkohle, die anschließend von Dr. Sabine Zikeli vom Zentrum Ökologischer Landbau Universität Hohenheim (ZÖLUH) und ihrem Team untersucht werden: „Als Dünger entstehen vor allem Struvite, die in erster Linie Phosphat, Magnesium und Ammonium enthalten, die dem Klärschlamm entzogen wurden.“

„Die Reste des Klärschlamms werden durch Verkohlung zu Pflanzenkohle. Diese ist sehr porös und kann in ihren Hohlräumen Wasser und Nährstoffe speichern, die sie dann bei Bedarf an die Pflanzen abgibt“, erklärt Dr. Zikeli weiter.

Design-Dünger müssen effizient und sicher sein
Um immer gleichbleibende und kontrollierte Bedingungen zu haben, arbeitet sie im Gewächshaus mit Pflanzen in Töpfen: „Wir nutzen Weidelgras für unsere Versuche. Das hat zum Beispiel gegenüber Salat den Vorteil, dass wir es mehrfach ernten können, denn manche Düngemittel lösen sich im Boden nur langsam auf und geben ihre Nährstoffe erst nach und nach frei.“

Dazu schneiden die Forschenden einfach die Blätter der Pflanzen ab. Das Gras wächst dann einfach nach. So können sie zu verschiedenen Erntezeitpunkten erfassen, wie viel Nährstoffe die Pflanzen aufgenommen haben und wie sich ihre Biomasse verändert hat. Daraus lässt sich die Verfügbarkeit der Nährstoffe berechnen und die Effizienz der Design-Dünger bestimmen. Das Team ermittelt dabei auch, ob eventuell auch unerwünschte Substanzen, wie Schadstoffe, von den Pflanzen aufgenommen werden.

Denn die Design-Dünger müssen natürlich in der Landwirtschaft bedenkenlos eingesetzt werden können. „Struvite haben den Vorteil, dass sie sehr sauber sind und so gut wie keine Verunreinigungen beispielsweise mit Schwermetallen enthalten“, weiß Dr. Zikeli. „Und natürlich unterliegen auch diese Dünger der geltenden Düngemittel-Verordnung.“

Mehrheit der Landwirte sieht Kreislaufidee positiv
Dass das Thema Sicherheit auch eine große Rolle bei den Landwirten spielt, kann auch apl. Prof. Dr. Christian Lippert vom Institut für Landwirtschaftliche Betriebslehre der Universität Hohenheim bestätigen: „Für die Landwirte ist es wichtig, dass der Dünger frei von Schadstoffen, Schwermetallen und bakteriellen Verunreinigungen ist – und natürlich seine Aufgabe erfüllt, Pflanzen mit den notwendigen Nährstoffen zu versorgen.“

„Grundsätzlich steht die Mehrheit der befragten Landwirte der Idee, Nährstoffe aus häuslichem Abwasser und Küchenabfällen zu gewinnen, positiv gegenüber“, so das Resümee eines Workshops zu Projektbeginn. Allerdings blieben auch noch eine Reihe von Fragen zu klären, angefangen bei der Qualität über den Preis bis hin zur gesellschaftlichen Akzeptanz der Dünger. Denn ohne die ließe sich das produzierte Obst und Gemüse nicht verkaufen.

Im Reallabor den Dialog zwischen allen Beteiligten fördern
Aus diesem Grund soll bei RUN nicht ausschließlich in Forschungslaboren geforscht werden, sondern das Projekt soll als Reallabor umgesetzt werden: „Geplant ist eine Recyclinganlage als Pilotanlage und Demonstrator in einem echten Stadtquartier auszuprobieren“, erklärt Carolin Callenius vom Forschungszentrum für Globale Ernährungssicherung und Ökosysteme der Universität Hohenheim. „Damit lassen sich die Laborversuche einerseits in einem größeren Maßstab auf der Ebene eines Stadtquartiers testen und andererseits kann man die Kreislaufidee so unter Echtzeitbedingungen auf deren Praxistauglichkeit hin untersuchen.“

Ausgangspunkt sind die „Grundmaterialien“ häuslicher Bioabfall und häusliche Abwässer. An der Frage nach geeigneten innovativen Logistiksystemen zum Transport der Stoffströme wird noch geforscht. Aussichtsreich scheint aktuell aber, einen Zerkleinerungsapparat für Küchenabfälle direkt in den Haushalten zu installieren und den Abtransport der Abfälle mit Unterdruckleitungen zu lösen. Diese würden dann auch das Abwasser abführen. Für den Stoffstrom von Grünabfällen, die ebenfalls gesammelt und aufbereitet werden sollen, gibt es eine andere Idee: Ein On-Demand Service durch lokale Paketlieferdienste ist dafür angedacht.

Ein zusätzlich eingerichteter Informations- und Erfahrungsraum soll die Forschung von RUN für Bürgerinnen und Bürger erlebbar und begreifbar machen. Hier werden von der Nährstofferzeugung in den Haushalten bis zur Wiederverwendung in der Landwirtschaft alle Aspekte des Nährstoffrecyclings dargestellt und vermittelt. In Dialogveranstaltungen sollen Fragen, Anliegen und Bedürfnisse der Bevölkerung beantwortet werden und in die Projektplanung einfließen.

Eine Pilotanlage mit ergänzendem Erfahrungsraum ist sehr wichtig für den Erfolg des Projekts: Die Kooperationspartner können im stetigen Austausch mit allen Beteiligten, wie Landwirten, Ingenieuren, Stadtplanern, Verwaltungen, Entscheidungsträgern in Ministerien und Bürgern mögliche Bedürfnisse, Anforderungen oder Hemmnisse erkennen, die gegenüber Produkten aus recycelten Abfällen und Abwasser bestehen könnten.

Diese werden dann frühzeitig in die Forschung einbezogen, so dass gesellschaftlich tragfähige Lösungen erarbeitet werden können. Denn am Ende sollen alle einen Nutzen aus dem Kreislauf ziehen und ihn langfristig mittragen.

HINTERGRUND: Rural Urban Nutrient Partnership (RUN) ‒ Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft
RUN ist eines von acht Projekten des Forschungsvorhabens „Agrarsysteme der Zukunft“ im Rahmen der „Nationalen Forschungsstrategie BioÖkonomie 2030“. Es wird vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt 4,2 Mio. Euro gefördert, davon über 680.000 Euro für die Universität Hohenheim. Projektstart war der 1. April 2019. Das Projekt ist zunächst auf drei Jahre angelegt.

Die Koordination des Projekts liegt in der Hand von Prof. Dr.-Ing. Martin Kranert vom Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft der Universität Stuttgart (ISWA). Weitere Projektpartner sind die TU Kaiserlautern, die Universität Heidelberg, das Karlsruher Institut für Technologie (KIT), das Thünen-Institut in Braunschweig sowie zwei beratende Ingenieurbüros als Praxispartner und zwei assoziierte Partner.

HINTERGRUND: Forschungszentrum für Globale Ernährungssicherung und Ökosysteme
Das Zentrum verfolgt das Ziel, einen Beitrag zur Verbesserung der globalen Ernährungssicherung zu leisten. Es unterstützt Wissenschaftlerinnen und Wissenschaftler bei der Entwicklung und Umsetzung von innovativen und effektiven Forschungsinitiativen zur Ernährungssicherung und Hungerbekämpfung mit einem besonderen Fokus auf entwicklungsorientierter Forschung.

HINTERGRUND: Schwergewichte der Forschung
33,8 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2020 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 350.000 Euro für apparative Forschung bzw. 150.000 Euro für nicht-apparative Forschung.

HINTERGRUND: Wissenschaftsjahr 2020|21 – Bioökonomie
In den Jahren 2020 und 2021 steht das Wissenschaftsjahr im Zeichen der Bioökonomie – und damit einer nachhaltigen, biobasierten Wirtschaftsweise. Es geht darum, natürliche Stoffe und Ressourcen nachhaltig und innovativ zu produzieren und zu nutzen und so fossile und mineralische Rohstoffe zu ersetzen, Produkte umweltverträglicher herzustellen und biologische Ressourcen zu schonen. Das ist in Zeiten des Klimawandels, einer wachsenden Weltbevölkerung und eines drastischen Artenrückgangs mehr denn je notwendig. Das vom Bundesministerium für Bildung und Forschung (BMBF) ausgerichtete Wissenschaftsjahr Bioökonomie rückt das Thema ins Rampenlicht.

Die Bioökonomie ist das Leitthema der Universität Hohenheim in Forschung und Lehre. Sie verbindet die agrarwissenschaftliche, die naturwissenschaftliche sowie die wirtschafts- und sozialwissenschaftliche Fakultät. Im Wissenschaftsjahr Bioökonomie informiert die Universität Hohenheim in zahlreichen Veranstaltungen Fachwelt und Öffentlichkeit zum Thema.

Wissenschaftsjahr 2020|21 BMBF: https://www.wissenschaftsjahr.de/2020-21
#Wissenschaftsjahr #DasistBioökonomie

Wissenschaftsjahr 2020|21 Hohenheim: https://www.uni-hohenheim.de/wissenschaftsjahr-2020-2021-biooekonomie

Bioökonomie an der Universität Hohenheim: https://biooekonomie.uni-hohenheim.de

Wissenschaftliche Ansprechpartner:
Dr. Sabine Zikeli, Universität Hohenheim, Zentrum Ökologischer Landbau Universität Hohenheim (ZÖLUH), T +49 (0)711 459-23248, E sabine.zikeli@uni-hohenheim.de

apl. Prof. Dr. Christian Lippert, Universität Hohenheim, Fachgebiet Produktionstheorie und Ressourcenökonomik im Agrarbereich
T +49 (0)711 459-22560, E christian.Lippert@uni-hohenheim.de

Carolin Callenius, Universität Hohenheim, Forschungszentrum für Globale Ernährungssicherung und Ökosysteme
T +49 (0)711 459-23472, E carolin.callenius@uni-hohenheim.de

Yvonne Zahumensky, Universität Hohenheim, Forschungszentrum für Globale Ernährungssicherung und Ökosysteme
T +49 (0)711 459-22632, E yvonne.zahumensky@uni-hohenheim.de

Weitere Informationen:
„Erklärvideo“
http://www.run-projekt.de „Website des Projektes“

(nach oben)


Innerer Kompressionsstrumpf wirkt gegen Krampfadern

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Erweiterte Venen werden bei ausgeprägtem Krampfaderleiden üblicherweise entfernt oder zerstört. Wenn Betroffene später wegen Durchblutungsstörungen einen Bypass benötigen, fehlen die großen Blutgefäße dann aber als Ersatz. In einer Multicenterstudie unter Leitung von Dr. Dominic Mühlberger aus der Gefäßchirurgie der Ruhr-Universität Bochum am St. Josef Hospital prüften Forschende eine dort entwickelte gefäßerhaltende Therapie: Das Anlegen einer dünnen Ummantelung um die defekte Vene behob das Krampfaderproblem in über 95 Prozent der Fälle. Das Forschungsteam berichtet in der Zeitschrift „Journal of International Medical Research“ vom 6. April 2021.

Wenn das Blut im Bein versackt
Krampfadern sind mehr als nur ein kosmetisches Problem: Infolge der unansehnlichen Aussackungen können sich schwere Gesundheitsschäden wie Beingeschwüre, Thrombosen oder sogar Lungenembolien entwickeln. Die Ursache für eine Krampfadernerkrankung liegt meistens in einer Bindegewebsschwäche, die dazu führt, dass die Venenwand nachgibt und damit der Venendurchmesser wächst. Schwangerschaften oder häufiges Stehen und Sitzen begünstigen diesen Prozess.

Die Zunahme des Venendurchmessers beeinträchtigt die Funktion der Venenklappen. Die Klappensegel werden auseinandergezogen, und es entsteht ein Leck, das als Klappeninsuffizienz bezeichnet wird. Das Blut versackt im Bein und führt dort zu einem Anstieg des venösen Blutdruckes. Von dieser Klappeninsuffizienz ist am häufigsten die in der Leiste einmündende Stammvene, auch Vena saphena magna oder große Rosenader genannt, betroffen.

Wie eine zweite Haut
Die bisherigen Therapiekonzepte basieren auf einem radikalen Vorgehen: der Zerstörung durch Laser- oder Radiowellentherapie oder der Entfernung insuffizienter Stammvenen durch eine Stripping-Operation. „Am Klinikum der RUB haben wir mit dem Verfahren der extraluminalen Valvuloplastie eine Alternative zu den radikalen Methoden entwickelt, die einen organerhaltenden Ansatz verfolgt“, erklärt Prof. Dr. Achim Mumme, Direktor der Gefäßchirurgie. Die Reparatur der Venenklappen erfolgt über einen kleinen Schnitt in der Leiste. Wie eine zweite Haut wird ein Mantel aus hauchdünnem Polyurethan um die erweiterte Vene gelegt. Die Ummantelung wirkt als eine Art innerer Kompressionsstrumpf, der die bindegewebsschwache Vene wieder auf ihren Normaldurchmesser zurückbringt.

Einsatz vor allem bei Risikofaktoren für Durchblutungsstörungen
In einer Multicenterstudie überprüfte das Team die Wirksamkeit der organerhaltenden Behandlungsmethode. „Mit einer Erfolgsrate von 95,24 Prozent stellte sich die Venenreparatur mit dem neuartigen Polyurethan-Mantel als effektive Behandlungsalternative zu den radikalen Behandlungsmethoden dar“, fasst Studienleiter Dominic Mühlberger zusammen. „Ihr großer Vorteil ist, dass im Gegensatz zu den radikalen Therapieverfahren die Stammvene bei der extraluminalen Valvuloplastie erhalten bleibt.“

Das ist vor allem dann wichtig, wenn in einem späteren Lebensabschnitt Durchblutungsstörungen auftreten. In diesem Falle kann das Vorhandensein von geeignetem Bypassmaterial entscheidend sein für die Behandlungsmöglichkeiten. Die Stammvenen werden als Gefäßersatzmaterial in der Herz- und Gefäßchirurgie benötigt. Das Fehlen von geeignetem Ersatzmaterial verschlechtert die Prognose.

„Die venenerhaltende Therapie der Krampfadern sollte vor allem dann zum Einsatz kommen, wenn Risikofaktoren für die Entwicklung von Durchblutungsstörungen vorliegen, etwa Rauchen, Bluthochdruck, Zuckerkrankheit oder Fettstoffwechselstörungen“, so Mühlberger.

Wissenschaftliche Ansprechpartner:
Dr. Dominic Mühlberger
Gefäßchirurgie
St. Josef Hospital
Klinikum der Ruhr-Universität Bochum
Tel.: +49 234 509 0
E-Mail: dominic.muehlberger@klinikum-bochum.de

Originalpublikation:
Dominic Mühlberger, Erich Brenner, Norbert Frings, Bruno Geier, Achim Mumme, Stefanie Reich-Schupke, Horst-Peter Steffen, Dietmar Stenger, Markus Stücker, Thomas Hummel: Functional repair of the great saphenous vein by external valvuloplasty reduces the vein’s diameter: 6-month results of a multicentre study, in: Journal of International Medical Research, 2021, DOI: 10.1177/03000605211014364, https://journals.sagepub.com/doi/10.1177/03000605211014364

(nach oben)


Woche der Umwelt: BAM präsentiert innovatives Messverfahren für Mikroplastik

Oliver Perzborn Unternehmenskommunikation
Bundesanstalt für Materialforschung und -prüfung (BAM)
Die Bundesanstalt für Materialforschung und -prüfung (BAM) ist mit einem neuartigen Messverfahren für Mikroplastik auf der „Woche der Umwelt“ des Bundespräsidenten und der Deutschen Bundesstiftung Umwelt vertreten. Das Verfahren erlaubt es, schneller als bisher genaue Daten zu den Eintragspfaden von Mikro- und Nanoplastik in die Umwelt zu erheben. Damit schafft es die empirische Voraussetzung für wirksame Vermeidungsstrategien.

Unter dem Motto „So geht Zukunft!“ laden Bundespräsident Frank-Walter Steinmeier und die Deutsche Bundesstiftung Umwelt am 10. und 11. Juni 2021 zur sechsten „Woche der Umwelt“ ein. Die Veranstaltung würdigt traditionell innovative Umweltschutzthemen und -projekte. Aufgrund der Corona-Pandemie muss sie als hybrides Format im Park von Schloss Bellevue sowie mit digitalen Fachforen stattfinden.

Zu den 150 Ausstellenden, die eine Fachjury ausgewählt hat, zählt auch die Bundesanstalt für Materialforschung und -prüfung (BAM). Die BAM stellt auf der Woche der Umwelt ein innovatives Messverfahren für Mikroplastik vor.

Die winzigen Partikel lassen sich heute in allen Weltmeeren, in Seen, Flüssen, Böden, in Organismen und sogar in der Luft nachweisen. Weltweit gelangen jedes Jahr viele Millionen Tonnen von Mikroplastik – und des viel kleineren Nanoplastik – in die Umwelt. Aus welchen Quellen genau die meisten Einträge stammen, das ist allerdings noch unbekannt. Denn: Die Zahlen dazu beruhen auf Schätzungen oder Hochrechnungen, die sich wiederum nur auf wenige konkrete Messungen stützen.

Der Grund dafür ist so einfach wie folgenreich: Mikro- und Nanoplastik sind sehr schwer aufzuspüren und exakt zu quantifizieren. Die Partikel messen oft nur einige Tausendstel oder sogar nur Millionstel Millimeter.

Bisherige Verfahren, die vor allem auf der Mikrospektroskopie beruhen, sind zeitaufwendig und sie erfassen besonders kleine Partikel nicht – die aber stehen im Verdacht, eine schädliche Wirkung auf Organismen zu entfalten.

Wissenschaftler*innen der BAM haben daher ein neuartiges Messverfahren entwickelt, das nicht mehr auf der Spektroskopie beruht. Stattdessen werden Proben werden erhitzt und die entstehenden Gase anschließend in einem Gaschromatographen, der an ein Massenspektrometer gekoppelt ist, analysiert. Gewissermaßen „riecht“ das Analysegerät die winzigen Partikel, statt sie optisch zu identifizieren. Der Vorteil: Das Verfahren ist etwa zehn Mal schneller, es erfasst auch besonders kleine Partikel sowie erstmals auch den Abrieb von Autoreifen – vermutlich eine der größten Quellen von Mikroplastik.

Zusammen mit der Firma Gerstel GmbH hat das Team der BAM aus dem patentierten Verfahren ein Analysegerät entwickelt, das bereits international in vielen Laboren im Einsatz ist.

Als Ergänzung bietet die BAM auch die weltweit ersten Referenzmaterialien für Mikroplastik an. Die Substanzen sind wichtig, um verschiedene Messmethoden und -werte miteinander vergleichen zu können.

„Mit dem Analysegerät und unseren Referenzmaterialien für Mikro- und Nanoplastik schaffen wir als Wissenschaftler*innen die empirische Grundlage, um über Vermeidungsstrategien diskutieren zu können und am Ende als Gesellschaft wirksame Maßnahmen festlegen zu können“, so Korinna Altmann von der BAM.

„Umwelt – das ist eines der fünf großen Themenfelder, zu denen wir an der BAM täglich forschen, prüfen und beraten“, so BAM-Präsident Prof. Dr. Ulrich Panne. „Als Wissenschaftler*innen müssen wir über die Grenzen unserer Labore hinausdenken. Wir tragen die Verantwortung dafür, die Lebensgrundlagen auf unserem Planeten zu schützen. Unsere Forschung zu Mikroplastik ist ein wichtiger Beitrag dazu.“

Kontakt:
Referat Kommunikation, Marketing
Bundesanstalt für Materialforschung und -prüfung (BAM)
T: + 49 30 8104-1013
presse@bam.de
http://www.bam.de

150 Jahre BAM – Wissenschaft mit Wirkung. Feiern Sie mit uns: http://www.150.bam.de
Unser Auftrag: Sicherheit in Technik und Chemie. Weitere Informationen unter http://www.bam.de
Abonnieren Sie unseren Newsletter: http://www.150.bam.de/newsletter
Folgen Sie uns auf Twitter: twitter.com/BAMResearch

Über die BAM
Die BAM gewährleistet Sicherheit in Technik und Chemie.
Die Bundesanstalt für Materialforschung und -prüfung (BAM) ist eine Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Wirtschaft und Energie.

Die BAM forscht, prüft und berät zum Schutz von Mensch, Umwelt und Sachgütern. Im Fokus aller Tätigkeiten in der Materialwissenschaft, der Werkstofftechnik und der Chemie steht dabei die technische Sicherheit von Produkten und Prozessen. Dazu werden Substanzen, Werkstoffe, Bauteile, Komponenten und Anlagen sowie natürliche und technische Systeme von volkswirtschaftlicher Dimension und gesellschaftlicher Relevanz erforscht und auf sicheren Umgang oder Betrieb geprüft und bewertet. Die BAM entwickelt und validiert Analyseverfahren und Bewertungsmethoden, Modelle und erforderliche Standards und erbringt wissenschaftsbasierte Dienstleistungen für die deutsche Wirtschaft im europäischen und internationalen Rahmen.

Sicherheit macht Märkte.
Die BAM setzt und vertritt für Deutschland und seine globalen Märkte hohe Standards für Sicherheit in Technik und Chemie zur Weiterentwicklung der erfolgreichen deutschen Qualitätskultur „Made in Germany“.

Weitere Informationen:
https://www.woche-der-umwelt.de/ausstellerKonkret/1733

(nach oben)


Zurück zur Natur? Wie die Renaturierung von Gewässern sozial-ökologisch gestaltet werden kann

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Europaweit sind Gewässer in keinem guten ökologischen Zustand. Die Vorgaben der Wasserrahmenrichtlinie der EU werden auch in Deutschland nicht erreicht. Das gilt auch für einige der Fließgewässer in Südhessen, wie etwa die Weschnitz oder die Modau. Der Handlungsdruck ist groß. Wie eine erfolgreiche Renaturierung aussehen könnte, darüber diskutieren Bürger*innen, Expert*innen und Wissenschaftler*innen bei der öffentlichen Abschlussveranstaltung des Forschungsprojekts Weschnitz Dialog am 15. Juni 2021. Das ISOE – Institut für sozial-ökologische Forschung, der Geo-Naturpark Bergstraße-Odenwald sowie der Gewässerverband Bergstraße laden herzlich zu dieser digitalen Veranstaltung ein.

Rund 90 Prozent der deutschen Oberflächengewässer verfehlen die Vorgaben der EU-Wasserrahmenrichtlinie eines „guten ökologischen Zustandes“ – so auch die Weschnitz. Das soll sich mit der Renaturierung des Flusses und der Deichsanierung zwischen Biblis und Einhausen ändern. Damit dies gelingt, wurden im von der Deutschen Bundesstiftung Umwelt geförderten Forschungsprojekt Weschnitz Dialog Kommunikations- und Beteiligungsformate zur Konfliktvermeidung begleitet. So konnten gemeinsam mit allen Akteuren wirksame Lösungen zum Gewässer- und Hochwasserschutz geplant werden. 

Zum Abschluss des Projekts laden die Forschungspartner ISOE, der Geo-Naturpark Bergstraße-Odenwald sowie der Gewässerverband Bergstraße zu einer Online-Diskussion ein, bei der es nicht nur um verständliche Wissenschaft, Bildung für eine nachhaltige Entwicklung und pragmatische Lösungen geht, sondern auch um literarische Entdeckungen. Zur Einstimmung in die Veranstaltung, die pandemiebedingt digital stattfinden muss, nimmt Torsten Schäfer die Teilnehmenden mit auf eine Fluss-Entdeckungsreise in Südhessen: Der Professor für Journalismus an der Hochschule Darmstadt liest aus seinem aktuellen Buch „Wasserpfade“. 

Konflikte um Renaturierungsmaßnahmen frühzeitig berücksichtigen
Bei dem anschließenden Fachgespräch geht es um wichtige Fragen und Erfahrungen im Zusammenhang mit Renaturierungsmaßnahmen: Welche Potenziale bietet die Renaturierung auf dem Weg „Zurück zur Natur“ und wie sieht der Prozess konkret aus? Welche Rahmenbedingungen sind für die Renaturierung wichtig und welche Konflikte können sich durch unterschiedliche Interessen seitens Landwirtschaft, Stadtplanung und Naturschutzes ergeben? 

Im Zuge der Veranstaltung werden die Projektbeteiligten am Beispiel des Forschungsprojekts Weschnitz Dialog zeigen, wie eine sozial-ökologische Gestaltung der Renaturierung aussehen kann und wie Nutzungskonflikte entlang eines Gewässers frühzeitig berücksichtigt werden können. Zudem wird diskutiert, wie das Thema Gewässerschutz anschaulich für eine Bildung für nachhaltige Entwicklung genutzt werden kann. 

Für eine Teilnahme ist keine Anmeldung erforderlich. Der Zugangslink zur Veranstaltung wird ab dem 14. Juni 2021 unter http://www.weschnitz-dialog.de veröffentlicht.

Zurück zur Natur? Wie die Renaturierung unserer Gewässer sozial-ökologisch gestaltet werden kann

Diskussionsabend
Dienstag, 15. Juni 2021 – 18 Uhr
Online-Veranstaltung

Ablauf: 
Lesung Prof. Dr. Torsten Schäfer, Hochschule Darmstadt

Anschließend Fachgespräch mit: Ulrich Androsch (Gewässerverband Bergstraße, Lorsch), Dr. Jutta Weber (Geo-Naturpark Bergstraße Odenwald, Lorsch), Dr. Stefan Liehr (ISOE – Institut für sozial-ökologische Forschung, Frankfurt am Main), Prof. Dr. Jörg Ohlmann (Goethe Universität Frankfurt am Main), Matthias Beuth (Martin-Luther-Schule, Rimbach)

Moderation: Carla Schönfelder, Team Ewen, Darmstadt

Veranstalter: ISOE – Institut für sozial-ökologische Forschung in Zusammenarbeit mit dem Geo-Naturpark Bergstraße-Odenwald und dem Gewässerverband Bergstraße

Wissenschaftliche Ansprechpartner:
Dr. Katja Brinkmann
Tel. +49 69 707 6919-42
brinkmann@isoe.de

Weitere Informationen:
http://www.weschnitz-dialog.de

(nach oben)


Einladung zum IST-Webinar: „Power für den Tag – wie Sie Ihre Schlafprobleme lösen“

Alexandra Naumann Pressestelle
IST-Hochschule für Management
In den letzten Jahren sind Ein- und Durchschlafprobleme in den Fokus der öffentlichen Diskussion gerückt, denn immer mehr Menschen in Deutschland schlafen schlecht. Doch wie kann ein gesunder und entspannter Schlaf gefördert werden? Antworten gibt der renommierte Schlafmediziner Dr. Alfred Wiater einem kostenfreien Online-Fachvortrag des IST-Studieninstituts am 24. Juni 2021, um 18 Uhr.

Die meisten Menschen wissen, oft schon aus eigener Erfahrung, wie wichtig erholsamer Schlaf für die Gesundheit und für die Alltagsbewältigung ist. Nachts kommen sowohl Körper als auch Geist zur Ruhe. Die Folge: Der Mensch schöpft neue Energie für den Tag.

Hier setzt das IST-Webinar „Power für den Tag – wie Sie Ihre Schlafprobleme lösen“ am 24. Juni, um 18 Uhr, an. Denn sind die einzelnen Schlafphasen dauerhaft gestört, kann dies gesundheitliche Folgen haben.

Wie kann ein gesunder und entspannter Schlaf gefördert werden?
Dr. Alfred Wiater gibt erste hilfreiche Tipps, die man für einen gesunden Schlaf in der Alltagsroutine berücksichtigen sollte. Wiater war Chefarzt einer Kölner Klinik mit schlafmedizinischem Zentrum und Vorsitzender der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM). Derzeit berät er den DGSM-Vorstand als Vorstandsreferent, ist wissenschaftlich und als Dozent und Buchautor tätig.

Wer sich tiefergehend mit dem Thema „Schlaf“ auseinandersetzen möchte, kann das in der im Juli startenden, neuen Weiterbildung zum Schlafcoach, in der Dr. Wiater als Dozent tätig ist. Hier erarbeiten sich die Teilnehmer auf der Grundlage fundierter schlafmedizinischer Expertise in kompakten zwei Monaten umfassendes Wissen zur Prävention von Schlafstörungen und zum Umgang mit Schlafproblemen.

Weitere Informationen:
https://www.ist.de/aktion/1293 Hier geht es zur unverbindlichen Anmeldung.
https://www.ist.de/schlafcoach Hier gibt es alle Informationen zur Weiterbildung „Schlafcoach“.

(nach oben)


Steinmeier: Wir befinden uns mitten im Umbruch ins postfossile Zeitalter

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Bundespräsident und DBU eröffnen „Woche der Umwelt“

Osnabrück/Berlin. Bundespräsident Frank-Walter Steinmeier bereitet die Menschen in Deutschland wegen der Klimakrise auf eine „Transformation der Gesellschaft in einer gewaltigen Dimension“ vor. Der ressourcenschonende Umgang mit der Erde sei zugleich „nur durch eine globale Anstrengung zu bewältigen“, sagte er in einer wegweisenden Klimarede auf der „Woche der Umwelt“ im Park seines Amtssitzes Schloss Bellevue. „Wir befinden uns mitten im Umbruch ins postfossile Zeitalter“, so das Staatsoberhaupt.

Die mittlerweile sechste Auflage der Woche der Umwelt (WdU) unter dem Motto „So geht Zukunft!“ findet heute (Donnerstag) und morgen in bewährter Partnerschaft von Bundespräsident und der Deutschen Bundesstiftung Umwelt (DBU) statt, dieses Mal wegen der Corona-Pandemie aber im hybriden Format – teils in Präsenz im Park von Schloss Bellevue, teils in digitalen Fachforen. Per Livestream ist alles hautnah zu verfolgen; alle Infos finden sich hier: https://www.woche-der-umwelt.de/. DBU-Generalsekretär Alexander Bonde sagte, die Woche der Umwelt solle „ein großer Ansporn sein, sich für den Erhalt unseres Planeten zu engagieren“. Und sie fordere mit ihrem Versprechen „So geht Zukunft!“ trotz einer der größten globalen Krisen der Menschheit dazu auf, „mit Mut, Ideen und Innovationen Lösungen für mehr Klima-, Umwelt-, Ressourcen- und Artenschutz zu finden“. Ein Schlüssel sei die Circular Economy, eine umfassende Kreislaufwirtschaft. Bonde: „Wir müssen lernen, in Kreisläufen zu leben, denken und zu handeln. Der Raubbau an Rohstoffen muss enden.“

EU-Kommissionspräsidentin Ursula von der Leyen und US-Klimabeauftragter John Kerry nehmen teil
Dass Klima- und Umweltschutz nicht nur in Deutschland, sondern europa- und weltweit ganz oben auf der politischen Agenda stehen, zeigt die Teilnahme zweier Persönlichkeiten bei der WdU: EU-Kommissionspräsidentin Ursula von der Leyen und US-Klimaschutzbeauftragter John Kerry. Er skizzierte per Videobotschaft Zukunftsstrategien seines Landes unter dem neuen US-Präsidenten Joe Biden. Dieser hatte den Austritt seines Vorgängers Donald Trump aus dem Pariser Klimaschutzabkommen von 2015 rückgängig gemacht. Während von der Leyen keinen Zweifel daran ließ, dass die Europäische Union alles daran setzen werde, den europäischen Grünen Deal umzusetzen und ein klimaneutrales Wirtschaften in der EU bis 2050 zu erreichen, mahnte Kerry „weltweite Anstrengungen“ an, um katastrophale Folgen der Klimakrise zu verhindern. Die USA seien dazu bereit. Bis 2030 wolle sein Land den Ausstoß an Treibhausgasen im Vergleich zu 2005 halbieren. US-Präsident Biden wolle in allen Wirtschaftssektoren eine Abkehr von Kohlenstoff. Kerry: „Diese Dekade ist entscheidend im Kampf gegen die Klimakrise, vor uns liegt enorm viel Arbeit. Aber darin steckt ein riesiges Wirtschaftspotenzial.“ Es entstehe „ein Billionen-Markt“ mit gutbezahlten Jobs „auf beiden Seiten des Atlantiks“ und mit neuen Technologien für saubere Energien.

„Veränderungen in allen Bereichen des Alltags“
Bundespräsident Steinmeier sagte in seiner Rede, es freue ihn „sehr, dass sich die Vereinigten Staaten dazu entschieden haben, dem Pariser Klimaabkommen wieder beizutreten“. Die Weltklimakonferenz hatte seinerzeit unter anderem beschlossen, die Weltwirtschaft auf klimafreundliche Weise zu verändern und die menschengemachte Erderwärmung bis zum Jahr 2100 auf unter zwei Grad Celsius und sogar möglichst unter 1,5 Grad Celsius im Vergleich zum vorindustriellen Zeitalter zu begrenzen. Die Klima-Ziele seien keineswegs abstrakt und fern, so Steinmeier. „Setzen wir sie um, so werden wir Veränderungen in allen Bereichen des Alltags spüren – in der Landwirtschaft, in der Energieversorgung, vor allem im Wohnungsbau und im Verkehr.“ Aufbruchserwartung und Umbruchsangst würden miteinander ringen, so der Bundespräsident weiter. Was zu hoffen und was zu fürchten sei, „sind Fragen einer Gesellschaft, die im Übergang ist, in einer großen Transformation, die viele zu Recht mit der industriellen Revolution des 19. Jahrhunderts vergleichen“. Anders als damals gehe es heute jedoch nicht mehr um den „Aufstieg der fossilen Industrialisierung“. Steinmeier: „Wir befinden uns mitten im Ausstieg daraus.“

Winter ohne Schneemänner
Es sei klar, dass der Planet „durch den übermäßigen Verbrauch von Ressourcen in Gefahr ist“ – doch der Weg aus diesem Risiko „noch lange nicht“. Der Bundespräsident brachte für den Weg in eine klimaneutrale Zukunft gewissermaßen einen neuen Generationenvertrag für Klimaschutz ins Gespräch: So wie die jungen Menschen in der Corona-Pandemie zurückgesteckt hätten, um Ältere und Gefährdete zu schützen, „so müssen wir uns jetzt anstrengen, um ihre Zukunft und die Zukunft künftiger Generationen zu schützen.“ Denn Klimawandel sei schon jetzt sicht- und spürbar und verändere bereits „unser Leben: Er zeigt sich in den Gezeiten, die sich verschieben, in den Wintern ohne Schneemänner“ und auch „in gefährlich trockenen Böden und Wäldern“.

Weitere Informationen:
https://www.dbu.de/123artikel39036_2442.html Online-Pressemitteilung

(nach oben)


Kniearthrose: Wann kommt ein Gelenkersatz infrage? Gibt es Alternativen? IQWiG legt Entscheidungshilfe vor

Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
Kniearthrose: Wann kommt ein Gelenkersatz infrage? Gibt es Alternativen? IQWiG legt Entscheidungshilfe vor
Unterstützung für Betroffene bei der Entscheidung für oder gegen eine Gelenkersatzoperation.

Das IQWiG hat im Auftrag des Gemeinsamen Bundesausschusses (G-BA) eine Entscheidungshilfe zu Gelenkersatzoperationen bei Kniegelenkarthrose erstellt. Diese soll Betroffene dabei unterstützen, sich gemeinsam mit ihrer Ärztin bzw. ihrem Arzt für oder gegen bestimmte Behandlungsoptionen bei Kniegelenkarthrose zu entscheiden.
Die Entscheidungshilfe ist Teil des gesetzlich festgelegten Zweitmeinungsverfahrens: Bei vielen Krankheiten gibt es mehr als eine Behandlungsmöglichkeit. Oft ist aber keine der Alternativen ideal, jede hat ihre Vor- und Nachteile. Dann hängt es stark von der persönlichen Situation und den eigenen Wünschen ab, was die beste Wahl ist. Einen zweiten Arzt zu befragen, kann bei der Entscheidung helfen. Seit 2015 haben gesetzlich Krankenversicherte Anspruch auf das Einholen einer ärztlichen Zweitmeinung bei festgelegten planbaren Operationen.

2019: 194.000 Kniegelenkersatz-Operationen
Es ist nicht genau bekannt, wie viele Menschen eine Kniearthrose haben. In Deutschland geben etwa vier Prozent aller Erwachsenen an, von einer ärztlich behandelten Kniearthrose betroffen zu sein. Die Häufigkeit nimmt mit dem Alter zu und steigt etwa ab dem 40. Lebensjahr stetig an.
Die Zahl der Kniegelenkersatz-Operationen steigt in Deutschland seit 2013 kontinuierlich an, im Jahr 2019 wurden bundesweit knapp 194.000 Implantationen durchgeführt. Dabei werden die Operierten immer jünger. Auffallend ist auch, dass die Operationshäufigkeiten je nach Wohnort sehr unterschiedlich sind.
Kniearthrose kann unterschiedlich verlaufen, wobei die Beschwerden meist über viele Jahre eher langsam zunehmen oder sogar stabil bleiben. Kniearthrose kann aber auch in Schüben auftreten – dann wechseln sich Phasen stärkerer Beschwerden mit beschwerdefreien oder beschwerdearmen Phasen ab. Nur bei einem kleinen Teil der Menschen mit Kniearthrose sind die Beschwerden irgendwann so stark, dass sie sich für einen Eingriff entscheiden.
Heilen lässt sich Arthrose nicht. Es gibt aber verschiedene Möglichkeiten, die Beschwerden zu lindern. Ein wichtiger Baustein der konservativen (= nicht operativen) Therapie ist die Bewegungstherapie, weil gut ausgebildete Muskeln das Kniegelenk stabilisieren und schützen. Zudem erreichen die Nährstoffe aus der Gelenkflüssigkeit den Knorpel nur durch Druck – etwa beim Gehen oder gezielten Training.
Die Bewegungstherapie kann je nach Bedarf durch weitere Behandlungsoptionen wie u. a. Schmerztherapie, Gewichtsreduktion oder Hilfsmittel (Schuheinlagen, Kniebandagen oder -schienen) ergänzt werden.
Ein Gelenkersatz kommt infrage, wenn über mehrere Monate starken Schmerzen bestehen, die die Lebensqualität beeinträchtigen – und wenn eine konservative Therapie die Beschwerden nicht ausreichend lindern kann. Bei dieser Operation wird das natürliche Kniegelenk ganz oder teilweise durch eine Prothese aus Metall und Kunststoff ersetzt.

Entscheidungshilfe des IQWiG
Die jetzt vorgelegte Entscheidungshilfe des IQWiG beschreibt die verschiedenen Behandlungsmöglichkeiten bei Kniearthrose. Sie unterstützt Patientinnen und Patienten bei der Entscheidung zwischen Kniegelenkersatzoperation und konservativen Therapien.
„Ein Gelenkersatz kann fortgeschrittene Kniearthrose bei den meisten Betroffenen sehr wirksam lindern – aber natürlich hat so ein großer Eingriff auch Risiken. Zudem wissen wir aus Studien, dass eine gute konservative Behandlung helfen kann, eine Operation mehrere Jahre hinauszuzögern oder sogar ganz zu vermeiden. Unsere Entscheidungshilfe soll die wichtigsten Alternativen aufzeigen und das ausführliche Gespräch mit der behandelnden Ärztin bzw. dem behandelnden Arzt unterstützen“, betont Roland Büchter aus dem IQWiG-Ressort Gesundheitsinformation.

Ergänzende Informationen zu Nachoperationen
Etwa fünf bis zehn Prozent der eingesetzten künstlichen Kniegelenke werden innerhalb von zehn Jahren nachoperiert. Dabei lässt sich auch die Frage, ob bei Problemen mit der Prothese wirklich ein zweiter Eingriff nötig ist, nicht immer leicht beantworten. Daher gibt es für die Nachoperation ebenfalls das Recht auf eine zweite Meinung.
Für diese Situation hat das IQWiG in der Rubrik „Mehr Wissen“ auf gesundheitsinformation.de einen eigenen Text mit dem Titel „Probleme mit der Knieprothese: Wann ist eine Nachoperation nötig?“ erstellt, das ausführlich beschreibt, wann eine Nachoperation tatsächlich notwendig ist oder doch vermieden werden könnte.

Wie läuft das Zweitmeinungsverfahren ab?
Die Entscheidungshilfe ist ein Baustein des seit 2015 gesetzlich festgelegten Zweitmeinungsverfahrens. Das bedeutet: Eine Ärztin oder ein Arzt, die/der einen planbaren Eingriff empfiehlt, muss die Betroffenen auf ihr Recht hinweisen, diese Behandlungsentscheidung noch einmal kostenfrei mit Spezialisten einer anderen Praxis oder Klinik besprechen zu können.
Für welche planbaren Eingriffe das Zweitmeinungsverfahren gilt, entscheidet der G-BA. Bislang besteht ein vom G-BA geregelter Zweitmeinungsanspruch bei Operationen an den Gaumen- und/oder Rachenmandeln (Tonsillektomien, Tonsillotomien), bei Gebärmutterentfernungen (Hysterektomien), arthroskopischen Eingriffen am Schultergelenk und bei Amputationen beim Diabetischen Fußsyndrom.

Zum Projektverlauf
Der G-BA hatte das Institut am 15. Oktober 2020 mit der Erstellung der Entscheidungshilfe zu Gelenkersatzoperationen bei Kniearthrose beauftragt.
Die Entscheidungshilfe wurde nach den Allgemeinen Methoden des IQWiG erstellt und hat eine Nutzertestung und Stellungnahme durchlaufen. Sie wird auf der IQWiG-Website gesundheitsinformation.de veröffentlicht und im Rahmen der üblichen Aktualisierung spätestens nach drei Jahren auf Aktualität überprüft und bei Bedarf angepasst.

Weitere Informationen
Das IQWiG hat in früheren Aufträgen bereits Entscheidungshilfen zu Gebärmutterentfernung, Mandeloperation, Schultereingriffen und zu Amputationen beim diabetischen Fußsyndrom erstellt.
Diese Entscheidungshilfen sind auf der Website gesundheitsinformation.de in umfassende Themenpakete zu den jeweiligen Erkrankungen eingebunden. Die Entscheidungshilfen lassen sich dort als PDF herunterladen und kostenfrei in beliebiger Menge ausdrucken.

Originalpublikation:
https://www.iqwig.de/projekte/p20-03.html

Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_39…

(nach oben)


KIT: Zuckerhirse: Süßes Versprechen für die Umwelt

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Zuckerhirse lässt sich zur Herstellung von Biogas, Biokraftstoffen und neuen Polymeren nutzen. Zudem kann sie dazu beitragen, Phosphatdünger zu ersetzen. Eine am Karlsruher Institut für Technologie (KIT) entwickelte neue Zuckerhirsesorte akkumuliert besonders viel Zucker und gedeiht unter heimischen Bedingungen. Wie die Forschenden in der Zeitschrift Industrial Crops & Products berichten, hängen der Zuckertransport und die Zuckerakkumulation mit dem Bau der Leitungsbahnen der Pflanzen zusammen. Dies ergab ein Vergleich zwischen Zucker- und Körnerhirse. (DOI: 10.1016/j.indcrop.2021.113550).

Zuckerhirse lässt sich zur Herstellung von Biogas, Biokraftstoffen und neuen Polymeren nutzen. Zudem kann sie dazu beitragen, Phosphatdünger zu ersetzen. Eine am Karlsruher Institut für Technologie (KIT) entwickelte neue Zuckerhirsesorte akkumuliert besonders viel Zucker und gedeiht unter heimischen Bedingungen. Wie die Forschenden in der Zeitschrift Industrial Crops & Products berichten, hängen der Zuckertransport und die Zuckerakkumulation mit dem Bau der Leitungsbahnen der Pflanzen zusammen. Dies ergab ein Vergleich zwischen Zucker- und Körnerhirse. (DOI: 10.1016/j.indcrop.2021.113550).

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2021_054_zuckerhirse-susses-versprechen-fur-die-umwel…

Mit der Weltbevölkerung wächst der Bedarf an Nahrungsmitteln, Rohstoffen und Energie. Dadurch nehmen die Belastungen für die Umwelt und das Klima zu. Eine Strategie, den Treibhausgasausstoß zu verringern, besteht darin, sogenannte C4-Pflanzen anzubauen. Diese betreiben besonders effizient Photosynthese, binden daher Kohlendioxid (CO2) besser und bauen mehr Biomasse auf als andere Pflanzen. Gewöhnlich sind sie an sonnige und warme Standorte gebunden. Zu den C4-Pflanzen gehört die Sorghumhirse, auch Mohrenhirse genannt, eine Hirseart aus der Gattung Sorghum in der Familie der Süßgräser. Die besonders zuckerhaltigen Sorten heißen Zuckerhirse. Zu den weiteren Sorten gehört die als Futtermittel eingesetzte Körnerhirse. Sorghumhirse lässt sich auf schwer zu bewirtschaftenden sogenannten Grenzertragsflächen anbauen, sodass sie nicht mit sonstigen Nahrungs- oder Futterpflanzen in Konkurrenz tritt.

Eine neue Zuckerhirsesorte namens KIT1 hat Dr. Adnan Kanbar in der Arbeitsgruppe Molekulare Zellbiologie unter Leitung von Professor Peter Nick am Botanischen Institut des KIT entwickelt. KIT1 akkumuliert besonders viel Zucker und gedeiht besonders gut unter gemäßigten Klimabedingungen. Sie lässt sich sowohl energetisch zur Herstellung von Biogas und Biokraftstoffen als auch stofflich zur Produktion neuer Polymere nutzen. Der geschätzte Zuckerertrag je Hektar liegt bei über 4,4 Tonnen, was knapp 3 000 Litern Bioethanol entspräche. Darüber hinaus lassen sich die bei der Biogasherstellung anfallenden Gärreste als Dünger nutzen, der den knapp werdenden Phosphatdünger ersetzen kann.

Auf die Anatomie des Pflanzenstängels kommt es an
Forschende im Nick-Labor am Institut für Angewandte Biowissenschaften und am Institut für Technische Chemie des KIT sowie bei der ARCUS Greencycling Technology in Ludwigsburg haben nun die Zuckerhirsesorte KIT1 und die Körnerhirsesorte Razinieh miteinander verglichen, um die unterschiedliche Zuckerakkumulation im Pflanzenstängel zu untersuchen. Für die in der Zeitschrift Industrial Crops & Products publizierte Studie betrachtete das Team die Stängelanatomie. Dazu zählen die verdickten Bereiche oder Knoten (Nodien) und die schmalen Bereiche oder Abstände zwischen den Knoten (Internodien), aber auch Transkripte wichtiger Saccharose-Transporter-Gene sowie Stressreaktionen der Pflanzen bei hoher Salzkonzentration im Boden. Sowohl bei KIT1 als auch bei Razinieh war die Zuckerakkumulation in den mittleren Internodien am höchsten. Allerdings zeigte sich ein Zusammenhang zwischen der Zuckerakkumulation und dem Bau der Leitungsbahnen, die dem Transport von Wasser, gelösten Stoffen und organischen Substanzen dienen. Die Leitungsbahnen sind zu Leitbündeln gruppiert. Diese bestehen aus dem Phloem (Bastteil) und dem Xylem (Holzteil). Im Phloem werden vor allem Zucker und Aminosäuren, im Xylem vor allem Wasser und anorganische Salze transportiert; zudem übernimmt das Xylem eine stützende Funktion. Die Untersuchung ergab, dass bei KIT1 und fünf weiteren Zuckerhirsesorten im Stängel die Phloem-Querschnittsfläche wesentlich größer als die Xylem-Querschnittsfläche ist – der Unterschied ist viel ausgeprägter als bei der Körnerhirsesorte Razinieh. „Untere Studie ist die erste, die sich mit dem Zusammenhang zwischen dem Bau der Leitbündel und der Zuckerakkumulation im Stängel befasst“, sagt Nick.

Zuckerhirse wird mit Salzstress besser fertig
Wie die Studie weiter ergab, führte Salzstress zu höherer Zuckerakkumulation in KIT1 als in Razinieh. Die Expression von Saccharose-Transporter-Genen ist in den Blättern von KIT1 unter normalen Bedingungen höher und steigt unter Salzstress deutlich an. „Neben den anatomischen Faktoren könnten auch molekulare Faktoren die Zuckerakkumulation im Stängel regulieren“, erläutert Kanbar. „Auf jeden Fall kommt KIT1 mit Salzstress besser zurecht.“ (or)

Originalpublikation
Adnan Kanbar, Ehsan Shakeri, Dema Alhajturki, Michael Riemann, Mirko Bunzel, Marco Tomasi Morgano, Dieter Stapf, Peter Nick: Sweet versus grain sorghum: Differential sugar transport and accumulation are linked with vascular bundle architecture. Industrial Crops & Products, 2021. DOI: 10.1016/j.indcrop.2021.113550

Abstract unter https://doi.org/10.1016/j.indcrop.2021.113550

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Wissenschaftliche Ansprechpartner:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Originalpublikation:
Abstract unter https://doi.org/10.1016/j.indcrop.2021.113550

Weitere Informationen:
https://www.kit.edu/kit/pi_2021_054_zuckerhirse-susses-versprechen-fur-die-umwel…

(nach oben)


Gewässerschutz: Deutsche haben ökologische Grundwerte, aber wenig Bezug zu Fischen

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
In einer Längsschnittstudie mit jeweils 1.000 Befragten in Frankreich, Deutschland, Norwegen und Schweden untersuchten Wissenschaftler*innen unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB), welche Werte, Überzeugungen und Normen naturschutzorientiertes Verhalten gegenüber heimischen Flussfischen fördern. Die Studie zeigt: Die Deutschen haben wenig Bezug zu Fischen. Der Schutz von Fischen wird hierzulande eher durch allgemeine pro-ökologische Werthaltungen und Normen gestützt. In Frankreich, Schweden und Norwegen haben heimischen Fischarten hingegen großes Gewicht für das individuelle naturschutzorientierte Verhalten.

Süßwasserökosysteme beherbergen weltweit etwa ein Drittel aller Wirbeltierarten und 43 Prozent aller Fischarten. In Europa sind mehr als 40 Prozent der heimischen Süßwasserfische bedroht oder bereits ausgestorben: Gewässerverbau, Wasserkraft und Aufstau, Verschmutzung, Klimawandel, invasive Arten und zum Teil auch die Überfischung sind die Hauptursachen dafür. Es hängt also von unserem Handeln ab, wie sich Gewässer und Fischarten entwickeln. Um Flüsse und Fischbestände besser zu schützen, muss man Menschen überzeugen – doch nicht jedes Argument zieht: Wie eine aktuelle Studie zeigt, muss man den kulturellen Kontext beachten, in dem die Öffentlichkeit die Bedrohung der Artenvielfalt wahrnimmt und darauf reagiert.

Die Forschenden des IGB, der Humboldt-Universität zu Berlin und internationale Kooperationspartner*innen nutzten die umweltpsychologische Werte-Überzeugungen-Normen Theorie, um zu untersuchen, wovon umweltfreundliches Verhalten am Beispiel des Fischartenschutzes abhängt. Dr. Carsten Riepe, Erstautor der Veröffentlichung im Fachjournal Society and Natural Resources, betont: „Das Besondere unserer Studie liegt darin, dass wir nicht nur Verhaltensabsichten betrachtet haben, sondern auch das tatsächlich gezeigte Verhalten im Alltag der Menschen erhoben haben – beispielsweise die Spendenbereitschaft von Menschen für Maßnahmen, die dem Fischartenschutz in Flüssen zugutekommen. Das erhöht die Aussagekraft unserer Umfrage enorm.“

Gleiche ökologische Grundwerte, unterschiedliche Verbundenheit mit Fischen:
Die Befragten in den vier Ländern zeigten ähnliche umweltbezogene Überzeugungen, Einstellungen und Normen. Beispielsweise waren ökologische Grundwerte und der Erhalt der biologischen Vielfalt in und an Flüssen allen Befragten mehrheitlich wichtig. Der überwiegende Teil fühlte sich sogar tendenziell moralisch verpflichtet, Bedrohungen für den Rückgang der Fischartenvielfalt in Flüssen abzumildern.
In den vier Ländern gab es aber auch einige relevante Unterschiede: So deuten die Umfrageergebnisse aus Norwegen – aber auch aus Schweden und Frankreich – auf eine höhere Verbundenheit mit Fischen und der aquatischen Umwelt hin. In diesen drei Ländern war der Schutz heimischer Fischarten ein besonders wichtiger Anreiz für naturschutzorientiertes Verhalten; in Deutschland hingegen hatte der ökologische Gesamtkontext mehr Gewicht. Deutsche zeigten im Vergleich zu den anderen drei Ländern insgesamt wenig Bezug zu Fischen und der aquatischen Umwelt.

Ökologische und gesellschaftliche Länderunterschiede wirken sich auf die gesellschaftliche und politische Wahrnehmung von Fischen und Flüssen aus:
„Die vier untersuchten Länder unterscheiden sich in ihren Fischgemeinschaften und dem Zustand ihrer Süßgewässer. Außerdem gibt es kulturelle, freizeitbezogene und sozio-ökonomische Unterschiede. Diese Faktoren beeinflussen auch das naturschutzorientierte Denken und Verhalten in Bezug auf den Fischartenschutz. Die Ergebnisse erklären, warum bestimmte Länder höhere Investitionen in den Fischschutz tätigen, warum fischbezogene Themen unterschiedlich im politischen Diskurs auftreten und warum es zwischen den europäischen Ländern Unterschiede in der gesellschaftlichen Bedeutung und in der Wahrnehmung von Fischen und der Fischerei gibt“, erläutert der Projektleiter Professor Dr. Robert Arlinghaus vom IGB.

Wichtige Erkenntnisse für die Umweltbildung:
Aus den Ergebnissen leiteten die Forschenden Erkenntnisse für effektive Umweltbildungs- und Interventionskampagnen ab. Diese Maßnahmen – beispielsweise initiiert von Ministerien oder von umweltbezogenen Nichtregierungsorganisationen – brauchen einen argumentativen Rahmen, der den Nerv der Adressaten trifft: „Ein vielversprechender Weg besteht darin, die Kernbotschaft einer Informationskampagne in ein Narrativ einzubetten, das länderspezifische Bezüge zur Art und Weise der Umweltwahrnehmung herstellt. Während Themen und Fakten rund um den Wildlachs oder die Bachforelle Menschen in Norwegen und Schweden begeistern, erreicht man die Deutschen eher mit allgemeinen Themen wie der Wasserqualität oder der Gefährdung der Biodiversität als Ganzes“, fasst Carsten Riepe die praktischen Schlussfolgerungen der Studie für die Umweltbildung und -kommunikation zusammen.

Wissenschaftliche Ansprechpartner:
Dr. Carsten Riepe
Email: riepe@igb-berlin.de

Prof. Dr. Robert Arlinghaus
Forschungsgruppenleiter am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) und
Professor für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin
E-Mail: arlinghaus@igb-berlin.de
Tel.: +49 30 64181-653
http://www.ifishman.de

Originalpublikation:
Carsten Riepe, Ulf Liebe, Marie Fujitani, Sophia Kochalski, Øystein Aas & Robert Arlinghaus (2021): Values, Beliefs, Norms, and Conservation-Oriented Behaviors toward Native Fish Biodiversity in Rivers: Evidence from Four European Countries, Society & Natural Resources, 34:6, 701-722, DOI: 10.1080/08941920.2021.1890865

Weitere Informationen:
https://www.igb-berlin.de/news/gewaesserschutz-deutsche-haben-oekologische-grund…

(nach oben)


Roboterhunde auf der Baustelle

Franziska Trede Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Der digitale Wandel ist überall zu finden. Das beschränkt sich nicht nur auf sprachgesteuerte Fernseher oder selbstfahrende Autos. Auch der Bau von Hochhäusern kann durch die Digitalisierung optimiert werden. „Noch vor einigen Jahren hätte man es für unmöglich gehalten, Beton zu drucken. Jetzt können wir sogar ganze Häuser mithilfe von 3D-Druck errichten“, sagt Kay Smarsly. Seit dem 1. März 2021 ist er Professor und Leiter des neuen Instituts für Digitales und Autonomes Bauen (IDAC) an der Technischen Universität Hamburg und arbeitet an den Gebäuden der Zukunft. „Alle meine Forschungsideen sind dadurch motiviert, Mensch und Natur zu schützen und das Leben angenehmer zu machen.“

Beton-Kontrolle durch Laufroboter
So beschäftigt sich Smarsly in seiner Forschung unter anderem mit Beton-Druck, Künstlicher Intelligenz (KI) sowie intelligenten Sensoren, die für die Überwachung von Brücken, Talsperren oder Hochhäusern eingesetzt werden. Aktuell arbeiten er und sein Team an intelligenten Laufrobotern, die Bauwerke überwachen und miteinander kommunizieren können. Mithilfe von Laserscannern und weiteren Sensoren erfassen sie Messdaten von Gebäuden, die sie dann durch KI selbstständig analysieren und an die angeschlossenen Computersysteme weiterleiten. „Die Roboter können sich eigenständig in den Bauwerken zurechtfinden und erinnern dabei ein wenig an herumstreunende Hunde“, erklärt der TU-Professor. Sobald sie bei ihren Kontrollgängen Auffälligkeiten im Beton messen, zum Beispiel Risse, werden die verantwortlichen Mitarbeiterinnen und Mitarbeiter auf der Baustelle sofort digital benachrichtigt. Das erleichtert nicht nur die Bauarbeiten, sondern macht auch die Gebäude sicherer.

Umweltschutz durch Sensoren
Auch Themen wie Umwelt gehören zum Forschungsprofil von Kay Smarsly. Die von ihm entwickelten intelligenten Sensoren, können nicht nur Schäden an Bauwerken, sondern auch Schadstoffe im Boden messen. Dadurch kann unter anderem die Trinkwasserqualität jederzeit und an jedem Ort kostengünstig und leicht bedienbar geprüft werden. „Diese Technologie möchten wir langfristig auch in Entwicklungsländern einsetzen“, so Smarsly.

Die Vielseitigkeit, die sein Forschungsbereich mit sich bringt, fasziniert den TU-Forscher: „Der digitale Wandel ermöglicht es mir, visionäre Ideen umzusetzen und interdisziplinär zu arbeiten.“ Eine wissenschaftliche Karriere hatte er während seines Bauingenieur-Studiums aber eigentlich nie im Sinn. Er habe es einfach auf sich zukommen lassen: „’Ett kütt wie et kütt’ – wie man in meiner Heimat, dem Rheinland, so schön sagt.“ Vor seiner Tätigkeit an der TU Hamburg war Smarsly Professor und Lehrstuhlinhaber an der Bauhaus-Universität Weimar.

Weitere Informationen auf der Homepage des Instituts für Digitales und Autonomes Bauen: http://www.tuhh.de/alt/idac.

Das Institut für Digitales und Autonomes Bauen ist in den sozialen Medien auf Instagram und Twitter vertreten:
https://www.instagram.com/idac_tuhh/
https://twitter.com/IDAC_TUHH

Wissenschaftliche Ansprechpartner:
Professor Smarsly: kay.smarsly@tuhh.de

(nach oben)


Dem Meeresmüll trotzen

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Meeresmüll ist eines der drängendsten weltweiten Verschmutzungsprobleme. Nikoleta Bellou, Forscherin am Helmholtz-Zentrum Hereon, hat mit ihrem Team im renommierten Fachmagazin Nature Sustainability eine Überblicksstudie über die Lösungen zur Vermeidung, zum Monitoring und zur Reinigung veröffentlicht. Die Erkenntnis: Es braucht mehr Förderung, mehr Vernetzung der Akteure und mehr politischen Gestaltungswillen, sollen die Meere sauberer und nachhaltiger genutzt werden.

Plastikflaschen, die im Meer treiben. Tüten in den Mägen von Schildkröten. Corona-Masken, die auf Schaumkronen tanzen. Wenige Bilder sind so hässlich anzuschauen wie die Verschmutzung unserer Weltmeere. Und kaum ein Umweltproblem ist so drängend und gleichzeitig im öffentlichen Bewusstsein. „Die meisten Menschen haben eine Beziehung zum Meer. Sie erleben die Verschmutzung als Angriff auf ihren Sehnsuchtsort. Deshalb passt unsere Studie zur Nachhaltigkeit in die Zeit, auch vor dem Hintergrund der angebrochenen UN-Dekade der Meeresforschung“, sagt die Küstenforscherin Nikoleta Bellou vom Institut für Küstensysteme – Analyse und Modellierung des Helmholtz-Zentrums Hereon. Allein zwischen 1990 und 2015 sollen bis zu 100 Millionen Tonnen Müll in die Ozeane gelangt sein, vor allem Kunststoffe.

Die neue Überblicksstudie erfasst erstmals das Gros der Lösungen – Technologien und Methoden – zu Prävention, Monitoring und Säuberung mit innovativem Charakter. Mit Blick auf die Zukunft hat Nikoleta Bellou mit einem internationalen Team Lösungen aus aller Welt eingeordnet und analysiert. Beteiligt waren unter Führung des Helmholtz-Zentrums Hereon noch der National Research Council of Italy, das Marine Enviromental Sciences Centre, die National Technical University of Athens, die Smithsonian Institution und Maritme Robotics.

In jede Schublade schauen
Das Team hat jede Schublade einmal geöffnet und hineingeschaut. Dabei wurde alles unter die Lupe genommen – von Crowdfunding-Projekten bis hin zu Forschungsdatenbanken. Die Forschenden haben fast 200 geplante oder bereits umgesetzte Lösungen betrachtet, bei denen etwa Drohnen, Roboter, Förderbänder, Netze, Pumpen oder Filter zum Einsatz kommen sollen – je nachdem, ob sie an der Küste, auf hoher See oder am Meeresgrund säubern.

Während bis heute viele Entwickler ähnliche technologische Ansätze verwenden, gibt es Hinweise, dass die nächste Generation zunehmend auf unterschiedlichste Lösungen setzt. Bei diesen integrieren sie immer öfter maschinelles Lernen, Robotik, Automatisierungen, Big-Data-Analysen und Modellierungen. Während die wissenschaftliche Gemeinschaft laut dieser Studie ihr hauptsächliches Augenmerk auf das Monitoring zu legen scheint und NGOs meist auf die Prävention schauen, entstanden die meisten Reinigungslösungen durch Kooperationen verschiedener Akteure.

Selten umgesetzt
Trotz aller guten Vorsätze: Die meisten Projekte kommen nicht über eine Entwicklungsphase hinaus. Fast keine der Lösungen ist technisch Realität geworden oder gar auf dem Markt. Der Planstatus müsse überwunden und vieles fertiggedacht werden, so die Autoren. „Die Eingliederung von Lösungen in Richtlinien muss politisch gepusht werden, um so eine Branche der Zukunft zu etablieren“, sagt Bellou. Basierend auf Recherchen und Datenerhebungen zeigt die Analyse, wie weit die Informationen verstreut und zudem oft schwer zugänglich sind. Die meisten Lösungen, rund 60 Prozent, hatten primär das Monitoring zum Ziel und wurden in den letzten drei Jahren entwickelt.

Empfehlungen an die Politik
Die Studie geht auf die Grenzen bestehender und die Herausforderungen bei der Entwicklung neuer Lösungen ein. Zusätzlich gibt sie Handlungsempfehlungen für die Politik ab. Neben internationaler Kooperation von Forschenden und nationaler Umweltministerien und behörden, empfehlen die Wissenschaftlerinnen und Wissenschaftler eine Definition von Standards für jede Lösung, etwa die Bewertung nach jeweiliger Größe, Effizienz und umweltverträglichem Fußabdruck. Dann kann das Auflegen neuer Förderprogramme zur Weiterentwicklung bekannter und neuer Lösungen folgen, flankiert durch eine globale Datenbank. „Auf die Weise bestärken wir Forschende aber auch politische Entscheider und Entscheiderinnen, einen nachhaltigen Ansatz zu entwickeln für die Eindämmung des Meeresmülls. Damit wir künftigen Generationen einen sauberen Ozean hinterlassen“, sagt Nikoleta Bellou.

Wissenschaftliche Ansprechpartner:
Dr. Nikoleta Bellou I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I nikoleta.bellou@hereon.de

Christoph Wöhrle I Helmholtz-Zentrum Hereon I Kommunikation und Medien
T: +49 (0) 4152 87-1648 I presse@hereon.de I http://www.hereon.de

Originalpublikation:
https://www.nature.com/articles/s41893-021-00726-2

Weitere Informationen:
https://www.hereon.de/institutes/coastal_systems_analysis_modeling/index.php.de

(nach oben)


Wie Katalysatoren altern

Dr. Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
PSI-Forschende haben eine neues Tomografie-Verfahren entwickelt, mit dem sie chemische Eigenschaften im Inneren von Katalysator-Materialien in 3-D extrem genau und schneller als bislang messen können. Die Anwendung ist gleichermassen für Forschung und Industrie wichtig. Ihre Ergebnisse veröffentlichten die Forschenden heute in der Fachzeitschrift Science Advances.

Die Materialgruppe der Vanadium-Phosphor-Oxide (VPO) ist in der chemischen Industrie weit verbreitet als Katalysator. Bereits seit den 1970er-Jahren werden VPO bei der Herstellung von Maleinsäure-Anhydrid eingesetzt; dies wiederum ist Ausgangsmaterial zur Herstellung bestimmter Arten von Plastik, darunter zunehmend biologisch abbaubarer Kunststoffe. In der Industrie werden die Katalyse-Materialien über mehrere Jahre genutzt, denn sie spielen zwar für den Ablauf der chemischen Reaktionen eine wichtige Rolle, werden dabei selbst aber nicht verbraucht. Dennoch verändert sich der VPO-Katalysator durch diesen Einsatz mit der Zeit.

Forschende aus zwei Einheiten des Paul Scherrer Instituts PSI – dem Forschungsbereich für Photonenforschung sowie dem Bereich Energie und Umwelt – haben nun in Zusammenarbeit mit der ETH Zürich und der Schweizer Firma Clariant AG den Alterungsprozess von VPO genau untersucht – und in diesem Zuge auch ein neues experimentelles Verfahren entwickelt.

Zwei Methoden…
Die Clariant AG ist ein weltweit führendes Unternehmen für Spezialchemie. Clariant stellte dem PSI zwei Proben zur Verfügung: Erstens eine Probe aus bislang ungenutztem VPO und zweitens VPO, das vier Jahre lang als Katalysator im industriellen Betrieb eingesetzt worden war. Dass sich das VPO mit den Einsatzjahren verändert und seine gewünschten Eigenschaften leicht einbüsst, war schon lange bekannt. Nicht restlos geklärt war jedoch bisher, welche Prozesse in der Nano-Struktur und auf der Ebene der Atome hierfür verantwortlich sind.

Dieser Frage gingen die PSI-Forschenden mittels hochmoderner Methoden der Materialcharakterisierung nach. Um den chemischen Aufbau der Proben auf der Nano-Skala sichtbar zu machen, kombinierten sie zwei Verfahren: Erstens eine bestimmte, zuvor am PSI entwickelte Tomografie-Methode namens ptychografische Röntgen-Computertomografie, die die Röntgenstrahlung der Synchrotron Lichtquelle Schweiz SLS nutzt und zerstörungsfrei das Innere der Probe in 3-D und mit Nano-Auflösung abbilden kann. Zweitens nahmen die Forschenden eine lokale Transmissionsspektroskopie-Methode hinzu, die zusätzlich in jedem Volumenelement der Tomogramme die chemischen Eigenschaften des Materials aufzeigte.

«Im Grunde haben wir 4-dimensionale Daten erhoben», erklärt Johannes Ihli, Forscher am PSI und einer der Studien-Autoren: «Wir haben eine hochaufgelöste 3-D-Darstellung unserer Probe rekonstruiert, bei der die einzelnen Volumenelemente – genannt Voxel – eine Kantenlänge von nur 26 Nanometern haben. Zusätzlich haben wir zu jedem dieser Voxel ein quantitatives Röntgen-Transmissionsspektrum, dessen Analyse uns die Chemie genau dort verrät.»

Anhand dieser Spektren ermittelten die Forschenden für jedes Voxel einige der grundlegendsten chemischen Grössen: Die Elektronendichte, die Vanadiumkonzentration und der Oxidationsgrad des Vanadiums. Da es sich bei den untersuchten VPO-Katalysatoren um ein sogenanntes heterogenes Material handelt, ändern sich diese Grössen in verschiedenen Massstäben über das gesamte Probenvolumen. Dies wiederum bestimmt oder begrenzt die Leistungsfähigkeit des Katalysatormaterials.

… und ein neuer Algorithmus
Das schrittweise Vorgehen, um diese Daten zu erhalten, bestand darin, die Probe zunächst für ein 2-D-Projektionsbild zu vermessen, sie dann ein winziges Stück zu drehen, wiederum zu vermessen und so weiter. Dieser Prozess wurde dann bei verschiedenen Energien wiederholt. Nach dem bisherigen Verfahren wären dabei rund fünfzigtausend einzelne 2-D-Aufnahmen nötig gewesen, die zu etwa hundert Tomogrammen zusammengesetzt worden wären. Für jede der beiden Proben hätte dies etwa eine Woche reine Messzeit bedeutet.

«Die Experimentierplätze an der SLS sind sehr begehrt und rund ums Jahr ausgebucht», erklärt Manuel Guizar-Sicairos, ebenfalls PSI-Forscher und Leiter dieser Studie. «Wir können es uns daher nicht erlauben, Messungen durchzuführen, die so lange dauern.» Die Datenerhebung musste effizienter werden.

Dies gelang Zirui Gao, Erstautor der Studie, in Form eines neuen Prinzips der Datenaufnahme und einem zugehörigen Rekonstruktions-Algorithmus. «Für die 3-D-Rekonstruktion von Tomogrammen braucht man Aufnahmen aus vielen Winkeln», erklärt Gao. «Unser neuer Algorithmus aber schafft es, die benötigte Menge an Information auch dann zu gewinnen, wenn man den Abstand zwischen den Winkeln ungefähr verzehnfacht – also nur rund ein Zehntel der 2-D-Bilder aufnimmt.» So gelang es den Forschenden, die benötigten Daten in nur rund zwei Tagen Messzeit zu gewinnen und folglich viel Zeit und damit auch Kosten zu sparen.

Grössere Poren und fehlende Atome
Die Messungen der beiden Proben zeigten: Das frische VPO hatte wie erwartet viele kleine Poren, die gleichmässig im Material verteilt waren. Diese Poren sind wichtig, denn sie stellen die Oberfläche bereit, an der die Katalyse ablaufen kann. In der VPO-Probe dagegen, die vier Jahre lang in Gebrauch gewesen war, hatte sich die Struktur auf der Nano-Skala umgebaut: Es gab grössere und dafür weniger Hohlräume. Das Material dazwischen zeigte grössere, länglich-kristalline Formen.

Auch auf molekularer Ebene zeigten sich Veränderungen: Mit der Zeit waren im Atom-Gitter Fehlstellen, auch genannt Löcher, entstanden. Deren Existenz war bisher nur vermutet worden. Mit ihrem neu erhaltenen Wissen über die Probenchemie auf der Nanoskala konnten die Forschenden nun diese Löcher bestätigen und ihre genaue Lage bestimmen: an der Stelle bestimmter, nunmehr fehlender Vanadium-Atome. «Dass der relative Gehalt an Vanadium mit der Zeit abnimmt, war schon vorher bekannt», so Gao. «Aber wir konnten jetzt erstmals zeigen, an welcher Stelle im Kristallgitter diese Atome fehlen. Zusammen mit unseren anderen Ergebnissen bestätigt dies eine bisherige Vermutung: dass nämlich diese Fehlstellen im Atomgitter als zusätzliche aktive Stellen für den Prozess der Katalyse dienen können.»

Dies bedeutet, dass diese zunehmenden Fehlstellen ein willkommener Effekt sind: Sie erhöhen die katalytische Aktivität und wirken so zumindest teilweise dem Aktivitätsverlust entgegen, der entsteht, wenn die Zahl der Poren abnimmt. «Unsere neuen, detaillierten Ergebnisse könnten Industrie-Unternehmen helfen, ihre Katalysatoren zu optimieren und langlebiger zu machen», so Gao.

Text: Paul Scherrer Institut/Laura Hennemann

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 400 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.

Wissenschaftliche Ansprechpartner:
Zirui Gao
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 29 10, E-Mail: zirui.gao@psi.ch [Englisch, Chinesisch]

Dr. Manuel Guizar-Sicairos
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 34 09, E-Mail: manuel.guizar-sicairos@psi.ch [Englisch, Spanisch]

Dr. Johannes Ihli
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 40 50, E-Mail: johannes.ihli@psi.ch [Deutsch, Englisch]

Dr. Mirko Holler
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 36 13, E-Mail: mirko.holler@psi.ch [Deutsch, Englisch]

Originalpublikation:
Sparse ab initio X-ray transmission spectro-tomography for nanoscopic compositional analysis of functional materials
Z. Gao, M. Odstrcil, S. Böcklein, D. Palagin, M. Holler, D. Ferreira Sanchez, F. Krumeich, A. Menzel, M. Stampanoni, G. Mestl, J.A. van Bokhoven, M. Guizar-Sicairos, J. Ihli
Science Advances 9. Juni 2021 (online)
DOI: https://dx.doi.org/10.1126/sciadv.abf6971

Weitere Informationen:
http://psi.ch/de/node/45305 – Darstellung der Mitteilung auf der Webseite des PSI und Bildmaterial
http://psi.ch/de/node/33008 – Nanowelten in 3-D (Ein Text vom 11. März 2020)

(nach oben)


«Wir sollten den Einfluss von Reisen nicht unterschätzen»

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Emma Hodcroft vom Institut für Sozial- und Präventivmedizin hat mit Hilfe der von ihr mitentwickelten Sequenzierplattform Nextstrain eine neue Coronavirus-Variante (EU1) identifiziert, die sich vergangenen Sommer in Europa rasant ausgebreitet hat. Dabei spielten Ferienreisen eine wichtige Rolle. Bald sind Sommerferien: Wie können wir reisen ohne zu hohes Risiko?

Sie haben gezeigt, wie schnell eine Virus-Variante dominant werden kann, ohne besonders ansteckend zu sein. Wie erklären Sie sich die starke Ausbreitung von EU1, das letzten Sommer in Spanien aufgetaucht ist?

Das wirklich Interessante an EU1 ist, dass wir zuerst dachten, es könnte ansteckender sein, weil wir sahen, wie seine Häufigkeit in ganz Europa anstieg. Aber je mehr wir uns damit beschäftigten, stellten wir fest, dass es einen Zusammenhang mit Reisen gab. Wir glauben, dass der eigentliche «Erfolg» von EU1 darin bestand, dass es die Ferienreisen im letzten Sommer nutzen konnte, um sich zumindest für ein paar Monate unkontrolliert in ganz Europa auszubreiten. EU1 hat also gezeigt, dass eine Variante sich rasch ausbreiten kann, ohne ansteckender sein zu müssen. Selbst jetzt, wo wir Varianten haben, die ansteckender zu sein scheinen, werden wir daran erinnert, dass wir den Einfluss von Reisen nicht unterschätzen sollten. Das sollten wir im Hinterkopf behalten bei der Entdeckung neuer Varianten.

Wie genau hat sich EU1 so schnell verbreitet, auch in der Schweiz?

In der Schweiz erreichte es seinen Höhepunkt mit einem Anteil von etwa 30 Prozent unserer Sequenzen. In der Schweiz hatten wir also eher einen Mix von Varianten. Wir gehen davon aus, dass EU1 in den meisten Ländern Europas mehrfach aus Spanien eingeschleppt wurde – so kamen wahrscheinlich viele Ferienreisende aus Spanien damit zurück. Aber dann breitete sich EU1 mit der Zeit auch in anderen Ländern Europas aus. Das heisst: selbst als Länder empfahlen, nicht mehr nach Spanien zu reisen, war EU1 zu diesem Zeitpunkt leider schon ausserhalb Spaniens. Es reiste also auch zwischen anderen europäischen Ländern hin und her.

Welche Eindämmungsstrategien sind in Bezug auf Reisen am wirksamsten?

Das ist nicht einfach, aber Tests sind ein guter Weg, um zu erkennen, ob jemand mit dem Virus zurückkommt. Am wichtigsten ist, dass es die Betroffenen selbst mitbekommen. Eine Quarantäne, die auf Vertrauen basiert, ist schwierig, wenn sich Reisende gut fühlen und denken: «Ich werde mich nicht angesteckt haben, es ist OK, wenn ich rausgehe.» Wenn aber Personen wissen, dass sie infiziert sind, ist es für sie viel einfacher zu erkennen: «Ich muss wirklich zu Hause bleiben, weil ich jemanden anstecken könnte.»

Sie waren Teil des internationalen Expertinnen- und Expertengremiums, das die aktuellen «besorgniserregenden Varianten» nach griechischen Buchstaben umbenannt hat, wie etwa «Delta» für die sogenannte «indische Variante». Warum?

Wir wollten etwas, das leicht auszusprechen ist, das man sich leicht merken kann, etwas, das den Leuten schon ein bisschen vertraut ist, das aber nicht mit einem Land assoziiert ist. Das war etwas, das wir zu vermeiden suchten: dass weiterhin von der «indischen Variante» oder der «südafrikanischen Variante» die Rede ist. Ich finde, griechische Buchstaben erfüllen viele dieser Kriterien: Sie sind einfach auszusprechen, werden weltweit in Mathematik, Physik und der Wissenschaft allgemein verwendet und lassen uns nicht denken, dass die Variante von diesem einen Ort stammt und dieser Ort schlecht ist. Wir haben andere Optionen ausprobiert, wie zum Beispiel nur Zahlen zu verwenden: Variante 1, Variante 2, … oder die Varianten so wie Stürme zu benennen, ihnen also Personennamen zu geben. Aber jeder dieser Ansätze hatte Nachteile, so dass wir uns für das griechische Alphabet entschieden.

Glauben Sie, dass die Delta-Variante auch die dominante Variante in Europa werden könnte?

Ich denke, es ist noch ein bisschen zu früh, um dazu etwas zu sagen. Was mit der Delta-Variante passiert, zeigt, was wir von EU1 gelernt haben: Im Moment sehen wir die Delta-Variante nicht oft in Kontinentaleuropa, sondern vor allem in Grossbritannien. Was dort wirklich anders ist, sind die zahlreichen starken Verbindungen zu Indien, und viele Menschen reisten von Indien nach Grossbritannien ein, bevor das Reiseverbot in Kraft trat. Genau wie bei EU1 machen Einreisen einen Unterschied. Das heisst jetzt nicht, dass die Variante nicht ansteckender ist, aber es macht es ein bisschen schwieriger vorherzusagen, ob das bei uns ähnlich sein wird oder ob wir es vielleicht – weil wir weniger Einschleppungen hatten – besser eindämmen können. Dazu brauchen wir aktuell mehr Daten.

Wir sind hier in einer komfortablen Position, aber was passiert, wenn die Delta-Variante Länder ohne Impfstoffe oder mit schlechter Infrastruktur trifft, wie Nepal oder Länder in Afrika?

Dies sollte uns wirklich beunruhigen, und wir könnten hier mehr Unterstützung leisten. Vor allem in den USA und in weiten Teilen Europas sind nun die Impfungen gut angelaufen, und es wird in den nächsten ein, zwei Monaten eine grosse Anzahl geimpfter Personen geben. Das ist fantastisch, aber so viele Länder auf der Welt sind noch weit entfernt davon und noch immer gefährdet. Ich würde gerne sehen und hören, wie mehr Regierungen anfangen, ihre Aufmerksamkeit darauf zu richten: «Okay, in unserem Land läuft es ganz gut, wie können wir jetzt andere Länder unterstützen? Wie können wir die Verfügbarkeit von Impfungen ausweiten, wie können wir Sauerstofftanks in Ländern mit Ausbrüchen zur Verfügung stellen oder Geld für Gesundheitsdienste?»

Denn die Sache ist die: Dies ist eine globale Pandemie, und wir haben gesehen, was passiert, wenn Varianten in anderen Ländern auftreten: Sie können in unser Land kommen. Unsere Schutzmassnahmen sind nicht perfekt. Und was wir definitiv nicht wollen, ist, dass eine Variante entsteht, die sich im Hintergrund durchsetzen kann. Die beste Strategie ist also, alle Länder darin zu unterstützen, ihre Fallzahlen zu kontrollieren. Denn wir werden erst dann wirklich sicher vor Sars-CoV-2 sein, wenn alle Länder in der Lage sind, ihre Fallzahlen niedrig zu halten.

Wie können Sie mit genomischer Überwachung eine Pandemie bekämpfen, wenn Sie kein globales Bild von Ausbrüchen oder neuen Varianten haben, vor allem, wenn nur sehr wenige Daten aus afrikanischen Ländern verfügbar sind?

Gute Frage – das ist ein Problem. Bei Reisebeschränkungen ist es zum Beispiel so: Wenn wir keine Sequenzen aus einem bestimmten Land haben, hat es natürlich auch keine Varianten, und die Reisefreiheit wird nicht eingeschränkt. Ich sage jetzt nicht, dass wir diese einschränken sollten, aber es zeigt, dass keine Daten zu haben nicht notwendigerweise bedeutet, dass es kein Problem gibt. Es bedeutet nur, dass wir es nicht wissen.

Was würden Sie empfehlen, wenn ich mit meiner Familie im Sommer nach Spanien oder in ein anderes Land reisen wollte, das nicht auf der Risikoliste steht?

Ich würde auf jeden Fall empfehlen, sich impfen zu lassen, und wenn es möglich ist, bis zwei Wochen nach der zweiten Dosis zu warten. Dann sollte man eine wirklich wirksame Immunität gegen Sars-CoV-2 haben. Das heisst natürlich nicht, dass Sie herumlaufen und jeden küssen sollten, den Sie treffen, aber es senkt wirklich das Risiko, sich anzustecken oder etwas einzuschleppen.

Und: Reisen Sie bewusst. Überlegen Sie sich: was möchten Sie wirklich tun, und worauf können Sie vielleicht in diesem Jahr verzichten? Vielleicht verbringen Sie mehr Zeit am Strand und weniger Zeit in einem Club. Oder Sie versuchen, in Restaurants draussen zu sitzen. Und wenn Sie irgendwo hingehen, wo es voll zu sein scheint – vielleicht sind in anderen Ländern mehr Leute in einem Raum erlaubt als in der Schweiz – können Sie immer sagen: «Das ist nichts für mich.» Es ist okay, seine Meinung zu ändern und zu sagen: «Lass uns versuchen, morgen früher zu kommen, dann ist weniger los.» Diesen Sommer ist Flexibilität etwas, das wir alle nutzen können. Wir sollten darüber nachdenken, wie wir mehr Zeit draussen verbringen können, und nicht etwas tun, nur weil wir gesagt haben, dass wir es tun, sondern weil wir das Gefühl haben, dass es sicher ist und wir uns dabei wohlfühlen.

Wie sieht es mit Ihren Plänen für den Sommer aus? Werden Sie Ihre Familie in Grossbritannien oder den USA besuchen?

Ich mache im Moment keine konkreten Pläne, bin aber hoffnungsvoll, vor allem, weil dort, wo meine Familie in Grossbritannien und den USA wohnt, die Impfung wirklich gut läuft und die Fälle im Allgemeinen eingedämmt wurden. Aber ich möchte sichergehen, dass es sicher und ratsam ist, bevor ich mich zu sehr freue. Wenn sich herausstellt, dass Abwarten das Beste ist, würde ich lieber meinen Teil zur Sicherheit beitragen, als jemanden zu gefährden. Aber ich drücke mir die Daumen!

Über Emma Hodcroft
Seit 2020 arbeitet die Bioinformatikerin Emma Hodcroft im Rahmen eines Postdoc am Institut für Sozial- und Präventivmedizin (ISPM) der Universität Bern. Die 34-Jährige studierte Biologie an der Texas Christian University, wechselte für den Master an die University of Edinburgh und absolvierte dort anschliessend ein Doktorat und ein Postdoc zur genetischen Entwicklung von HIV. Hunderte von Zeitungen weltweit berichteten über ihre Arbeit auf Nextstrain, eine Open-Source-Plattform, auf der die Entwicklung von Mutationen des Sars-CoV-2 verfolgt wird. Mit über 64’000 Followern (Stand Anfang Juni) gehört sie zu den meistbeachteten Forschenden der Schweiz auf Twitter.

Zur Autorin
Nathalie Matter arbeitet als Redaktorin bei Media Relations und ist Themenverantwortliche «Gesundheit und Medizin» in der Abteilung Kommunikation & Marketing an der Universität Bern.

(nach oben)


Studie: Mit KI Ressourcen im Betrieb wirksam einsetzen

Jörg Walz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Die vom Bundesumweltministerium (BMU) beauftragte Studie »Potenziale der schwachen Künstlichen Intelligenz für die betriebliche Ressourceneffizienz« untersucht konkrete Einsatzmöglichkeiten von KI, um die Ressourceneffizienz vor allem in kleinen und mittleren Unternehmen (KMU) zu steigern.

Am 5. Mai war es wieder so weit: Erdüberlastungstag in Deutschland. Seit einem Monat leben wir wieder auf Kosten der Umwelt und zukünftiger Generationen. Wir agieren außerhalb der planetaren Grenzen und verbrauchen mehr Ressourcen als unsere Erde regenerieren kann. Das war die schlechte Nachricht.

Und jetzt die gute: Nachhaltiges Wirtschaften wird immer mehr als eine Notwendigkeit anerkannt – auch um die Zukunftsfähigkeit des Mittelstands zu sichern. Dabei sind die treibenden Kräfte u.a. die Forderungen von Kunden, Investoren und der Gesellschaft sowie sich verschärfende Vorgaben und Regularien seitens des Gesetzgebers. Dies lässt mehr und mehr Unternehmen tätig werden.

Unterstützung bei der Umsetzung im Betrieb
Es ist also höchste Zeit, unsere Produktions- und Lebensweise nachhaltig zu gestalten. Dazu gehört, dass die Ressourceneffizienz deutlich erhöht wird. Inwieweit Methoden der Künstlichen Intelligenz sich eignen, die natürlichen Ressourcen Wasser, Energie, Material im verarbeitenden Gewerbe effizient einzusetzen und damit Treibhausgase zu vermeiden, untersucht die jetzt erschienene Studie vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA und der Unternehmensberatung Deloitte Artificial Intelligence & Data. Ihr Fokus liegt dabei auf KMU. Denn insbesondere für KMU ist es schwierig, die richtigen Ansatzpunkte für den Einsatz vo n KI zu identifizieren. Häufig fehlen Zeit und Personal, um sich einen Überblick über die Möglichkeiten von KI und den damit verbundenen Methoden und Technologien zu verschaffen. Auch das nötige Fachwissen zur Auswahl und Umsetzung von KI-Projekten im eigenen Betrieb ist häufig nicht vorhanden. So stellt die Implementierung und Umsetzung von KI oftmals eine große Herausforderung dar. Die Studie zeigt deshalb nicht nur KI-Beispiele für die betriebliche Ressourceneffizienz auf, sondern bietet auch praktische Hilfestellungen bei der Umsetzung im eigenen Betrieb.

Forschungsfragen
Die Studie orientiert sich entsprechend an folgenden Fragestellungen:
• Welche Technologien und Methoden der schwachen KI können KMU des verarbeitenden Gewerbes verwenden, um ihre betriebliche Ressourceneffizienz zu steigern?
• Welche Potenziale hinsichtlich betrieblicher Ressourceneffizienz ermöglicht schwache KI bei KMU des verarbeitenden Gewerbes?
• Welche Anwendungsszenarien von schwacher KI sind am vielversprechendsten, um die betriebliche Ressourceneffizienz in KMU zu steigern?
• Welche Erfolgsfaktoren und Hemmnisse existieren für die systematische Anwendung von schwacher KI zur Steigerung der betrieblichen Ressourceneffizienz in KMU?
• Welche Umsetzungsbeispiele existieren für eine erfolgreiche Steigerung der betrieblichen Ressourceneffizienz in KMU durch den Einsatz schwacher KI?

Wettbewerbsvorteile und Alleinstellungsmerkmale für KMU
Da die Analyse großer Datenmengen sowie die einhergehende Ableitung möglicher Optimierungsmaßnahmen oft nur mit der Etablierung von Digitalisierungslösungen möglich ist, gilt die Digitalisierung bereits seit einiger Zeit als zentrales Instrument zur Verbesserung der Nachhaltigkeit von produzierenden Unternehmen. »Die Einbindung von Methoden der KI ist der konsequente nächste Schritt auf dem Weg zur Ausschöpfung von Ressourceneffizienzpotenzialen in Produktionsumgebungen«, sagt Professor Alexander Sauer, Leiter des Fraunhofer IPA und des Instituts für Energieeffiziente Produktion (EEP) der Universität Stuttgart. »Gerade auch für KMU bieten sich Chancen durch zielgerichtete Einbindung von KI, Wettbewerbsvorteile zu erzielen und Alleinstellungsmerkmale zu stärken oder zu etablieren.«

Die im Auftrag des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit (BMU) erstellte Studie wurde durch das VDI Zentrum Ressourceneffizienz (VDI ZRE) koordiniert und vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA gemeinsam mit Deloitte Artificial Intelligence & Data durchgeführt. Die Studie ist am 7. Juni 2021 erschienen und im Rahmen der 25. Netzwerkkonferenz »Künstliche Intelligenz – Chancen und Herausforderungen für Ressourceneffizienz« erstmals öffentlich vorgestellt worden.

Anhang
Im Allgemeinen wird zwischen »schwacher« und »starker« KI (engl.: artificial narrow intelligence vs. artificial general intelligence) unterschieden. Dabei soll sich starke KI vor allem dadurch auszeichnen, dass sie kognitive Fähigkeiten besitzt, die dem Menschen in nahezu allen Aspekten überlegen oder mit ihm gleichauf sein werden. Im Gegensatz dazu kann schwache KI zwar dem Menschen überlegen sein, ist dies jedoch meist nur in den Bereichen, für die sie explizit programmiert und trainiert wurde. Die schwache KI fokussiert auf die Lösung konkreter Anwendungsprobleme auf Basis bekannter Methoden aus der Mathematik und Informatik. Die entwickelten Systeme sind dabei zur Selbstoptimierung fähig.

Pressekommunikation: Jörg-Dieter Walz | Telefon +49 711 970-1667 | joerg-dieter.walz@ipa.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Lara Waltersmann | Telefon +49 711 970-1756 | lara.waltersmann@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | http://www.ipa.fraunhofer.de

Steffen Kiemel | Telefon +49 711 970-1436 | steffen.kiemel@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | http://www.ipa.fraunhofer.de

Weitere Informationen:
https://www.ipa.fraunhofer.de/de/presse/presseinformationen/mit-ki-ressourcen-im…
https://www.ressource-deutschland.de/fileadmin/user_upload/downloads/studien/VDI…

Anhang
Studie: Mit KI Ressourcen im Betrieb wirksam einsetzen

(nach oben)


Pflanzenkonkurrenz im Klimawandel

Rimma Gerenstein Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Wie Pflanzen mit Stressfaktoren umgehen, ist bereits breit erforscht. Was aber geschieht, wenn eine Pflanze mit zwei zeitgleich auftretenden Faktoren konfrontiert wird? Das hat ein Forschungsteam um Simon Haberstroh und Prof. Dr. Christiane Werner von der Professur für Ökosystemphysiologie der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg untersucht. Mit Kolleginnen und Kollegen des Forest Research Centre der School of Agriculture der Universität Lissabon/Portugal und dem Institut für Meteorologie und Klimaforschung des Karlsruher Institut für Technologie haben sie ihre Ergebnisse nun im Fachjournal „New Phytologist“ veröffentlicht.

Im Park Tapada Real in der portugiesischen Kleinstadt Vila Viçosa kreierten die Forscherinnen und Forscher eine Feldstudie. Im Mittelpunkt stand der Umgang des Ökosystems Korkeiche (Quercus suber) mit zwei Stressfaktoren: zum einen mit extremer Dürre, zum anderen mit der invasiven Pflanzenart Lack-Zistrose (Cistus ladanifer). Die Studie hat eine große Relevanz, da beide Stressfaktoren aktuell deutlich zunehmen. Gleichwohl stellte das Thema in der Wissenschaft bisher eine Forschungslücke dar, Forschende haben bisher selten thematisiert, wie verschiedene, miteinander interagierende Stressfaktoren Ökosysteme beeinflussen.

Die Ergebnisse ihrer Studie waren für die Wissenschaftlerinnen und Wissenschaftler zum Teil überraschend. „Die Faktoren agierten dynamischer als wir das erwartet hätten“, sagt Haberstroh, der die Untersuchungen für seine Doktorarbeit geleistet hat. In einem feuchten Jahr ergab die Doppelbelastung für die Korkeiche keine signifikanten Änderungen, unter Trockenheit stärkten oder schwächten sich die Faktoren jedoch gegenseitig. Ein überraschendes Ergebnis ist auch, dass die Korkeiche sich trotz doppelter Belastung nach einer extremen Dürrephase besser regenerieren kann als erwartet. Das geschieht vor allem, wenn die invasiven Büsche der Lack-Zistrose selbst stark unter der extremen Trockenheit leiden. Um weitere Daten zu sammeln und längerfristige Trends zu diagnostizieren, wollen die Forschenden das Projekt in Portugal fortführen.

„Diese neuen Ergebnisse der Forschung tragen dazu bei, Ökosysteme besser und zielführender verstehen und pflegen zu können“, erklärt Haberstroh. „Dadurch können beispielsweise Regeln für besonders trockene Jahre konzipiert werden, was gerade in Zeiten des Klimawandels zentral ist.“

Wissenschaftliche Ansprechpartner:
Simon Haberstroh
Professur für Ökosystemphysiologie
Fakultät für Umwelt und natürliche Ressourcen
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-54076
E-Mail: simon.haberstroh@cep.uni-freiburg.de

Originalpublikation:
Haberstroh, S., Caldeira, M. C., Lobo-do-Vale, R., Martins, Joana I., Moemken, J., Pinto, J. G., Werner, C. (2021): Non-linear plant-plant interactions modulate impact of extreme drought and recovery on a Mediterranean ecosystem. In: New Phytologist. DOI: 10.1111/nph.17522

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/pflanzenkonkurrenz-im-klimawandel

(nach oben)


HSD-Forschungsschwerpunkt „Umweltmesstechnik in der Luftreinhaltung“ zum aktuellen EuGH-Urteil

Simone Fischer Informations- und Pressestelle
Hochschule Düsseldorf
Der Forschungsschwerpunkt Umweltmesstechnik in der Luftreinhaltung (UMT) der Hochschule Düsseldorf unter der Leitung von Prof. Dr. Konradin Weber führt schon seit einiger Zeit systematische Untersuchungen zur Luftqualität an der verkehrsreichen Münsterstraße im Norden von Düsseldorf durch.

Diese Untersuchungen sind gerade vor dem jüngsten EuGH-Urteil interessant, bei dem Deutschland wegen hoher Stickoxid-Werte in den Jahren 2010 bis 2016 verurteilt wurde.

Der Messwagen des Forschungsschwerpunktes UMT mit seinem umfangreichen Instrumentarium zur Messung der Luftqualität ist schon seit Ende 2020 an der Münsterstraße für kontinuierliche Untersuchungen stationiert. Die Münsterstraße ist durch einen signifikanten Innerortsverkehr gekennzeichnet. Die Untersuchungen haben gezeigt, dass für diesen Verkehrsstandort der Einstundengrenzwert für NO2 in diesem Jahr kein Mal überschritten wurde. Zusätzlich zu NO2 werden mit dem Messwagen Luftschadstoffe wie Feinstaub, Ultrafeinstaub, Dieselruß, Ozon, SO2 sowie meteorologische Parameter untersucht. Dabei werden neben den Standardmessverfahren auch besonders innovative spektroskopische Messverfahren sowie Low-Cost-Sensoren eingesetzt, die in verschiedenen Forschungsprojekten weiterentwickelt werden.

Der gleichzeitige Einsatz so vieler verschiedener Messverfahren an einem Mess-Standort ermöglicht neue lufthygienische Erkenntnisse.

Weitere Informationen:
http://www.hs-duesseldorf.de

(nach oben)


Wie man Elfmeter besser halten kann

Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
FORSCHUNG AKTUELL heißt der Forschungsnewsletter, den die Deutsche Sporthochschule Köln Medienvertreter*innen regelmäßig anbietet, um ausgewählte spannende Forschungsaktivitäten an Deutschlands einziger Sportuniversität vorzustellen. Anlässlich der Fußball-Europameisterschaft dreht sich in der neuen Ausgabe alles um Fußball.

Die Themen in der aktuellen Ausgabe:

PAPER
Wissenschaftler*innen haben die Elfmeterschießen aller Welt- und Europameisterschaften zwischen 1984 und 2016 analysiert. Die insgesamt 395 ausgewerteten Schüsse zeigen: Ob der Ball ins Tor geht oder nicht, hängt von dem Zusammenspiel der Strategien von Schütze und Torwart ab. Das Fazit: Um beim Elfmeterschießen erfolgreich zu sein, ist es wichtig, die eigene Strategie immer mal wieder zu ändern oder die des Gegners genau zu kennen.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/paper/

PROJEKT
Verletzungen gehören zum Fußball wie der Ball und das Tor. Rund 83 Prozent aller Spieler verletzen sich im Saisonverlauf mindestens ein Mal. Die zweithäufigste Muskelverletzung im Fußball sind Adduktorenverletzungen. Expert*innen gehen davon aus, dass schnelle Richtungswechsel und Schussbewegungen mit der Innenseite des Fußes das Risiko von Leistenverletzungen erhöhen. Ob das stimmt, hat Thomas Dupré untersucht.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/projekt/

PERSON
Seit frühester Jugend ist Jürgen Mittag (51) fasziniert von politischen Prozessen, wie diese funktionieren oder auch nicht funktionieren. Eines seiner liebsten Untersuchungsobjekte ist dabei die Europäische Union. Seit zehn Jahren besetzt er an der Deutschen Sporthochschule Köln die damals erste originär sportpolitikbezogene Professur in Deutschland und leitet das Institut für Europäische Sportentwicklung und Freizeitforschung.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/person/

PODCAST
In den beiden neuen Folgen unseres Wissenschaftspodcasts „Eine Runde mit…“ lernen Sie wieder zwei unserer Wissenschaftler*innen kennen. Im persönlichen Gespräch geben die Psychologin Dr. Babett Lobinger und Univ.-Prof. Dr. Daniel Memmert, der im Bereich Spielanalyse forscht, spannende Einblicke in ihre Forschung sowie Impulse für aktuelle gesellschaftliche Diskussionen.
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/podcast/

NEWS
+++ Veröffentlichung zur Bekämpfung der Spielwettbewerbsmanipulation +++ Stark gegen Kinderkrebs +++ Von der Forschung in die Ausbildung +++ Queere Belange im Sport +++ Brexit – Auswirkungen auf den Sport +++
Mehr lesen: https://www.dshs-koeln.de/aktuelles/forschung-aktuell/archiv/nr-32021/news/

Originalpublikation:
http://www.dshs-koeln.de/forschungaktuell

Weitere Informationen:
http://www.dshs-koeln.de/forschungaktuell

(nach oben)


Meilenstein für nachhaltige Batterien – „grünere“ Kohlenstoffe

Dipl.-Geophys. Marie-Luise Righi PR und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC
Lithium-Ionen-Batterien benötigen eine Reihe von speziellen Funktionsmaterialien für ihre Leistungsfähigkeit. Einige davon klingen eher unspektakulär: leitfähige Additive. Tatsächlich sind leitfähige Zusätze wie Leitruß oder Kohlenstoff-Nanoröhren ein entscheidender Baustein für die Leistungsfähigkeit und Umweltverträglichkeit von Lithium-Ionen-Batterien. Das kürzlich gestartete Verbundprojekt HiQ-CARB zielt darauf ab, neue Kohlenstoffe mit einer überlegenen Leistung und einem geringen CO₂-Fußabdruck für zukünftige grüne Batterien in Europa bereitzustellen. HiQ-CARB erhält EU-Fördermittel von EIT RawMaterials, um dieses essentielle neue Batteriematerial zu skalieren und zu validieren.

Mittlerweile ist es hinlänglich bekannt: Li-Ionen-Batterien sind eine Schlüsseltechnologie für zukunftsweisende europäische Industrien wie Elektrofahrzeuge, tragbare elektronische Geräte oder eine Vielzahl anderer Anwendungen, bei denen Energie möglichst aus erneuerbaren Ressourcen gespeichert und bereitgestellt wird. Große Teile der europäischen Industrie, darunter auch die europäische Automobilindustrie, sind zunehmend auf importierte Lithium-Ionen-Zellen angewiesen. Der europäische Green Deal und verschiedene unterstützende Maßnahmen zielen darauf ab, das Beschäftigungs-, Wachstums- und Investitionspotenzial von Batterien zu nutzen. Es soll eine wettbewerbsfähige Wertschöpfungskette „Batterie“ in Europa geschaffen werden – nicht zuletzt, um Batterietechnologien umweltfreundlicher und „grüner“ zu machen.

Was hat Kohlenstoff mit Lithium-Ionen-Batterien zu tun?
Kohlenstoff spielt eine entscheidende Rolle bei der Verbesserung der elektronischen Leitfähigkeit von Batteriekathoden und ist daher für das Erreichen schneller Lade- und Entladeraten unerlässlich. Im wachsenden Batteriemarkt machen die Rohstoffe den größten Teil der Kosten in der Produktion aus. „Um die wachsende europäische Batterieindustrie nachhaltig mit hochwertigen Leitadditiven versorgen zu können, müssen CO₂- und ressourceneffiziente Kohlenstoffmaterialien geschaffen, validiert und in ausreichender Menge in Europa wirtschaftlich produziert werden“, erklärt Projektkoordinator Dr. Andreas Bittner vom Fraunhofer-Institut für Silicatforschung ISC. Das ist es, was HiQ-CARB erreichen will.

Intelligent kombinieren, verarbeiten und lernen
Das Projektteam von HiQ-CARB setzt zum einen auf sehr profilierte Unternehmen wie ARKEMA oder ORION für die Herstellung von fortschrittlichen Additiven und Customcells für die Batteriezellproduktion. Auf der anderen Seite sind namhafte FuE-Partner wie das Fraunhofer-Institut für Silicatforschung ISC, die Aalto-Universität und die Universität Bordeaux für den wissenschaftlichen Teil der Evaluierung und Erprobung der neuen Materialkombinationen selbst und der daraus hergestellten Batteriezellen beteiligt.

Der HiQ-CARB-Ansatz für fortschrittliche Kohlenstoff-Additive ist die Kombination von dünnen Kohlenstoff-Nanoröhrchen und Acetylen-Black Partikel (Acetylenruß), die mit hoher Leitfähigkeit und geringer CO₂-Emission bei der Herstellung punkten. In Kombination bilden sie ein nahezu ideal leitendes Netzwerk innerhalb der Batterieelektrode. Ziel des Projektes ist der Aufbau einer Produktion dieser Spezialmaterialien im Tonnen- und Megatonnenmaßstab sowie ein effizienter Prozess für die Kathodenherstellung im Pilotmaßstab. Für ein effektives Qualitätsmanagement während der Produktion müssen entsprechende Prüfvorschriften und Routinen für die Qualifizierung und Qualitätssicherung entwickelt und etabliert werden.

Darüber hinaus wird das HiQ-CARB-Team Wissens- und Lernmodule zur Verfügung stellen, um die Ausbildung zukünftiger Experten für die Lithiumbatterie-Wertschöpfungskette und Beteiligungsmöglichkeiten für Industrie und Forschung gemäß den Bildungsempfehlungen von EIT RawMaterials zu unterstützen.

Wie Kohlenstoffe „grüner“ werden
Carbon Black (Kohlenstoff, hier speziell Leitruß) wird in der Regel mit hohem Energie- und Prozessmaterialaufwand hergestellt. HiQ-CARB wird Standard-Leitruß durch neuen und viel grüneren hochwertigen Acetylenruß ersetzen. Dies trägt erheblich zur Verbesserung der Umweltbilanz bei, z. B. durch die Reduzierung des CO₂-Fußabdrucks der Materialherstellung. Darüber hinaus werden die bereits kommerzialisierten Standard-Kohlenstoff-Nanoröhren (carbon nanotubes – CNT) durch neue, noch viel dünnere CNT ersetzt. Dies führt zu einer geringeren Menge an Kohlenstoffmaterialien für die gleiche oder sogar bessere Batterieleistung und führt zu einer verbesserten Ressourceneffizienz. Darüber hinaus ist dies das einzige CNT Material weltweit, das aus einem erneuerbaren Bioethanol-Rohstoff hergestellt wird. Darüber hinaus wird im Rahmen des Projekts eine Lebenszyklusanalyse durchgeführt, um die Nachhaltigkeit des Produktionsprozesses zu bewerten.

Besuchen Sie unsere Internetseite: https://www.isc.fraunhofer.de/de/presse-und-medien/presseinformationen/HiQ-CARB-…

Projekt Information auf der EIT RawMaterials Internetseite
https://eitrawmaterials.eu/project/hiq-carb
HiQ-CARB. High-Quality Conductive Additives for Rechargeable Batteries
Projektlaufzeit: 1. Januar 2021 – 30. September 2024

Partner
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. / Fraunhofer-Institut für Silicatforschung ISC, Deutschland (Projektkoordinator)
Aalto University, Finnland
Arkema France, Frankreich
Custom Cells Itzehoe GmbH, Deutschland
Orion Engineered Carbons GmbH, Deutschland
Université de Bordeaux, Frankreich

Wissenschaftliche Ansprechpartner:
Dr. Andreas Bittner l andreas.bittner@isc.fraunhofer.de | Fraunhofer-Institut für Silicatforschung ISC l www.isc.fraunhofer.de

Anhang
Die Presseinformation als pdf

(nach oben)


Es gibt einen deutlichen Zusammenhang zwischen freiwilligem Engagement und positiven Einstellungen zu Demokratie

Stefanie Hartmann Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen
Freiwilliges Engagement dient nicht nur der sozialen Teilhabe der Menschen, sondern ist zugleich Ausdruck einer starken Zivilgesellschaft und einer stabilen Demokratie. Wie der Freiwilligensurvey 2019 zeigt, engagieren sich 28,8 Millionen Menschen ab 14 Jahren in Deutschland freiwillig, das sind 39,9 Prozent dieser Bevölkerungsgruppe. Freiwilliges Engagement ist dann eine Ressource für demokratische Prozesse, wenn sie auf demokratischen Prinzipien beruht und demokratische Ziele verfolgt.

Die Ergebnisse des Freiwilligensurveys 2019 zeigen: Die große Mehrheit der Bevölkerung in Deutschland steht der Demokratie als Regierungsform positiv gegenüber. Freiwillig engagierte Personen bewerten dabei mit 95,0 Prozent die Demokratie als gute Regierungsform zu höheren Anteilen als nicht freiwillig engagierte Personen mit 87,8 Prozent. Auch auf die Frage, wie zufrieden man mit dem Funktionieren der Demokratie in Deutschland ist, fällt die Bewertung engagierter Personen positiver aus als die der nicht engagierten Personen: Während 72,2 Prozent der engagierten Personen mit dem Funktionieren der Demokratie in Deutschland zufrieden sind, sind es bei nicht engagierten Personen 65,8 Prozent. Freiwillig engagierte Personen weisen darüber hinaus höheres Vertrauen in grundlegende gesellschaftliche und demokratische Institutionen auf (Polizei, Justiz, Bundestag, Bundesregierung, Europäisches Parlament, Parteien) als nicht engagierte Personen.

Diese Ergebnisse aus dem Hauptbericht des Deutschen Freiwilligensurveys 2019 weisen darauf hin, dass freiwilliges Engagement zu einer demokratischen und solidarischen Gesellschaft beitragen kann. Allerdings muss zur Kenntnis genommen werden, dass es auch im freiwilligen Engagement Menschen gibt, die wenig Vertrauen in demokratische Institutionen haben sowie der Demokratie – generell oder in Hinblick auf ihr Funktionieren in Deutschland – kritisch gegenüberstehen. Hierauf sollten politische und gesellschaftliche Akteure mit geeigneten Maßnahmen der Demokratieförderung reagieren.

Der Hauptbericht mit diesen und weiteren Befunden des Deutschen Freiwilligensurveys 2019 ist seit kurzem veröffentlicht. Zentrale Ergebnisse werden auf einer Tagung am 09.06.2021 vorgestellt und diskutiert. Informationen zu der Veranstaltung sowie der Bericht zum Download sind erhältlich unter www.freiwilligensurvey.de.

Die hier genannten Befunde zu Demokratieeinstellungen stammen aus dem Kapitel: Karnick, N., Simonson, J., Tesch-Römer, C. (2021). Einstellungen gegenüber gesellschaftlichen Institutionen und der Demokratie. In: J. Simonson, N. Kelle, C. Kausmann & C. Tesch-Römer (Hrsg.) Freiwilliges Engagement in Deutschland – Der Deutsche Freiwilligensurvey 2019 (S. 252–274). Berlin: Deutsches Zentrum für Altersfragen.

Der Deutsche Freiwilligensurvey (FWS) ist seit zwei Jahrzehnten die Basis für die Berichterstattung zum aktuellen Stand und zur Entwicklung des freiwilligen Engagements in Deutschland. Der Freiwilligensurvey wird gefördert vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ). Seit 1999 wird er alle fünf Jahre als telefonische, bevölkerungsrepräsentative Studie durchgeführt. Der Freiwilligensurvey 2019 wurde vom Deutschen Zentrum für Altersfragen (DZA) durchgeführt.

Originalpublikation:
Karnick, N., Simonson, J., Tesch-Römer, C. (2021). Einstellungen gegenüber gesellschaftlichen Institutionen und der Demokratie. In: J. Simonson, N. Kelle, C. Kausmann & C. Tesch-Römer (Hrsg.) Freiwilliges Engagement in Deutschland – Der Deutsche Freiwilligensurvey 2019 (S. 252–274). Berlin: Deutsches Zentrum für Altersfragen.

(nach oben)


Verklär²: Innovatives Verwertungskonzept für energieautarke und ressourcenschonende Kläranlagen

Sonja Wiesel M.A. Hochschulkommunikation und Öffentlichkeitsarbeit
Ostbayerische Technische Hochschule Amberg-Weiden
Pilotprojekt in Haßfurt: Autarke Kläranlage schützt das Klima und schont Ressourcen.

Herzstück des Projekts eine innovative Technologie zur Monoverbrennung, die erstmals die thermische Verwertung von Klärschlämmen in kleinskaligen Anlagen direkt am Ort der Entstehung ermöglicht – dezentral, emissionsarm und autark. Möglich macht dies der Einsatz der Wirbelfeuerungstechnik. Unterstützung für das Projekt erhält die Stadt von Experten aus Industrie und Forschung. In Kooperation mit der Spanner Re² GmbH, der Rheinisch-Westfälischen Technischen Hochschule Aachen (RWTH Aachen) und dem Institut für Energietechnik (IfE) an der Ostbayerischen Technischen Hochschule Amberg-Weiden entsteht am Standort Haßfurt eine Pilotanlage mit Wirbelfeuerung zur dezentralen Verbrennung und energetischen Nutzung von Klärschlamm.

Im Zuge von Klimaschutz und Ressourcenschonung ist Klärschlamm einer der relevantesten biogenen Abfallstoffe, dessen thermische Energie es effizient zu nutzen gilt.
Die in den kommenden Jahren in Kraft tretenden Verpflichtungen zur Phosphorrückgewinnung und Bestimmungen der Düngemittelverordnung schränken die bisher etablierten Entsorgungswege für kommunalen Klärschlamm erheblich ein. Die landwirtschaftliche Verwertung von Klärschlamm wird durch den steigenden öffentlichen Fokus auf Boden-, Pflanzen- und Umweltschutz kritisch bewertet und rechtlich eingeschränkt. Die Mitverbrennung des Klärschlamms, beispielsweise in Müllverbrennungsanlagen und Zementwerken, sieht hingegen die Rückgewinnung von Phosphor nicht vor. Außerdem fallen die Kapazitäten zur Mitverbrennung in Kohlekraftwerken durch den Kohleausstieg auf absehbare Zeit weg. Diese Auswirkungen erfordern in den nächsten Jahren einen massiven Ausbau von Monoverbrennungsanlagen zur Entsorgung von Klärschlamm. Bisher ist Klärschlamm-Monoverbrennung jedoch nur in großen Anlagen an zentralen Standorten technisch und wirtschaftlich machbar.

Das Konsortium im Forschungsprojekt „Verklär²“ hat es sich daher zum Ziel gesetzt, die dezentrale Monoverbrennung in kleinskaligen Anlagen zur Praxisreife zu bringen. Das Projekt wird im Rahmen des 7. Energieforschungsprogramm des Bundesministeriums für Wirtschaft und Energie gefördert. Das Projektvolumen beträgt knapp 1,1 Mio. €. Ziel ist die Erprobung und Demonstration der umweltgerechten energetischen Verwertung von Klärschlamm in einer Wirbelbefeuerung für kommunale Kläranlagen der Größenklasse IV a (10.000 – 50.000 Einwohner).

Die Kläranlage in Haßfurt wird im Rahmen des Projekts um eine Wirbelfeuerung erweitert. Die im Verbrennungsprozess gewonnene Wärme wird zur Wärmeversorgung der Kläranlage und des kommunalen Umfeldes verwendet. Einerseits wird die Wärme zur Trocknung des Klärschlamms genutzt, andererseits kann Überschusswärme aus der Wirbelfeuerung im Sinne der Sektorenkopplung in das lokale Wärmenetz eingespeist werden. Die Wirbelfeuerungsanlage substituiert in Haßfurt gleichzeitig ein bestehendes Blockheizkraftwerk (BHKW), welches mit Erdgas betrieben wird und die Klärschlammtrocknung mit Wärme versorgt. Damit wird künftig nicht nur auf Wärmebereitstellung aus dem fossilen Energieträger Erdgas verzichtet, sondern auch eine Autarkie der Kläranlage hinsichtlich Energieversorgung und Abfallentsorgung erreicht. Die intelligente und flexible Kombination der Klärschlammverbrennung mit der Klärgasverstromung führt zu einer Verbesserung der Energiebilanz der Kläranlage und zur Steigerung der Energieeffizienz. Zuversichtlich blickt Michael Kastner, Projektleiter vom Institut für Energietechnik, in die Zukunft: „Mit der dezentralen thermischen Verwertung des Klärschlamms kann ein wichtiger Meilenstein im künftigen Transformationsprozess vom Klärwerk zum Kraftwerk erreicht werden.“
Die RWTH Aachen übernimmt im Projekt die praktischen Untersuchungen zur Klärschlammverbrennung. Schrittweise erfolgt dies vom Technikumsmaßstab über den bestehenden Prototyp bis hin zur Inbetriebnahme der ersten dezentralen Verwertungsanlage mit Wirbelfeuerungstechnik in Haßfurt. Die Spanner Re2 GmbH verantwortet hingegen die konstruktive Anpassung für den Dauerbetrieb und fertigt die Pilotanlage. Unterstützung bei der Planung und Konzeption zur Integration der Feuerungstechnik in den bestehenden Kläranlagenbestand erhält die Stadt Haßfurt vom IfE. Dieses ist auch für die wissenschaftlich-messtechnische und ökologische Bewertung des Vorhabens zuständig.

Macht das Projekt Schule, leisten regionale Kläranlagen durch den Einsatz dezentraler Verbrennungstechnologien künftig einen entscheidenden ökologischen Beitrag – klimafreundlich und ressourcenschonend.

Institut für Energietechnik (IfE) GmbH an der Ostbayerischen Technischen Hochschule Amberg-Weiden:
Die Arbeitsschwerpunkte des IfE liegen bei der Beratung von Politik, Kommunen, Energieversorgungs- und Industrieunternehmen in den Bereichen Energieeffizienz, Erneuerbare Energien und Kraft-Wärme-Kopplung. Im Fokus steht dabei die Analyse von Energieverbrauchsstrukturen, die Herausarbeitung von Potenzialen zur Effizienzsteigerung und dezentralen Energieerzeugung und die Entwicklung effizienter Energieversorgungslösungen sowie deren technische, ökonomische und ökologische Bewertung.

Ergänzend zu den konzeptionellen Arbeiten forscht und entwickelt das IfE praxisorientiert auf dem Gebiet der Kraft-Wärme-Kopplung und Erneuerbaren Energien und setzt die gewonnenen Erkenntnisse im Rahmen von Modell- und Demonstrationsvorhaben mit wissenschaftlich-messtechnischer Begleitung in die Praxis um.

Wissenschaftliche Ansprechpartner:
Institut für Energietechnik IfE GmbH
Kaiser-Wilhelm-Ring 23a
92224 Amberg
Tel: 09621/482-3935
E-Mail: presse@ifeam.de

(nach oben)


Einjährige Corona-Studie ELISA zu Antikörpern zeigt: Dunkelziffer ist deutlich zurückgegangen

Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
Im März 2020 startete ein Forschungsteam die ELISA-Studie und untersuchte insgesamt mehr als 3000 Lübeckerinnen und Lübecker über ein Jahr lang auf das Auftreten von SARS-Co-V-2 Infektionen. Aufgrund der Ergebnisse hält die Forschungsgruppe Lockerungen bei niedrigen Fallzahlen für vertretbar, fordert aber schnelle und konsequente Maßnahmen bei einem Anstieg der Fallzahlen.
Ein Ausgangspunkt der ELISA-Studie (Lübecker Längsschnittuntersuchung zu Infektionen mit SARS-CoV-2) war die Frage nach der Dunkelziffer von SARS-CoV-2 Infektionen. Weiter wollten die Forscherinnen und Forscher untersuchen, wie sich das Virus in der Bevölkerung verbreitet, wann und wo Neuinfektionen auftreten.

Zur Beantwortung dieser und weiterer Fragen wurde in der ELISA-Studie eine feste Bevölkerungsgruppe (Kohorte) aus Lübeck und Umgebung über ein Jahr regelmäßig unter-sucht und befragt. Über 3000 Personen nahmen mittels einer mobilen Studien-App teil. Über ein Jahr wurden knapp 100.000 Fragebögen erhoben und fast 20.000 PCR- und Antikörpertests durchgeführt. Die Studienorganisation einschließlich der Terminvergabe und die personalisierte Rückmeldung von Befunden erfolgten rein elektronisch.
Beantworten wollten die Forschenden aus den Bereichen Epidemiologie, Infektiologie und Neurologie zudem die Frage, ob sich die Pandemieentwicklung an einer Stichprobe von ca. 1 % der lokalen Bevölkerung zuverlässig beschreiben ließe.
Außerdem im Fokus der Forschungsgruppe: Wie hoch sind die Infektionsraten in definierten Risikogruppen mit vielen Kontakten (z. B. Kranken- und Altenpflege) und welchen Einfluss haben die Lockerungsmaßnahmen (z. B. Schulöffnungen, Gastronomie, Tourismus etc.) auf das Infektionsgeschehen? Besonderes Augenmerk wurde auf die Entwicklung der Antikörper-Spiegel im Blut über die Zeit gelegt: bleibt eine erworbene Immunität auch erhalten?

Erste Langzeituntersuchung in einem Niedrigprävalenzgebiet
Schleswig-Holstein zählt auch aktuell in Deutschland zu den Niedrigprävalenzgebieten für Corona-Infektionen. Der Großraum Lübeck gehört mit seinen ca. 300.000 Einwohnern zur Metropolregion Hamburg. Viele Menschen pendeln zwischen Lübeck und Hamburg und normalerweise besuchen ca. 50.000 Touristen pro Tag die Hansestadt Lübeck. Daher eignet sich die Region ideal als Modellregion, besonders um die Dynamik des Infektionsgeschehens zu verfolgen.

Ergebnisse der Langzeitstudie der Universität zu Lübeck
• Die Teilnehmerinnen und Teilnehmer blieben über das gesamte Jahr mit Teilnahmeraten von 75 – 98 % weit überdurchschnittlich engagiert und erlauben somit valide Aussagen zum Infektionsgeschehen
• 3,5 % der Getesteten wurden dabei an den insgesamt 7 Testzeitpunkten als entweder Virus-PCR- oder Antikörper-positiv identifiziert.
• Die Dunkelziffer lag zu Studienbeginn im Mai 2020 bei ca. 90%. D.h. dass nur 10% der mutmaßlichen, durch Antikörpertest bestätigten Infektionen auch durch einen PCR-Test entdeckt wurden und somit in die offizielle Statistik eingingen. Knapp ein Jahr später ist die Dunkelziffer auf 30% gesunken, d.h. 7 von 10 Infektionen wurden auch durch einen PCR-Test bekannt.
• Antikörperspiegel blieben relativ konstant über die Zeit. Bei den Personen, die im Mai 2020 positive Antikörper aufwiesen, waren diese knapp ein Jahr später bei etwa 70% noch nachweisbar.
• Mit ca. 1 % der Bevölkerung konnte das Pandemiegeschehen in der Region Lübeck zwar gut abgebildet werden, aber ansteigende Infektionen bei den im Herbst 2020 zwei Monate auseinanderliegenden Testzeitpunkten konnten nur verzögert entdeckt werden.
• Das höchste Risiko, sich mit SARS-CoV-2 zu infizieren, bestand bei Personen, die Kontakt mit an Covid-19 Erkrankten angegeben hatten. Es war jedoch auch in bestimm-ten Berufsgruppen, wie z. B. bei Pflegepersonal, Polizisten und Feuerwehrleuten erhöht. Darüber hinaus konnten keine klaren Risikofaktoren oder Risikomuster als Infektions-quellen identifiziert werden.

Schlussfolgerungen aus der ELISA-Studie
• Mit einer Stichprobe in der Größenordnung von 1% der Bevölkerung lässt sich mit engmaschigem Testen das Infektionsgeschehen gut abbilden und zur Bewertung ggf. zur Vorhersage des Pandemiegeschehens in einer Region nutzen.
• Die Prävalenz von 3,5% an durchlebten Infektionen zeigt, dass man auch nach ei-nem Jahr Pandemie weit von einer Herdenimmunität entfernt ist. Die Bevölkerung ist weiterhin vulnerabel für das Corona-Virus, was die Bedeutung von Impfung und Aufrechterhaltung von AHA_L Regeln betont.
• Die Dunkelziffer war zu Beginn der Pandemie hoch. Die wahre Infektionslast dürfte hier bis zu 10mal höher gewesen sein, als offizielle Fallzahlen dies vermuten lassen. Heute wird die Mehrzahl der Infektionen über die vermehrten Testungen häufiger entdeckt, die Dunkelziffer ist stark gesunken.
• Die Studie zeigt, dass in Regionen mit niedriger Inzidenz Öffnungsschritte unter kontinuierlicher Beobachtung vertretbar sind. So zeigte sich in den Untersuchungen der ELISA-Studie kein Anstieg der Fallzahlen ab Mai 2020 – trotz weitreichender Öffnungs-schritten im gesellschaftlichen Leben sowie eines zu den Vorjahren vergleichbaren Ferientourismus in der Lübecker Bucht.

Die ELISA-Studie wird gefördert durch das Nationale Forschungsnetzwerk der Universitätsmedizin (B-FAST), das Land Schleswig-Holstein, Stiftungen und Vereine und durch die Lübecker Bevölkerung (Crowd funding).
Weiterführende Informationen finden Sie hier: https://elisa-luebeck.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christine Klein
Universität zu Lübeck
Institut für Neurogenetik
Ratzeburger Allee 160
D-23538 Lübeck
Tel: +49-451-3101-8200
E-Mail: christine.klein@neuro.uni-luebeck.de

Prof. Dr. Alexander Katalinic
Universität zu Lübeck
Institut für Sozialmedizin und Epidemiologie
Ratzeburger Allee 160
D-23538 Lübeck
Tel: +49-451-500-51200
E-Mail: alexander.katalinic@uni-luebeck.de

Prof. Dr. Jan Rupp
Universität zu Lübeck
Klinik für Infektiologie und Mikrobiologie
Ratzeburger Allee 160
D-23538 Lübeck
Tel: +49-451-500-45300
E-Mail: jan.rupp@uni-luebeck.de

(nach oben)


In Millisekunden von verschmutztem zu klarem Wasser – Neue Erkenntnisse im Bereich Nanoscience

Juliane Jury Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kolloid- und Grenzflächenforschung
(Potsdam) Forscher am Max-Planck-Institut für Kolloid- und Grenzflächenforschung haben eine Membran entwickelt, die aus unzähligen nanometerkleinen Röhren besteht. Diese setzten sie als Nanoreaktor ein, um mithilfe von Sonnenlicht in Millisekunden mit Methylenblau markiertes Wasser in klares umzuwandeln. „Reaktionen in Flüssigkeiten mit geringerer Viskosität blitzschnell ablaufen zu lassen, stellt eine neue Chance für die Chemie dar,“ sagt Prof. Dr. Markus Antonietti, Direktor der Abteilung Kolloidchemie.

Die Chemie gilt oft als ausgereifte Disziplin, in der neue Erkenntnisse nur an den äußeren Rändern entstehen. Ein Team um Gruppenleiter Dr. Aleksandr Savateev hat nun gezeigt, dass es gerade im Inneren – im Nanobereich – noch bemerkenswerte Überraschungen gibt. Eigenschaften gängiger Flüssigkeiten wie Wasser hängen von der Größe des Behältnisses ab, in dem sie eingeschlossen sind. Füllt man Wasser als bereits recht agile Flüssigkeit mit geringer Viskosität in ein Behältnis in Nanogröße, in das nur wenige Wassermoleküle passen, so wird es „superfluidisch“. Je kleiner der Raum, desto größer ist der Suprafluid-Effekt. Wasser ist also nicht gleich Wasser.

Funktionsweise
In ihren Reaktionsexperimenten entwickelte die Savateev-Gruppe eine Membran, die aus Milliarden von parallel angeordneten Kohlenstoffnitrid-Röhren besteht. Jedes dieser Röhrchen verfügt über einen Durchmesser von wenigen Nanometern, was 1/10.000 eines menschlichen Haares entspricht. Sie beobachteten, dass Wasser ohne jegliche Reibung durch sie hindurchgleitet. Dabei wird Licht als Treiber für die chemische Umwandlung von verschmutztem zu sauberem Wasser genutzt, während der durch die Membran erzeugte Quanteneinschluss auch die Energie des Lichts mit bisher unerreichter Effizienz lenkt. Die konkave Oberfläche der parallelen, fast eindimensionalen Röhren dient als eine Art Spiegel, der das interne elektrische Feld im Inneren der Nanoröhre konzentriert. In Verbindung mit dem von außen einfallenden Licht erhöht dies die Reaktionsgeschwindigkeit enorm. „Im gewöhnlichen 3D-Raum sind diese Reaktionsgeschwindigkeiten von Millisekunden einfach unmöglich,“ sagt Dr. Savateev.

„Wir arbeiten aktiv an der Entwicklung dieser Technologie, um Treibstoff und andere für die Gesellschaft wichtige Materialien mit nachhaltiger Energie wie Sonnenlicht in einfachen Geräten, vergleichbar mit einem Kaffeefilter, zu erzeugen,“ sagt Aleksandr Savateev.

Originalpublikation:
https://pubs.acs.org/doi/10.1021/acsnano.0c09661

Weitere Informationen:
https://www.mpikg.mpg.de/pressemeldungen

(nach oben)


Hygieneregeln wirken auch gegen britische und südafrikanische Mutante

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Die mutierten Sars-Cov-2-Viren B.1.1.7 und B.1.351 gelten als „variants of concern“, da sie leichter übertragbar sind als der Wildtyp des Virus oder nicht so gut von unserem Immunsystem erkannt werden. Wie die sogenannte britische und die südafrikanische Variante auf Desinfektion und Reinigung reagieren und wie lange sie auf verschiedenen Oberflächen infektiös bleiben, hat ein Forschungsteam aus Bochum, Jena, Nürnberg und Duisburg-Essen untersucht. Die Forschenden stellten fest, dass die Mutanten unter Laborbedingungen eine ähnliche Oberflächenstabilität wie der Wildtyp aufweisen, aber durch Desinfektion und gründliches Händewaschen effektiv beseitigt werden können.

Sie berichten im Journal of Infectious Disease vom 16. Mai 2021.
Für die Arbeit kooperierten das Team der Abteilung für Molekulare und Medizinische Virologie sowie des Lehrstuhls Materials Discovery and Interfaces der Ruhr-Universität Bochum (RUB) mit dem European Virus Bioinformatics Center Jena, dem Universitätsklinikum Duisburg-Essen sowie der Paracelsus Medizinische Privatuniversität Nürnberg.

Dass Viren sich mit der Zeit genetisch verändern, ist bekannt. Besorgniserregend sind Varianten, die dem Virus einen Vorteil verschaffen, zum Beispiel indem es sich schneller vermehren kann, leichter ansteckend wird oder der Immunantwort besser entgehen kann. Die britische und die südafrikanische Variante haben mehrere Mutationen angesammelt, die sie leichter ansteckend machen und teilweise zu schwereren Krankheitsverläufen führen. „Daher stellte sich die Frage, ob sie sich auch von der Ursprungsvariante unterscheiden, was ihre Empfindlichkeit für Hygienemaßnahmen anbelangt“, erklärt Toni Meister aus der RUB-Virologie.

Hitze, Seife, Alkohol
Das Team hat daher untersucht, wie lange die Varianten auf Oberflächen aus Stahl, Silber, Kupfer und auf Gesichtsmasken infektiös bleiben und wie sie mittels Seife, Hitze oder Alkohol unschädlich gemacht werden können.

Es zeigte sich, dass beide Mutanten ebenso wie der Wildtyp des Virus durch die Behandlung mit mindestens 30-prozentigem Alkohol für mindestens 30 Sekunden beseitigt werden konnten. „Übliche Desinfektionsmittel wirken also gegen alle diese Varianten“, so Prof. Dr. Stephanie Pfänder aus der RUB-Virologie. Gründliches Händewaschen mit Seife konnte ebenfalls die Ansteckungsgefahr bannen. Auch Hitze wirkt gegen das Virus: Nach 30 Minuten bei 56 Grad Celsius waren auch alle Varianten unschädlich gemacht.

Um herauszufinden, ob sich die Stabilität der verschiedenen Mutanten auf Oberflächen voneinander unterscheidet, beobachteten sie die Menge der infektiösen Viruspartikel auf damit kontaminierten Oberflächen aus Stahl, Kupfer, Silber und auf chirurgischen und FFP2-Masken über 48 Stunden hinweg. „Die Oberflächenstabilität hat sich nicht zwischen den Virusvarianten unterschieden“, so RUB-Virologe Prof. Dr. Eike Steinmann. „Wie schon mehrfach beschrieben wirkt insbesondere Kupfer sehr stark antiviral auf die Viren“. Zusammenfassend konnte das Team keine Unterschiede zwischen den verschiedenen Mutanten feststellen, was ihre Empfindlichkeit gegenüber Hygienemaßnahmen anbelangt.

Pressekontakt
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@rub.de

Prof. Dr. Stephanie Pfänder
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 29278
E-Mail: stephanie.pfaender@rub.de

Toni Luise Meister
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 26465
E-Mail: toni.meister@rub.de

Coronaforschung an der RUB
Seit Beginn der Coronapandemie wird an der RUB zu Covid-19 geforscht – über alle Fächergrenzen hinweg. Beteiligt sind deshalb nicht nur Medizin und Lebenswissenschaften, sondern beispielsweise auch Psychologie, Soziologie, Rechts-, Erziehungs- und Geschichtswissenschaft. Einen Überblick der Forschungsprojekte findet sich online: https://www.bionet.ruhr-uni-bochum.de/biodb/covid19/projekte.html.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@rub.de

Prof. Dr. Stephanie Pfänder
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 29278
E-Mail: stephanie.pfaender@rub.de

Toni Luise Meister
Abteilung Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 26465
E-Mail: toni.meister@rub.de

Originalpublikation:
Toni Luise Meister et al.: Comparable environmental stability and disinfection profiles of the currently circulating SARS-CoV-2 variants of concern B.1.1.7 and B.1.351, in: Journal of Infectious disease, 2021, DOI: 10.1093/infdis/jiab260, https://academic.oup.com/jid/advance-article/doi/10.1093/infdis/jiab260/6276396?…

(nach oben)


Vibrionen und Klimawandel: Können Natur-basierte Methoden das Gefährdungspotenzial in der Ostsee mildern?

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Vibrio-Bakterien, darunter auch für Menschen gefährliche Arten, sind natürlicher Bestandteil des Ostseeplanktons. Im Zuge des Klimawandels können sie durch steigende Wassertemperaturen häufiger und damit ein zunehmendes Gesundheitsrisiko werden. Das Projekt BaltVib erforscht unter Leitung des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW), ob spezielle Pflanzen- und Tiergesellschaften wie Seegraswiesen und Muschelbänke die Vibrionen-Belastung in Küstennähe auf natürliche Weise senken und wie dieser Effekt durch Umweltgestaltung aktiv unterstützt werden kann. Der Forschungsverbund mit Partnern aus sieben Ostseestaaten nimmt am 19.5. mit einem virtuellen Kickoff-Treffen die Arbeit auf.

„Die besondere Stärke von BaltVib liegt darin, dass das gesellschaftlich hochrelevante Thema ‚Klimawandel und Vibrionen‘ erstmals für den gesamten Ostseeraum und darüber hinaus auch disziplinenübergreifend – gemeinsam von Mikrobiologie, Molekularbiologie, Meeresökologie und Sozioökologie – bearbeitet werden kann. Und auch die zukünftigen Anwender von praxisnahen Lösungsansätzen sind von Anfang an mit im Boot“, kommentiert Prof. Dr. Matthias Labrenz den heutigen Projektauftakt. Der IOW-Meeresmikrobiologe ist Leiter des internationalen BaltVib-Projektes, das im Rahmen des europäischen BiodivERsA-Programms* bis 2024 mit knapp 1,45 Mio. gefördert wird.

An BaltVib beteiligte wissenschaftliche Einrichtungen neben dem IOW sind das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, das Meeresforschungsinstitut der litauischen Universität Klaipėda, die Universität Kopenhagen, die Estnische Universität für Lebenswissenschaften, das Königliche Institut für Technologie Stockholm, die finnische Åbo Akademi Universität und Polens Nationales Forschungsinstitut für Meeresfischerei. An der heutigen Online-Tagung am IOW nehmen neben Wissenschaftler:innen auch Fachleute aus Umwelt- und Gesundheitsämtern, Fischereibehörden sowie den jeweils zuständigen Ministerien teil, die in ihrer Arbeit konkret mit der Vibrionen-Problematik befasst sind.

Vibrionen und Klimawandel
Als „Vibrionen“ bezeichnet man alle Bakterien der Gattung Vibrio. Sie sind im offenen Meer allgegenwärtig und kommen auch in Küsten-, Brack- und Süßgewässern sowie in Gewässersedimenten vor. Man kennt ca. 130 verschiedene Arten, von denen nur rund 10 % Infektionen bei Menschen, Fischen oder Muscheln verursachen.

Klimawandelbedingte Veränderungen der Ostsee, wie etwa der bis zum Jahr 2100 erwartete Anstieg der Oberflächenwassertemperatur um 2 – 4 ˚C, begünstigen die Vermehrung von Vibrionen und damit auch der gefährlichen Arten. Vibrio vulnificus beispielsweise, der bei vorerkrankten und anderweitig geschwächten Menschen allein durch Wasserkontakt zu schwerster Sepsis mit tödlichem Ausgang führen kann, vermehrt sich bei Wassertemperaturen über 20°C besonders gut. Die höchsten Infektionsraten fallen daher genau mit der Haupttouristensaison in Nordeuropa zwischen Mai und Oktober zusammen. Vibrio-Wundinfektionen werden bereits seit Mitte der 1990er Jahre vermehrt während Hitzewellen beobachtet, so dass mit Blick auf die Zukunft in der Ostseeregion von einer erheblichen Bedrohung für die menschliche Gesundheit und die Tourismusindustrie ausgegangen werden kann.

Seegraswiesen, Muschelbänke & Co.: BaltVib setzt auf „Ökosystemingenieure“
In Küstenmeeren wie der Ostsee haben sich Muschelbänke, Seegraswiesen und Makroalgenbestände z. B. aus Blasentang als besonders wertvoll erwiesen. Diese Lebensräume mit hoher Biodiversität übernehmen viele für Meer und Mensch wichtige Ökosystemfunktionen. Sie werden daher auch als „Ökosystemingenieure“ bezeichnet. Neuere Untersuchungen deuten nun darauf hin, dass in solchen Lebensräumen pathogene Vibrio-Arten deutlich reduziert sein können.

Genau hier setzt BaltVib an. Denn dieser Effekt eröffnet die Option, sogenannte Natur-basierte Lösungsstrategien zur Kontrolle gefährlicher Vibrionen in küstennahen Bereichen zu entwickeln. „Denkbar sind verschiedene Ansätze“, erläutert Matthias Labrenz. Zum einen sei es wichtig, den Schutz dieser wertvollen Habitate nach Möglichkeit voranzutreiben. „Zum anderen kann es sinnvoll sein, über künstliche Unterwasserstrukturen z.B. die Ansiedelung von Seegraswiesen oder Muschelbänken gezielt in den Bereichen zu fördern, wo Menschen besonders stark mit dem Meer interagieren“, so der IOW-Forscher weiter.

Um effektive Strategien zur Milderung der Vibrionen-Problematik zu entwickeln, müsse man jedoch zuerst noch viele grundlegende Fragen klären: Wie ist der aktuelle Vibrionen-Status der Ostsee? Was kann man aus historischen Aufzeichnungen lernen? Lassen sich zukünftige, Klimawandel-geprägte Vibrio-Szenarien konkreter als bisher beschreiben? Welche ökologischen Schlüsselfaktoren regulieren die Vibrio-Prävalenz? Labrenz: „Noch wissen wir beispielsweise nicht, warum es im Umfeld von Seegraswiesen weniger Vibrionen geben könnte und wie wirksam andere Ökosystemingenieure sind.“ Außerdem werden auch die potenziell Vibrionen-reduzierenden Lebensräume vom Klimawandel beeinflusst – ein Faktor, den man ebenfalls besser verstehen müsse, führt der Meeresforscher aus.

Das BaltVib-Forschungsprogramm umfasst ein großes methodisches Spektrum, von historischen Studien und PC-gestützter Zukunftsmodellierung über umfangreiche Probennahme-Kampagnen, Labor- und Freilandexperimenten bis hin zur Klärung technischer und organisatorischer Fragen bei der Umsetzung von Gestaltungsmaßnahmen im Meer. „Da die Ostsee ein ideales Modellsystem für viele Randmeere ist, hoffen wir, so grundlegende Ergebnisse zu erarbeiten, dass sie weltweit übertragbar sind. Denn gefährliche Vibrionen gibt es nicht nur bei uns“, resümiert Projektleiter Matthias Labrenz.

*BiodivERsA (http://www.biodiversa.org) ist ein Netzwerk nationaler Förderorganisationen, das die europaweite Forschung zu Biodiversität und Ökosystemleistungen fördert. An der Förderung von BaltVib sind in diesem Rahmen neben der EU auch das Bundesministerium für Bildung und Forschung, der Innovation Fund Denmark, das Estonian Research Council, das Research Council of Lithuania, das Swedish Research Council for Environment, Agricultural Sciences and Spatial Planning, das Polish National Science Centre und die Academy of Finland beteiligt.

Kontakt IOW Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck: 0381 5197 135| kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch: 0381 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, die 96 eigenständige Forschungsein-richtungen miteinander verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftler*innen. Das Finanzvolumen liegt bei 1,9 Milliarden Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Labrenz | Leiter der IOW-Arbeitsgruppe Umweltmikrobiologie
Tel.: +49 381 5197 378 | matthias.labrenz@io-warnemuende.de

Weitere Informationen:
http://www.io-warnemuende.de/projekt/273/baltvib.html

(nach oben)


Wann und wie schädigt Alkohol das Gehirn?

Marion Hartmann Presse- und Öffentlichkeitsarbeit
Daimler und Benz Stiftung
Frühzeitige Erkennung und Überwachung können helfen, Hirnschäden zu minimieren.

Bier, Wein, Sekt oder Hochprozentiges zu trinken, ist in unserer Kultur tief verwurzelt: Über 13 Liter puren Alkohol nehmen Europäer im Alter ab 15 Jahren im Durchschnitt jährlich zu sich. Dabei ist längst bekannt, dass Alkoholmissbrauch das Gehirn schädigt. Die weiße Substanz, die fast die Hälfte des Gehirns ausmacht, ist nachweislich stark betroffen; dieser Teil des Zentralnervensystems besteht überwiegend aus Leitungsbahnen und Nervenfasern. In der Folge kann es zu zahlreichen Einschränkungen kommen, die Kontrolle des Menschen über die eigene Handlungsfähigkeit nimmt ab. Dies befördert wiederum die Sucht – ein Teufelskreis. Die Psychologin Dr. Ann-Kathrin Stock vom Dresdner Universitätsklinikum befasst sich in einem von der Daimler und Benz Stiftung geförderten Projekt mit Hirnschäden, die während des Rauschtrinkens, aber auch während eines Alkoholentzugs auftreten können. Ihr Forschungsziel ist es, diese Schäden früher und präziser erkennen zu können, um so zu einer Verbesserung der Behandlung alkoholkranker Menschen beizutragen.

Leider bleibt es oft nicht bei einem Gläschen Wein: Das Statistische Bundesamt zählte allein im Jahr 2017 über 300.000 Patienten, die wegen Alkoholmissbrauchs stationär behandelt werden mussten, und rund 16.000 entlassene Patienten nach einer Rehabilitation. Psychische und physische Störungen durch Alkoholmissbrauch belegen stets einen der vorderen Plätze der bundesweiten Krankheitsstatistik. „Eine traurige Bilanz, denn hinter diesen Zahlen stehen Einzelschicksale“, sagt Dr. Ann-Katrin Stock, die am Dresdner Uniklinikum die Grundlagen der menschlichen Handlungskontrolle erforscht. „Wir interessieren uns für die Mechanismen, die zu alkoholbedingten Hirnschäden führen, und wollen Optionen aufzeigen, wie sich die medizinische Versorgung bei einem kontrollierten Entzug mit diesem Wissen weiter verbessern lässt.“

Nach neuesten Erkenntnissen treten Hirnschäden nicht nur beim Rauschtrinken selbst auf, sondern verstärken sich insbesondere während der ersten Phasen des Entzugs. Laut Stock tragen die entzugsbedingten Schäden wiederum dazu bei, bestehende Suchtstörungen aufrechtzuerhalten – umso stärker, je mehr Entzüge notwendig sind. Für einen größtmöglichen Therapieerfolg sind daher die Motivation des Patienten und zugleich die medizinische Versorgung von großer Bedeutung. Wodurch entstehen aber die Hirnschäden, die durch Alkoholkonsum und -entzug bedingt werden? „Je mehr und regelmäßiger ein Suchtmittel konsumiert wird, desto stärker steuern Körper und Gehirn entgegen“, erklärt Stock, „es kommt zur Toleranzentwicklung.“ Ein Beispiel: Alkohol entzieht dem Körper Wärme – woraufhin der Körper als Ausgleich mit einer Erhöhung seiner Temperatur entgegenwirkt. Deshalb tritt beim sogenannten „kalten“ Entzug ohne medizinischen Beistand als häufige Gegenreaktion Fieber auf.

Ähnlich verhält es sich mit den Botenstoffen des Gehirns: Alkohol dämpft die Hirnaktivität, in-dem es die hemmende Wirkung des Botenstoffs Gamma-Aminobuttersäure (GABA) potenziert und gleichzeitig die erregende Wirkung von Glutamat, eines weiteren wichtigen Botenstoffs, reduziert. Um dies zu kompensieren, passen sich bei dauerhaftem Konsum die Art und Anzahl der entsprechenden Rezeptoren im Gehirn an – der Alkohol wirkt weniger dämpfend. Als Folge werden immer höhere Mengen getrunken, um den gewünschten Effekt noch erzielen zu können. Wenn das Botenstoffsystem aufgrund dieser Toleranzbildung jedoch nicht mehr richtig funktioniert, kommt es beim Entzug wegen der Übererregbarkeit des nüchternen Gehirns zum Absterben von Hirngewebe, insbesondere der weißen Substanz.

Im Klartext heißt das: Der Entzug ist für den Patienten umso gefährlicher, je mehr Alkoholtoleranz sein Körper im Lauf der Zeit entwickelt hat. Um die teils lebensbedrohlichen Konsequenzen zu behandeln, kommen Medikamente zum Einsatz, die die Wirkung des Alkohols am GABA-Rezeptor ersetzen. Die über Glutamat vermittelte Übererregbarkeit wird jedoch meist nicht gesondert behandelt, obwohl eine zu starke Aktivierung der Glutamatrezeptoren zu weitreichenden Schäden an der weißen Substanz führen kann. Genau dieser Mechanismus ist jedoch im Zusammenhang mit Alkohol noch nicht ausreichend erforscht; bis vor kurzen fehlte es auch an geeigneten Diagnosemethoden, um derartige Schäden schnell, kostengünstig und exakt identifizieren zu können.

„Um eine Verbesserung der Behandlungsergebnisse auf allen Ebenen zu erreichen, müssen wir zeigen, dass sich bereits geringfügige Schäden an der weißen Substanz messbar auf die Kontrolle über das eigene Denken und Handeln auswirken können“, erläutert Stock. In ihren Studien erforscht sie die akute Wirkung eines Vollrauschs und untersucht Patienten vor, während und nach dem Entzug. Der wissenschaftliche Fokus liegt auf dem Zusammenhang zwischen Handlungskontrolle und bestimmten Bruchstücken der weißen Gehirnsubstanz, die sich mithilfe eines innovativen und sehr empfindlichen Verfahrens im Blut nachweisen lassen. Diese stellen ein sensibles Maß für die suchtbedingte Schädigung bzw. die verbliebene Funktionalität der weißen Substanz dar. Laut Stock kann dies künftig einen wichtigen Baustein in der zeitnahen Diagnose und Behandlung entzugsbedingter Hirnschäden darstellen.

Das Forschungsprojekt wird von der Daimler und Benz Stiftung im Rahmen des Stipendienprogramms für Postdoktoranden über zwei Jahre mit einer Summe von 40.000 Euro gefördert. „Mit differenzierten Erkenntnissen über die alkoholbedingten Hirnschäden können wir Gefahren deutlicher benennen und Betroffenen in Zukunft hoffentlich zu mehr Lebensqualität verhelfen“, fasst Stock zusammen.

Stipendienprogramm für Postdoktoranden
Die Daimler und Benz Stiftung vergibt jedes Jahr zwölf Stipendien an ausgewählte Postdoktoranden mit Leitungsfunktion und Juniorprofessoren. Ziel ist, die Autonomie und Kreativität der nächsten Wissenschaftlergeneration zu stärken und den engagierten Forschern den Berufsweg während der produktiven Phase nach ihrer Promotion zu ebnen. Die Fördersumme in Höhe von 40.000 Euro pro Stipendium steht für die Dauer von zwei Jahren bereit und kann zur Finanzierung wissenschaftlicher Hilfskräfte, technischer Ausrüstung, Forschungsreisen oder zur Teilnahme an Tagungen frei und flexibel verwendet werden. Durch regelmäßige Treffen der jungen Wissenschaftler dieses stetig wachsenden Stipendiatennetzwerks in Ladenburg fördert die Daimler und Benz Stiftung zugleich den interdisziplinären Gedankenaustausch.

Daimler und Benz Stiftung
Die Daimler und Benz Stiftung fördert Wissenschaft und Forschung. Dazu richtet sie innovative und interdisziplinäre Forschungsformate ein. Ein besonderes Augenmerk legt die Stiftung durch ein Stipendienprogramm für Postdoktoranden sowie die Vergabe des Bertha-Benz-Preises auf die Förderung junger Wissenschaftler. Mehrere Vortragsreihen sollen die öffentliche Sichtbarkeit der Wissenschaft stärken und deren Bedeutung für unsere Gesellschaft betonen.

Weitere Informationen:
http://www.daimler-benz-stiftung.de

Anhang
Presse-Information „Wann und wie schädigt Alkohol das Gehirn?“

(nach oben)


Grundwasserüberwachung mit Erdbebenmessgeräten

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Wie lässt sich in schwer zugänglichen Gebieten ermitteln, wie leer oder voll der Bodenspeicher ist? Forschende des Deutschen GeoForschungsZentrums (GFZ) haben jetzt gemeinsam mit Kollegen aus Nepal demonstriert, mit Erdbebenmessgeräten die Grundwasserdynamik in Hochgebirgen zu verfolgen: Sie nutzen seismische Wellen, wie sie bei Bodenerschütterungen entstehen. Die Forschenden um Luc Illien, Christoph Sens-Schönfelder und Christoff Andermann vom GFZ berichten darüber im Fachjournal AGU Advances.

Wasser im Hochgebirge hat viele Gesichter. Gefroren im Boden ist es wie ein Zementfundament, das Hänge stabil hält. Gletschereis und Schnee versorgen in der Schmelzsaison die Flüsse und damit das Vorland mit Wasser zum Trinken und für die Landwirtschaft. Intensive Regengüsse mit Sturzfluten und Hangrutschungen dagegen stellen ein lebensgefährliches Risiko für die Menschen in den Tälern dar. Der Untergrund mit seiner Speicherfähigkeit für Wasser spielt daher eine existenzielle Rolle in Gebirgsregionen.

Wie aber lässt sich in schwer zugänglichen Gebieten ermitteln, wie leer oder voll der Bodenspeicher ist? Forscherinnen und Forscher des Deutschen GeoForschungsZentrums (GFZ) haben jetzt gemeinsam mit Kollegen aus Nepal eine elegante Methode demonstriert, um die Grundwasserdynamik in Hochgebirgen zu verfolgen: Sie nutzen seismische Wellen, wie sie bei Bodenerschütterungen entstehen, die sie mit hoch empfindlichen Messgeräten aufzeichnen. Dabei nutzen sie – ähnlich wie medizinisches Ultraschall – aus, dass sich die Wellen in unterschiedlichem Untergrund unterschiedlich ausbreiten. Die Forschenden um Luc Illien, Christoph Sens-Schönfelder und Christoff Andermann vom GFZ berichten darüber im Fachjournal AGU Advances.

Seismische Wellen sind den meisten von Erdbeben bekannt. Nach einem Bruch im Untergrund breiten sie sich rasant aus und entfalten zerstörerische Kräfte. Es gibt jedoch auch viel kleinere Wellen, die beispielsweise von Lastkraftwagen, Trambahnen oder – im Gebirge – von herabfallendem Gestein verursacht werden. Der Boden vibriert eigentlich ständig. In der Geoforschung spricht man vom „seismischen Rauschen“. Was in der Erdbebendetektion mühsam aus den gemessenen Daten der Erdbebenstationen herausgerechnet werden muss, erweist sich für den Blick in den Untergrund als wertvolle Informationsquelle. Denn seismische Wellen breiten sich in der mit Wasser gesättigten Zone anders aus als in der ungesättigten („vadosen“) Zone.

Der Doktorand Luc Illien vom GFZ nutzte mit seinen Kolleginnen und Kollegen zwei nepalesische Erdbebenmessstationen auf 1200 und 2300 Metern Höhe über dem Meer. Luc Illien sagt: „Der nepalesische Himalaya versorgt einen großen Teil der Bevölkerung Südasiens mit lebenswichtigen Wasserressourcen. Der größte Teil dieses Wassers fließt durch ein Gebirgsgrundwasserreservoir ab, das wir nur schlecht abgrenzen können.“ Das Studiengebiet umfasst einen kleinen Zufluss zum Bothe Koshi, einem Grenzfluss zwischen China und Nepal. Über mehrere Wetterstationen und Pegelmessgeräte erfasste das Team über drei Monsun-Jahreszeiten zum Teil minütlich Daten. Daraus errechneten sie ein Grundwassermodell, das sie mit den seismischen Aufzeichnungen vergleichen konnten. Das Ergebnis: Der Abfluss zum Bothe Koshi wird hauptsächlich aus dem tiefen Grundwasserspeicher gespeist. In der Trockenzeit fließt wenig Wasser talabwärts. Im Monsun steigen die Pegel, aber es lassen sich zwei unterschiedliche Phasen ausmachen. Zunächst regnet es, ohne dass sich der Abfluss erhöht, später jedoch zeigt sich ein deutlicher Zusammenhang zwischen Regenmenge und Flusspegel. Christoff Andermann, Koautor der Studie, erläutert: „Die ersten Niederschläge füllen zunächst oberflächennahen Bodenspeicher wieder auf. Wenn der Boden dann mit Wasser gesättigt ist, füllt sich der tiefe Grundwasserspeicher, welcher direkt an die Flüsse gekoppelt ist. Ein Anstieg im Grundwasser schlägt sich unmittelbar in steigenden Flusswasserstände nieder“

Der Abgleich mit den Daten der Erdbebenmessgeräte zeigte, dass man aus dem seismischen Rauschen die Sättigung der vadosen Zone gut ableiten kann. „Nur durch die Zusammenführung der hydrologischen Beobachtungen mit den seismischen Messungen ließ sich die Funktion der vadosen Zone als Verbindungsglied zwischen Niederschlag und Grundwasserreservoir analysieren.“ sagt Christoph Sens-Schönfelder. Erstautor Luc Illien: „Zu verstehen, wie sich das Reservoir füllt und abfließt, ist entscheidend für die Beurteilung seiner Nachhaltigkeit. Daraus können wir nicht nur Prognosen für den Abfluss anstellen, sondern auch vor erhöhtem Risiko von Hangrutschungen und Sturzfluten warnen.“ Ist zum Beispiel der Boden bereits gesättigt mit Wasser, fließt Regen vermehrt oberflächlich ab und kann Hänge mitreißen. Der Klimawandel verschärft die Situation, weil er zu Änderungen in den Großwetterlagen und zur Destabilisierung der Bergwelt beiträgt. Der Wissenschaftliche Vorstand des GFZ, Niels Hovius, der an der Studie mitwirkte, sagt: „Unsere Arbeiten in Nepal und deren Ergebnisse zeigen, wie wichtig es ist, zahlreiche Einflussfaktoren zu erfassen. Dazu gehören die Grundwasserspeicher, Änderungen der Landnutzung, der Bodenbedeckung und des Niederschlagsregimes. Solche Änderungen zu erfassen und zu antizipieren hilft uns, die Zukunft der Süßwasserressourcen und der Berglandschaften, insbesondere wenn Gletscher immer weiter schmelzen, besser vorhersagen zu können.“

Originalstudie: L. Illien C. Andermann C. Sens‐Schönfelder K. L. Cook K. P. Baidya L. B. Adhikari N. Hovius: Subsurface Moisture Regulates Himalayan Groundwater Storage and Discharge

Link (open access): https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2021AV000398

Wissenschaftliche Ansprechpartner:
Luc Illien
PhD Student
lillien@gfz-potsdam.de

Dr. Christoff Andermann
christoff.andermann@gfz-potsdam.de
+49 331 288-2 88 22

Originalpublikation:
L. Illien C. Andermann C. Sens‐Schönfelder K. L. Cook K. P. Baidya L. B. Adhikari N. Hovius: Subsurface Moisture Regulates Himalayan Groundwater Storage and Discharge

Weitere Informationen:
https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2021AV000398 (Link zur Studie, Open Access)

(nach oben)


Nachhaltige Stromerzeugung in Aquakultur, Kläranlage und Abwasserkanal

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Ein neues Forschungsprojekt des Instituts für Wasser und Energiemanagement der Hochschule Hof soll das Potential und die Nutzung von Wasserkraft in bestehenden Wasseranlagen fördern. Das vom Europäischen Sozialfond (ESF) mit 417.000 Euro geförderte Projekt „Netzwerk zur Erzeugung von Energie mit Wasserkraft in bestehenden Wasseranlagen (NEEWa)“, stärkt den Wissenstransfer aus der Green-Tech Hochschule Hof in die regionalen Unternehmen. Es soll zudem zum Erfolg des Kompetenzstandortes Wasser Hof und der erneuerbaren Energien in der Region beitragen.

„Überall, wo man Wasser fließen sieht, sieht man auch die Kraft des Wassers. Diese nicht zu nutzen, bedeutet Potential zu verschwenden“, so Dr. Harvey Harbach vom Institut für Wasser und Energiemanagement (iwe) der Hochschule Hof und Ideengeber des Forschungsvorhabens. Im neuen Projekt beschäftigen sich nun insgesamt 5 Wissenschaftler/Innen des iwe mit nachhaltiger Stromerzeugung in bestehenden Wasseranlagen.

Projektleiterin Prof. Manuela Wimmer stellt heraus: „Wir arbeiten allein mit Wasser, welches nach einer Erstnutzung zusätzlich noch zur Stromerzeugung verwendet werden soll. Konkret geht es um Wasser, welches in Aquakulturen zur Fischzucht genutzt wurde, in Kläranlagen zu Trinkwasser wiederaufbereitet wird oder schlichtweg um Brauchwasser, das durch das Abwasserkanalsystem von Haushalten fließt.“

In all diesen Fällen fließt das Wasser allein angetrieben durch die Schwerkraft. Stromenergie kann dabei – durch den Einsatz von Turbinen oder Wasserrädern – erzeugt werden, ohne die Ökosysteme zu beeinflussen. Ein mögliches Anwendungsbeispiel: „In unserer Region wird für die traditionelle Aquakultur Wasser durch Teiche geleitet in denen Fische wachsen. Oft werden dafür in einem Bruthaus die Jungtiere vorgezogen, damit diese durch eine gewisse Größe besser für die Umweltbedingungen außerhalb des Bruthauses gewappnet sind. Im Bruthaus benötigt man deshalb Strom u.a. für Pumpen. Die Idee liegt also nahe, diesen benötigten Strom vor Ort selbst mit nachhaltigen Methoden zu produzieren. Wasserkraft, welche 24h Energie bereitstellen kann, ist hierfür demnach in idealer Art und Weise geeignet“, so Dr. Harbach.

Zusammensetzen im Netzwerk
In unserer Region sind zahlreiche Fachkompetenzen in Form von spezialisierten Unternehmen, Landesämtern, Behörden und Bildungsträgern wie der Hochschule vorhanden. „Nur im Austausch und gemeinsamen Dialog können wir die besten Lösungen für eine nachhaltige Energiegewinnung 4.0 finden“ so Dr. Harvey Harbach. Die Hochschule Hof nimmt hierbei neben der fachlichen Koordination des Projekts auch eine unabhängige Stellung im Netzwerk ein. Die Hochschule verfolgt keine finanziellen Interessen und bietet hierdurch eine wissenschaftlich neutrale Netzwerktätigkeit um Wasserkraft auf Kosten-Nutzen-Kalkulation einer breiteren Nutzung zuzuführen. Ziel des Vorhabens ist es die gesamte Wertschöpfungskette unter dem Aspekt des Wissenstransfers im Netzwerk zusammen zu bringen. Durch die Etablierung des Netzwerks werden die Teilnehmer bezüglich der Chancen und Möglichkeiten weitergebildet. Der regelmäßige Austausch soll den Einsatz und die Weiterentwicklung bestehender und neuer Technologien zur Nutzung von Wasserkraft fördern.

Wasserkraft ein Beitrag zur Klimaneutralität
Die Europäische Union hat sich mit dem Green Deal bis 2050 zum Ziel gesetzt klimaneutral zu sein, d.h. die Emissionen von Nettotreibhausgas müssen vollständig vermieden werden. Dieses Ziel kann nur erreicht werden, wenn der Anteil an erneuerbaren Energien am Endenergieverbrauch gesteigert wird. Dieser Anteil soll bis 2030 auf 32% anwachsen. Diese Ziele werden auf nationaler Ebene mit dem Klimaschutzprogramm 2030 umgesetzt. Eine weitere Option der dezentralen Stromerzeugung aus Windkraft, Solarenergie und Biomasse stellt die Wasserkraft dar. Die Wasserkraft wird gekennzeichnet durch günstige Herstellungskosten und 100% saubere und grundlastfähige Energie aus rein durch Höhenunterschiede getriebenen Kraftwerken. Die größte Herausforderung ist aber die ökologische Verträglichkeit der Kraftwerke. „Wasserkraftwerke, egal welcher Größe, dürfen in keinem Fall zu einer Gefährdung der Flora und Fauna des Flussbettes führen. Aus diesem Grund werden in diesem Projekt keine Neubauten betrachtet, sondern ausschließlich bestehende Wasseranlagen“, so Prof. Dr. Wimmer.

Gesamtes Institut arbeitet zusammen
Das iwe bündelt Kompetenzen im Bereich Wasser und Energie. „Es freut mich ungemein, dass in diesem Projekt beide Kompetenzen zusammengeführt werden“, so Institutsleiter Prof. Dr. Tobias Plessing. Die Hochschule Hof arbeitet gemeinsam in zahlreichen Bereichen von angewandter Green-Tech Forschung.

Weitere Informationen zum Projekt finden Sie unter http://www.hof-university.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manuela Wimmer
Ingenieurwissenschaften
Umweltingenieurwesen
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
Fon: +49 (0) 9281 / 409 4580
E-Mail: manuela.wimmer@hof-university.deAnhang
Nachhaltige Stromerzeugung in Aquakultur, Kläranlage und Abwasserkanal

Anhang
Nachhaltige Stromerzeugung in Aquakultur, Kläranlage und Abwasserkanal

(nach oben)


Was Städteplaner aus der Corona-Krise lernen

Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Krisen beschleunigen bestehende Veränderungsprozesse und stoßen neue an. Die Corona-Krise zeigt, welche Veränderungen eine menschengerechte Stadtentwicklung in Europa braucht. In einem europäischen Netzwerk haben Studierende gemeinsame Anforderungen erarbeitet. Dabei beschäftigten sich angehende Architektinnen und Architekten bei Professor Mario Tvrtković an der Hochschule Coburg mit unsichtbaren Grenzen im Alltag.

Frei reisen, überall leben und arbeiten: Das ist die Europäische Union. Dass Grenzen für uns alle sehr schnell sehr aktuell werden, ahnte niemand, als für 2020 eine Summer School europäischer Studierender zum Thema „Borderline City“ geplant wurde. Die Pandemie veränderte alles. Grenzen zwischen Ländern und Regionen und Abstand zwischen Familien wurde Alltag. Statt wie geplant in Berlin fand die Veranstaltung online statt. An der Hochschule Coburg beteiligte sich eine Studierendengruppe von Professor Mario Tvrtković aus dem Studiengang Architektur. Danach arbeitete Tvrtković mit seinen Studierenden weiter an dem Thema. In seinem Fachgebiet Städtebau und Entwerfen bot er ein Semesterprojekt an: „Grenzen des Alltags – vom Wesen transitorischer Räume“.

Grenzlinien im Alltag
Viele Menschen nehmen gar nicht wahr, dass es überall in den Städten solche transistorischen Räume gibt. Übergangsräume. Räume mit Grenzen. Es sind Orte des Wartens wie Foyers und Wartezimmer. Oder städtische Konstellationen, die vom Übergang geprägt sind: Häfen, Bahnhofsviertel, Umschlagplätze, Grenzübergänge. „Unser Alltag als Architektinnen und Architekten, als Planerinnen und Planer ist von Grenzen geprägt“, erklärt Tvrtković. „Eines der wichtigsten Themen dabei ist die Aufteilung des Raumes in öffentlichen und privaten Raum.“ Dies sind zwei abstrakte juristische Kategorien. Wo sie im echten Leben aneinander grenzen, wie sie ineinander übergehen, wird von Architektur und Stadtplanung sichtbar und fühlbar gestaltet. Das Seminar erarbeitete eine Sammlung praktischer Beispiele der harten und weichen Grenzen und ihrer Auswirkungen auf den Alltag. „Häufig sind die räumlichen Grenzen in einem Quartier, einer Stadt oder Region mit weiteren Grenzen des Alltags wie politischen, sozialen, ethnischen oder religiösen Grenzen überlagert.“

Ergebnisse aus Europas Hochschulen
Die Ergebnisse dieses Semesterprojekts wurden jetzt veröffentlicht. Gemeinsam mit dem, was die Summer School und Lehrveranstaltungen von 18 anderen Hochschulen und Universitäten von Stockholm bis Madrid zum Thema erarbeitet haben, erscheinen sie in „Borderline City“. Untertitel ist „Shifting borders in the wake of the COVID-19 pandemic in european cities and regions“, erschienen ist der 135 Seiten starke Band im Universitätsverlag der TU Berlin in der Reihe „Städtebau und Kommunikation von Planung“ und kostet 12,95 Euro.

Weitere Informationen zu „Borderline Ciy“ gibt‘s auf http://www.borderlinecity.com

(nach oben)


Gesichtsmasken schützen effektiv vor COVID-19

Dr. Susanne Benner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie
Eine neue Studie zeigt, dass Gesichtsmasken die Reproduktionszahl von COVID-19 effektiv senken und warum sich ihre Wirksamkeit in virusarmer und virusreicher Umgebungsluft unterscheidet.

Maske nicht vergessen‘ – auch wenn die meisten Menschen sich dessen inzwischen wie selbstverständlich vergewissern, gibt es selbst unter Fachleuten unterschiedliche Auffassungen über die Wirksamkeit von Gesichtsmasken. Ein internationales Team um Forschende des Max-Planck-Instituts für Chemie in Mainz zeigt nun anhand von Beobachtungsdaten und Modellrechnungen, unter welchen Bedingungen und wie Masken dazu beitragen, das individuelle Ansteckungsrisiko für COVID-19 zu reduzieren und die Corona-Pandemie einzudämmen. Demnach hilft in den meisten alltäglichen Situationen sogar eine einfache OP-Maske effektiv, das Risiko zu verringern. In Umgebungen mit hoher Viruskonzentration in der Luft, insbesondere im medizinischen Umfeld und in dicht besetzten Innenräumen sollten jedoch Masken mit höherer Wirksamkeit (N95/FFP2) genutzt und mit weiteren Schutzmaßnahmen wie intensiver Lüftung kombiniert werden.

Gesichtsmasken gehören zu den einfachsten, am leichtesten einsetzbaren und effektivsten Maßnahmen gegen die Übertragung infektiöser Atemwegserkrankungen durch die Luft. Dennoch wurde ihre Wirksamkeit gegen die Übertragung von SARS-CoV-2 vielfach diskutiert und angezweifelt. Einige frühere Studien zeigten, dass Masken unter gewissen Bedingungen wenig wirksam sind. Andere fanden eine hohe Wirksamkeit. Eine schlüssige Begründung und Klärung der scheinbaren Widersprüche fehlte bisher.

Forscherinnen und Forscher des Max-Planck-Instituts für Chemie (MPIC), der Universitätsmedizin der Johannes Gutenberg-Universität Mainz und der Charité-Universitätsmedizin Berlin haben gemeinsam mit Partnern aus China und den USA nun geklärt, wie die Wirksamkeit von Gesichtsmasken von verschiedenen Umgebungs-bedingungen abhängt und sich bevölkerungsweit auf den Verlauf der COVID-19-Pandemie auswirkt. Dazu nutzten sie eine Vielzahl von Beobachtungsdaten sowie einen neuartigen Ansatz zur Berechnung der durchschnittlichen Virenbelastung und ihrer Verteilung in der Bevölkerung.

Meistens sind selbst einfache chirurgische Masken wirksam
„Normalerweise enthält nur ein geringer Anteil der von Menschen ausgeatmeten Tröpfchen und Aerosolpartikel Viren. Meist ist die Virenkonzentration in der Luft so gering, dass selbst einfache chirurgischer Masken die Verbreitung von COVID-19 sehr wirksam eindämmen“, erklärt Yafang Cheng, Leiterin einer Minerva-Forschungsgruppe am MPIC. „Unser Ansatz erlaubt detaillierte Berechnungen von Bevölkerungsmittelwerten und erklärt, warum Regionen, in denen ein höherer Anteil der Bevölkerung Masken trägt, die Pandemie besser unter Kontrolle haben.“

In virenreichen Innenräumen mit hoher Infektionswahrscheinlichkeit sind jedoch Masken mit höherer Wirksamkeit (N95/FFP2) und andere Schutzausrüstungen erforderlich, um eine Übertragung durch die Luft zu verhindern. Weil die Wirksamkeit von Gesichtsmasken stark von der Viruskonzentration abhängt, ist es wichtig, Masken mit anderen Schutzmaßnahmen zu kombinieren, um die Infektionswahrscheinlichkeiten gering zu halten.

„Die Kombination von hochwertigen Masken mit anderen Schutzmaßnahmen wie Lüften und Abstandhalten ist besonders wichtig für Krankenhäuser, medizinische Zentren und andere Innenräume, in denen Hochrisikopatienten auf hohe Viruskonzentrationen treffen können“, sagt Christian Witt, Leiter des Forschungsbereichs Pneumologie an der Charité – Universitätsmedizin Berlin. „Masken werden eine wichtige Schutzmaßnahme gegen SARS-Cov-2-infektionen blieben – sogar für geimpfte Personen, speziell wenn der Impfschutz mit der Zeit nachlässt.“

Mit dem Ansatz lässt sich der Schutz gegen infektiösere Mutanten beurteilen
„Unsere Methode setzt die Wirkung von Masken und anderen Schutzmaßnahmen in Bezug zu Infektionswahrscheinlichkeiten und Reproduktionszahlen. Der Ansatz und unsere Ergebnisse sind auf eine Vielzahl von Atemwegsviren wie Corona-, Rhino- und Influenzaviren und die entsprechenden Krankheiten anwendbar. Sie können auch verwendet werden, um die Wirksamkeit gegenüber neuen und infektiöseren Mutanten von SARS-CoV-2 zu beurteilen.“ sagt Hang Su, Forschungsgruppenleiter am MPIC. „Unsere Studie erklärt zudem, warum die Aerosolübertragung von Viren nicht unbedingt zu sehr hohen Reproduktionszahlen führt, wie sie bei Masern beobachtet wurden. Selbst bei relativ niedrigen Infektionswahrschein¬lichkeiten und Reproduktionszahlen kann man die Übertragung einer Infektionskrankheit durch die Luft nicht ausschließen.“

Die nun in Wissenschaftsmagazin Science veröffentlichte Studie zeigt ferner, dass Masken die Reproduktionszahl für COVID-19 nur effektiv senken können, wenn möglichst viele Menschen sie korrekt anwenden. Um die Reproduktionszahl von etwa drei, wie ursprünglich beobachtet, auf unter eins zu reduzieren, müssten mindestens 60 bis 70 Prozent der Menschen chirurgische Masken korrekt anwenden. Bei N95/FFP2-Masken wären es etwa 40 Prozent. Bei infektiöseren Varianten von SARS-CoV-2 müssten die Raten entsprechend höher sein.

„Wir sind überzeugt, dass die in unserer Studie gewonnenen mechanistischen Erkenntnisse und quantitativen Ergebnisse einen wissenschaftlichen Durchbruch darstellen, der dazu beitragen wird, die Debatte über die Nützlichkeit von Masken abzuschließen und die COVID-Pandemie effizient einzudämmen“, fasst Ulrich Pöschl, Leiter der Abteilung Multiphasenchemie am Mainzer Max-Planck-Institut für Chemie, zusammen.

Wissenschaftliche Ansprechpartner:
Dr. Hang Su
Abteilung Multiphasenchemie
Max-Planck-Institut für Chemie
Telefon: +49-6131-305-7300
E-Mail: h.su@mpic.de

Dr. Yafang Cheng
Forschungsgruppe Minerva
Max-Planck-Institut für Chemie
Telefon: +49-6131-305-7200
E-Mail: yafang.cheng@mpic.de

Originalpublikation:
Science First Release:
Face masks effectively limit the probability of SARS-CoV-2 transmission
Yafang Cheng, Nan Ma, Christian Witt, Steffen Rapp, Philipp S. Wild, Meinrat O. Andreae, Ulrich Pöschl, Hang Su
https://science.sciencemag.org/lookup/doi/10.1126/science.abg6296

Weitere Informationen:
https://www.mpic.de/4946356/face-masks-effectively-limit-sars-cov-2-transmission…

(nach oben)


Neue Fachzeitschrift präsentiert Wissen aus der Fischereiforschung

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Die „Zeitschrift für Fischerei“ (kurz: FischZeit) bündelt als erste begutachtete, deutschsprachige Fachzeitschrift für Fischereiforschung Wissen zu Aspekten der Berufs- und Angelfischerei, der Aquakultur, des Bestandsmanagements und des Artenschutzes in Binnen-, Küsten- und Meeresökosystemen. Herausgeber der FischZeit sind das Fachgebiet für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin in Kooperation mit dem Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB). Alle Artikel sind frei zugänglich und kostenfrei einsehbar.

Ob geangelt, gefischt oder gezüchtet – Fisch ist weltweit ein wichtiges Lebensmittel. Nachhaltige Produktionsmethoden in der Aquakultur und eine umweltgerechte Fischerei im kommerziellen sowie im privaten Bereich können dazu beitragen, Gewässer und Populationen zu schonen und ihre natürliche Widerstandskraft zu verbessern. Fundierte Entscheidungsgrundlagen und Empfehlungen dafür liefert die aktuelle Fischereiforschung.

Abgesicherte Erkenntnisse zu verschiedenen Themen der Fischerei:
Damit dieses Wissen in die Praxis einfließen kann, bietet die neue Zeitschrift für Fischerei (FischZeit) wissenschaftlichen Erkenntnissen nun eine deutschsprachige Plattform. Initiator und Chefredakteur der neuen Open-Access-Fachzeitschrift ist Prof. Dr. Robert Arlinghaus, Fischereiwissenschaftler und Preisträger des DFG-Communicator-Preises 2020.

„Unsere Zeitschrift soll ein zentraler Ort abgesicherten Wissens für alle Fragen der Fischerei, Angelfischerei, Aquakultur und des fischbezogenen Gewässermanagements in allen Gewässertypen vom See bis zum Meer sein“, erklärt Robert Arlinghaus die Idee. Ausdrücklich betont er, die Zeitschrift sei keinesfalls als Sprachorgan bestimmter fischereipolitischer Interessen zu verstehen. „Auch unbequeme Wahrheiten und Probleme der fischereilichen Nutzung müssen selbstverständlich untersucht und offen angesprochen werden. Nur so können konstruktive Wege zur nachhaltigen Nutzung von Fischen entwickelt werden“, unterstreicht Arlinghaus.

„Gerade in der heutigen Zeit, in der die Tendenz vorherrscht, neue Erkenntnisse möglichst schnell und oft populistisch oder aus einseitiger Sicht heraus zu publizieren, ist ein anerkannter vorgeschalteter Begutachtungsprozess, wie ihn die FischZeit vorsieht, von äußerster Wichtigkeit“, ergänzt Dr. Jasminca Behrmann-Godel vom Ministerium für Ländlichen Raum und Verbraucherschutz Baden-Württemberg, die Mitglied des Redaktionsgremiums ist.

Um möglichst viele Nutzungsgruppen und Interessierte zu erreichen, haben sich die Redakteurinnen und Redakteure bewusst für die Herausgabe in deutscher Sprache entschieden. So sollen auch Wissensbestände zugänglich werden, die sonst eher der englischsprachigen Fachliteratur vorbehalten bleiben. „Mit der Wahl der Publikationssprache Deutsch erleichtert die FischZeit einem großen Personenkreis von deutschsprachigen Leserinnen und Lesern das Verständnis der oft komplexen Themen“, sagt Behrmann-Godel. Sie hofft, dass die FischZeit damit auch für verantwortliche Personen in der Fischereiverwaltung und in weiteren Behörden und Verbänden in Deutschland und dem deutschsprachigen Ausland viel genutzte Informationsquelle wird.

Auswahl der Inhalte nach wissenschaftlichen Standards und mit konkretem Praxisbezug:
Publiziert werden Beiträge aus den Natur- und Sozialwissenschaften, die einen klar geregelten, wissenschaftlichen Begutachtungsprozess durchlaufen. Alle Manuskripte müssen verbindlich wissenschaftliche Qualitätsstandards einhalten sowie den konkreten Anwendungsbezug erfüllen, etwa Handlungsoptionen und Lösungsansätze für Herausforderungen im hiesigen Fischerei-, Aquakultur- oder fischbezogenen Gewässermanagement bieten.

„Diesem Anspruch kann die FischZeit nur mithilfe engagierter Autorinnen und Autoren, Gutachterinnen und Gutachter gerecht werden. Wir laden Forschende deshalb herzlich ein, die Zeitschrift mit ihren wissenschaftlichen Inhalten zu füllen und Manuskripte beim Redaktionsgremium einzureichen. Sprechen Sie uns an, wir unterstützen gern“, erklärt Robert Arlinghaus.

Neue Zeitschrift mit langer Tradition:
Die historischen Wurzeln der FischZeit reichen zurück zum IGB, denn fischereiliche Fachzeitschriften aus dem Institut und seinen Vorläufereinrichtungen haben eine lange Tradition. Hier wurden einst die Zeitschrift für Fischerei und deren Hilfswissenschaften (1893-1971), die Deutsche Fischerei-Zeitung (1954-1971), die Zeitschrift der Binnenfischerei der DDR (1971-1990) sowie die Fortschritte der Fischereiwissenschaft (1983-1997) herausgegeben. Erstgenannte fiel übrigens in den 1970ern dem Papiermangel zum Opfer – ein Schicksal, das die FischZeit nicht ereilen wird: Die Zeitschrift erscheint ausschließlich online, sämtliche Beiträge sind unter http://www.zeitschrift-fischerei.de frei verfügbar.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den IGB-Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter: https://twitter.com/LeibnizIGB

Wissenschaftliche Ansprechpartner:
Prof. Dr. Robert Arlinghaus
Forschungsgruppenleiter am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) und
Professor für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin
E-Mail: arlinghaus@igb-berlin.de
Tel.: +49 30 64181-653
http://www.ifishman.de

Weitere Informationen:
https://www.zeitschrift-fischerei.de/
https://www.zeitschrift-fischerei.de/index.php/FischZeit/about/submissions

(nach oben)


Die Macht der Bilder – Wissenschaftler untersuchen ihren Einfluss bei der Magersucht

Rosa Sommer M.A. Presse- und Öffentlichkeitsarbeit
LWL-Universitätsklinikum Bochum der Ruhr-Universität Bochum
Anorexia nervosa: Grundlagen-Studie des LWL-Universitätsklinikums Bochum testet belohnende Reize anhand von Bildern. Als Fachbeitrag im renommierten International Journal of Eating Disorders veröffentlicht.

Bilder vermitteln Botschaften und haben gerade in Zeiten von Social Media großen Einfluss auf Gedanken, Gefühle und Stimmungen – im positiven wie auch negativen Sinne. Im Zusammenhang mit der Anorexia nervosa lässt eine an der Medizinischen Fakultät der Ruhr-Universität Bochum abgeschlossene Doktorarbeit von Ann-Kathrin Kogel neue Aufschlüsse hinsichtlich der Präferenzen von betrachteten Bildern zu, die im Verlauf der gefährlichen Essstörung eine Bedeutung haben. Thema der in Kooperation zwischen der Klinik für Psychosomatische Medizin und Psychotherapie im LWL-Universitätsklinikum Bochum und dem Lehrstuhl für Klinische Psychologie und Psychotherapie der Otto-Friedrich-Universität in Bamberg bearbeiteten Studie: Identifikation störungsspezifisch belohnender visueller Stimuli bei Anorexia nervosa. Nun wurde die Studie als Fachartikel im renommierten International Journal of Eating Disorders veröffentlicht.

Bei der Magersucht ist die Wahrnehmung des eigenen Körperbilds bzw. das Körperbewusstsein gestört. Betroffene erachten sich als zu dick, obwohl sie in krankhaftem Ausmaß bis hin zu einem lebensbedrohlichen Untergewicht abnehmen. Inwiefern störungsspezifisch belohnende Reize auf Bildern eine Bedeutung für diese Essstörung haben, liefert die Studie unter Leitung von Prof. Dr. Martin Diers, zuständig für Klinische und Experimentelle Verhaltensmedizin der LWL-Universitätsklinik für Psychosomatische Medizin und Psychotherapie, einen neuen Ansatz. „Im Vordergrund der Untersuchung steht die Belohnung und damit verbunden die Frage: Welche Stimuli sorgen möglicherweise am besten für die Motivation, immer mehr abzunehmen?“, erklärt der Grundlagenforscher und Psychologe den Hintergrund der Studie.

Die Bedeutung des Belohnungssystems für die Entstehung und Aufrechterhaltung der Anorexia nervosa wurde bereits in mehreren Studien mit funktioneller Bildgebung untersucht. So wurde bisher oft von der Annahme ausgegangen, dass vor allem die Betrachtung von Bildern mit untergewichtigen Körpern einen bedeutenden Impuls liefert. Aufgrund der unzureichenden Datenlage wurden in der aktuellen Studie weitere Stimuli ermittelt, die spezifisch für Patientinnen mit Anorexie als belohnend analysiert worden waren. Die Wissenschaftler identifizierten die sechs Unterkategorien Gesundes Essen, Anerkennung durch andere, Disziplin, Dünne Körper, Gewichtsverlust und Sport. Den Kategorien wurde entsprechendes Bildmaterial zugeordnet. Patientinnen mit Anorexie sowie Gesunde bewerteten diese Bilder ebenso wie neutrale Bilder (z.B. Eimer, Locher, Stuhl). Ein Ergebnis bestand unter anderem darin, dass die Patientinnen mit Anorexie die störungsspezifischen Reize höher bewerteten als Gesunde. Die Konfrontation mit diesen Reizen (Triggern) könnte somit als bedeutsam für die Entstehung und Aufrechterhaltung der Anorexie erachtet werden. „Die Resultate unserer Studie sind aussagekräftig und eignen sich für Folgestudien“, so Prof. Diers abschließend.

Zur Veröffentlichung einschl. Bildern im International Journal of Eating Disorders:
https://onlinelibrary.wiley.com/doi/10.1002/eat.23526

Kontakt:
Prof. Dr. Martin Diers
Klinische und Experimentelle Verhaltensmedizin
Klinik für Psychosomatische Medizin und Psychotherapie
LWL-Universitätsklinikum
Ruhr-Universität Bochum
Tel.: +49 234 5077 3175
E-Mail: martin.diers@rub.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martin Diers
Klinische und Experimentelle Verhaltensmedizin
Klinik für Psychosomatische Medizin und Psychotherapie
LWL-Universitätsklinikum
Ruhr-Universität Bochum
Tel.: +49 234 5077 3175
E-Mail: martin.diers@rub.de

Originalpublikation:
https://onlinelibrary.wiley.com/doi/10.1002/eat.23526

(nach oben)


Multitalent für die Elektromobilität – der CrossChargePoint – ein Projekt der TH Deggendorf

Theresa Kappl Presse- und Öffentlichkeitsarbeit
Technische Hochschule Deggendorf
Forschende der Technischen Hochschule Deggendorf (THD) verfolgen in einem neuen Projekt seit kurzem den Gedanken, Ladesäulen für E-Fahrzeuge mulitfunktional auszustatten und daraus einen Mehrwert für Nutzer, Städte, Gemeinden und Betreiber zu generieren. Klassische Ladesäulen für E-Fahrzeuge sieht man inzwischen häufig auf öffentlichen Flächen/Parkplätzen. Sie sind für jedermann zugängig. Auto einfach anschließen, bezahlen und aufladen bzw. tanken. Theoretisch könnten Ladesäulen aber mit viel mehr Funktionen als nur dem reinen Laden ausgestattet werden. Dies wird im Projekt mit dem Titel „CrossChargePoint“, das dem Technologie Campus Freyung zugeordnet ist, untersucht.

Zum Beispiel könnten dort, wo Ladesäulen installiert werden, zusätzliche Energiespeicher entstehen. Daraus ergeben sich viele Vorteile: Schwankende Anforderungen an das lokale Stromnetz könnten besser abgefangen werden. Die schnelle und gleichzeitige Aufladung mehrerer Elektrofahrzeuge ist möglich. Oder die Energie wird durch Elektrolyse und Power-to-Gas umgewandelt, so dass gas- oder wasserstoffbetriebene Fahrzeuge ebenfalls betankt werden können.
Im Projekt „CrossChargePoint“ werden dabei die speziellen Anforderungen verschiedener Regionen durch unterschiedliche geografische, klimatische und wirtschaftliche Bedingungen berücksichtigt. Dies und die Entwicklung eines Prototyps, der in Zukunft mit nur wenigen Anpassungen in einem größeren Maßstab anwendbar sein soll, stellt die Hauptherausforderung des Projekts dar. Für das Projekt haben sich zehn Partner aus vier verschiedenen Ländern zusammengetan. Experten aus Israel, Österreich, Deutschland und der Schweiz, aus verschiedenen Unternehmen und Forschungsinstituten werden in den nächsten drei Jahren zusammen an der Entwicklung dieses Elektromobilitätsprojekts arbeiten.

Das Team aus Freyung ist für die Entwicklung der Simulations- und Planungssoftware verantwortlich. Für die Planung und den Betrieb eines CrossChargePoints werden Bedingungen gesammelt und in das Simulations- und Optimierungstool integriert, das durch Eingabe der erforderlichen Daten die optimalen Standorte, Größen und Technologien – wie z. B. ein Energiemanagementsystem – für neue CrossChargePoints spezifiziert. Ein besonderer Schwerpunkt liegt auch auf der Entwicklung eines Plans, um den einfachen Energietransfer in andere Regionen mit unterschiedlich wirtschaftlichen, infrastrukturellen und geografischen Bedingungen zu ermöglichen.

Für das Team des Technologie Campus in Freyung bietet dieses Projekt unter Leitung von Professor Dr. Javier Valdes eine großartige Chance, Themenfelder voranzutreiben, an denen schon in den letzten Jahren im Verkehrs- und Energiesektor gearbeitet wurde. Dazu hat Professor Dr. Wolfgang Dorner, der Leiter des Technologie Campus Freyung, ein Team mit umfassender Erfahrung durch die Entwicklung von Projekten wie Increase, Cross Energy oder e-Road aufgebaut. Gefördert wird das Projekt über das Programm Horizon 2020 der Europäischen Union.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Javier Valdes
https://th-deg.de/de/Javier-Valdes-Fakult%C3%A4t%20Angewandte%20Informatik-Profe…

(nach oben)


Unsichtbares sichtbar machen

Dr. Ute Schönfelder Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Wissenschaftlerinnen und Wissenschaftler der Friedrich-Schiller-Universität Jena, der University of California Berkeley und dem Institut Polytechnique de Paris nutzen intensives Laserlicht im extrem ultravioletten Spektrum, mit dem sie einen nichtlinear optischen Prozess im Labormaßstab erzeugen, wie es bislang nur an Großforschungsanlagen gelungen ist. Wie das Team in der aktuellen Ausgabe des Fachmagazins „Science Advances“ schreibt, konnte es diesen Effekt erstmals mit einer Laserquelle im Labormaßstab realisieren und damit die Oberfläche einer Titanprobe bis auf atomare Ebene untersuchen.

Chemische Reaktionen, wie sie beispielsweise beim Laden und Entladen einer Batterie auftreten, finden vorrangig an Oberflächen und Grenzflächen statt. Während sich die makroskopischen Produkte einer Reaktion recht einfach untersuchen lassen, ist es bislang jedoch schwierig, ein genaueres Bild über den Verlauf chemischer Reaktionen auf atomarer Ebene zu gewinnen. Dafür sind Messmethoden nötig, die auf den extrem kurzen Zeitskalen, auf denen chemische Reaktionen ablaufen, Beobachtungen ermöglichen.

Prinzipiell eignen sich dafür spektroskopische Methoden mit sehr kurzen Laserpulsen zur zeitlichen Auflösung. Gleichzeitig muss das Laserlicht von sehr kurzer Wellenlänge sein, wie Tobias Helk von der Friedrich-Schiller-Universität Jena erklärt. „Um einzelne Elemente mittels Kernelektronenresonanz gezielt untersuchen zu können, braucht es Laserlicht mit wenigen Nanometern Wellenlänge – also Strahlung im extrem-ultravioletten (XUV) oder Röntgenbereich des Spektrums.“ Für die Beobachtung chemischer Prozesse ist es außerdem wichtig, dass sich die Grenzflächen zwischen Medien und Materialoberflächen untersuchen lassen, an denen chemische Reaktionen stattfinden, so der Physiker weiter. Dafür müssen die Laserpulse, neben kurzer Wellenlänge und kurzer Dauer, auch eine extrem hohe Intensität aufweisen, um sogenannte nichtlineare Effekte hervorrufen zu können, welche es erlauben, das Messsignal auf die Grenzfläche zurückzuführen.

Bisher gibt es jedoch nur sehr wenige Methoden, um solch intensive Laserstrahlung im XUV- und Röntgenbereich zu erzeugen. „Bisher war das nur an Großforschungsanlagen, wie dem Freien-Elektronen-Laser FLASH am DESY möglich“, sagt Prof. Dr. Christian Spielmann vom Institut für Optik und Quantenelektronik der Universität Jena. Er und sein Team haben jetzt jedoch mit Forschenden aus den USA und Frankreich einen Weg gefunden, wie solche Untersuchungen auch in einem gängigen Laserlabor möglich sind.

Nichtlineare Frequenzverdopplung an einer Titanoberfläche
Hierfür wurde ein Soft-X-ray-Laser des Laboratoire d’Optique Appliquee in Palaisseau (Frankreich) als Lichtquelle genutzt. „In unserem Experiment haben wir eine spezielle Fokussiergeometrie aufgebaut, bestehend aus einem sphärisch geformten Spiegel, die es uns erlaubt, die Strahlung des Lasers auf einen sehr kleinen Bereich zu konzentrieren“, berichtet Doktorand Tobias Helk, Erstautor der Studie. Die Strahlung mit einer Wellenlänge von 32,8 Nanometern wurde auf eine ultradünne Titanfolie fokussiert und ihre nichtlineare Wechselwirkung mit den Materieteilchen analysiert. „Wie bereits aus Untersuchungen mit Strahlung im sichtbaren und infraroten Bereich bekannt, lässt sich durch die Wechselwirkung von Lichtteilchen und Materieteilchen Licht mit neuen Eigenschaften erzeugen“, erklärt Helk. Bei einem als „nichtlineare Frequenzverdopplung“ bezeichneten Prozess werden beispielsweise zwei Photonen des eingestrahlten Lichts vom Material absorbiert und ein Photon mit doppelter Frequenz (doppelter Energie) abgestrahlt.

Und genau diesen Effekt konnten die Forschenden jetzt zeigen. Sie haben die aus der Wechselwirkung mit der Titanfolie resultierende Strahlung durch ein Spektrometer getrennt und mittels einer Kamera aufgenommen. Durch den Vergleich von Simulationen mit den Messergebnissen konnten sie außerdem zeigen, dass die resultierende Strahlung an der Oberfläche der Titanfolie entsteht und nicht innerhalb des Materials.

„Diese Form der Oberflächenspektroskopie im XUV-Bereich im Labormaßstab durchführen zu können, öffnet völlig neue Perspektiven. Beispielsweise kann man nun chemische Prozesse an Oberflächen oder verborgenen Grenzflächen aus der Sicht eines einzelnen Atoms in ansonsten komplexen chemischen Umgebungen untersuchen“, ordnet Prof. Dr. Michael Zürch von der University of California in Berkeley das Ergebnis ein. Ferner ermögliche die kurze Pulsdauer der verwendeten Pulse die Untersuchung dynamischer Prozesse an Grenzflächen, wie sie beispielsweise beim Laden und Entladen von Batterien auftreten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Spielmann
Institut für Optik und Quantenelektronik der Universität Jena
Max-Wien-Platz 1, 07743 Jena
Tel.: 03641 / 947230
E-Mail: christian.spielmann@uni-jena.de

Originalpublikation:
T. Helk, E. Berger, S. Jamnuch, L. Hoffmann, A. Kabacinski, J. Gautier, F. Tissandier, J. P. Goddet, H.-T. Chang, J. Oh, C. D. Pemmaraju, T. A. Pascal, S. Sebban, C. Spielmann, and M. Zuerch. Table-top Extreme Ultraviolet Second Harmonic Generation, Science Advances 7, eabe2265 (2021), DOI: 10.1126/sciadv.abe2265

(nach oben)


Corona: Neue Webanwendung Aerosol Control berechnet Infektionsrisiko

Sven Dokter Abteilung Kommunikation
Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) gGmbH
Aerosole sind mit dem bloßen Auge nicht zu erkennen. Mithilfe von Simulationsmodellen lassen sich die Ausbreitungspfade der kleinen Teilchen jedoch nachvollziehen. Die Webanwendung Aerosol Control berechnet unter Berücksichtigung diverser Faktoren das individuelle Risiko, sich mit SARS-CoV-2 anzustecken. Als Grundlage dienten die Ergebnisse eines Forschungsprojekts: Dabei wurde eine Simulationssoftware, die normalerweise die Ausbreitung von Aerosolen oder Gasen in Kernkraftwerken berechnet, angewendet, um die Ausbreitung und Konzentration von SARS-CoV-2-Aerosolen in Räumen zu berechnen.

Bei der Bekämpfung der Covid-19-Pandemie ist deutlich geworden, dass mit Coronaviren belastete Aerosole eine der wesentlichen Ursachen für Infektionen sind. Forschungsergebnisse legen nahe, dass diese Form der Infektion einer der Hauptgründe dafür ist, dass sich Menschen ganz überwiegend in geschlossenen Räumen anstecken: Erkrankte atmen virusbelastete Aerosole aus, die sich in der Raumluft ansammeln. Um die Pandemie erfolgreich einzudämmen, sollte die Bevölkerung für die Gefahr in Innenräumen sensibilisiert sein. Dafür ist es wichtig, möglichst gut zu verstehen, wie potenziell ansteckende Aerosole entstehen und wie sie sich unter verschiedensten Bedingungen ausbreiten und verändern, um letzten Endes Maßnahmen abzuleiten, durch die sich Neuinfektionen möglichst effektiv verhindern lassen.

Wie hoch ist mein Infektionsrisiko?
Die GRS hat mit Aerosol Control eine Webanwendung entwickelt, die das Infektionsrisiko mit SARS-CoV-2 in einem Raum berechnet. Die Nutzerinnen und Nutzer müssen hierzu zuerst den betreffenden Raum beschreiben. Dabei berücksichtigt die Webanwendung verschiedene Faktoren, die das Infektionsgeschehen beeinflussen, wie die Virusvariante (Wildtyp oder B.1.1.7), die Anzahl der Personen im Raum, die Aufenthaltsdauer oder ob bzw. was für eine Maske (medizinische, FFP2 oder FFP3) getragen wird.

Die Infektionsrisiken lassen sich für verschiedene vordefinierte Räume berechnen, u. a. Auto, Zug, Flugzeug oder Klassenzimmer. Darüber hinaus können die Nutzerinnen und Nutzer selbst Räume definieren. Einstellbare Parameter sind dabei das Raumvolumen sowie die Lüftung (geschlossen, gekippt, geöffnet oder stark).

Jede Situation ein einzigartiges Szenario
Die Webanwendung basiert auf den Erkenntnissen aus dem Forschungsprojekt AeroCoV, in dem ein Team eine Simulationssoftware aus der Kerntechnik für die Berechnung der Ausbreitung von SARS-CoV-2-Aerosolen angewendet hat. Ursprünglich wurde die GRS-Software COCOSYS dazu entwickelt, u. a. die Ausbreitung von radioaktiven Stoffen in Form von Aerosolen in Kernkraftwerken zu berechnen. Die Projektergebnisse bildeten die Grundlage für die Entwicklung von Aerosol Control.

Gibt man die relevanten Eingangsgrößen in die Webanwendung ein, erhält man als Ergebnis das jeweilige Infektionsrisiko durch Corona-Aerosole. „Die Webanwendung gibt den Nutzerinnen und Nutzern ein besseres Verständnis dafür, welche Faktoren einen besonders großen Einfluss auf das Infektionsrisiko haben,“ sagt Holger Seher, Mitglied des GRS AppLabs.

Aerosol Control ist ab sofort auf der Website der GRS aufrufbar. Alle persönlichen Daten werden ausschließlich auf den Endgeräten der Nutzerinnen und Nutzer gespeichert. Die Webanwendung greift nicht auf sonstige Nutzerdaten zu oder leitet solche Daten an Dritte weiter.

Über die GRS
Die GRS erforscht und begutachtet seit mehr als 40 Jahren Themen rund um die nukleare Sicherheit. Die gemeinnützige technisch-wissenschaftliche Forschungs- und Sachverständigenorganisation ist vor allem in den drei Arbeitsfeldern Reaktorsicherheit, Entsorgung sowie Strahlen- und Umweltschutz tätig. Zu den Hauptauftraggebern der GRS zählen der Bund und die Europäische Kommission.

Weitere Informationen:
https://www.grs.de/sites/default/files/aerosol-control/wrapper.html Link zur Webanwendung
https://www.grs.de/sites/default/files/pdf/grs-632_0.pdf Abschlussbericht des Forschungsprojekts, welches der Webanwendung zugrunde liegt

(nach oben)


Neue Frühwarnsignale: Teile des grönländischen Eisschildes könnten Kipppunkt überschreiten

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Wissenschaftler haben neue Frühwarnsignale entdeckt, die darauf hinweisen, dass der zentral-westliche Teil des grönländischen Eisschildes relativ bald einen kritischen Übergang erleben könnte. Aufgrund steigender Temperaturen, so zeigt eine neue Studie von Forschern aus Deutschland und Norwegen, hat die Destabilisierung des Eisschildes bereits begonnen, und der Prozess des Abschmelzens könnte bereits bei begrenzter Erwärmung eskalieren. Ein Kippen des Eisschildes würde den langfristigen globalen Anstieg des Meeresspiegels erheblich verstärken.

„Wir haben Belege dafür gefunden, dass sich der zentral-westliche Teil des Grönland-Eisschildes destabilisiert hat“, erklärt der Erstautor Dr. Niklas Boers vom Potsdam-Institut für Klimafolgenforschung und der Freien Universität Berlin. „Unsere Ergebnisse deuten darauf hin, dass es in der Zukunft zu einem deutlich verstärkten Abschmelzen kommen wird – was sehr besorgniserregend ist.“

Ein Schlüsselmechanismus, der die Gesamtstabilität des grönländischen Eisschildes bestimmt, ist ein Rückkopplungsmechanismus namens melt-elevation feedback: Im Wesentlichen führt ein Temperaturanstieg zum Schmelzen, wodurch sich die Höhe des Eisschildes verringert. Auf einem Berg ist es oben kalt und unten weniger kalt. Wenn also die Oberfläche des Eisschildes schmilzt, sinkt es in die tiefere, wärmere Umgebungsluft – was wiederum zu beschleunigtem Schmelzen und zusätzlichem Höhenverlust führt. Ein Teufelskreis.

„Dieser Mechanismus ist seit Langem bekannt, und er ist einer der Hauptverdächtigen für die festgestellte Destabilisierung der zentral-westlichen Teile des grönländischen Eisschildes. Aber wir können nicht ausschließen, dass auch andere Rückkopplungen eine wichtige Rolle spielen, zum Beispiel im Zusammenhang mit der Albedo des Eisschildes“, erklärt Niklas Boers.

Beunruhigende Warnzeichen
Für ihre Analyse zogen Niklas Boers und sein Co-Autor Martin Rypdal von der Arctic University of Norway Meeresspiegeltemperaturen von Wetterstationen, Schmelzintensitäten aus Eisbohrkernen in Zentralwestgrönland sowie entsprechende Computermodell-Simulationen heran – und fanden in den Schwankungen der Eisschildhöhen beunruhigende Frühwarnzeichen, die darauf hindeuten, dass ein Kippen dieses Teils des Eisschildes bevorstehen könnte. „Die Warnzeichen werden durch charakteristische Veränderungen in der Dynamik des grönländischen Eisschildes verursacht, die widerspiegeln, wie gut sich der Eisschild gegen Störungen wehren und sich von ihnen erholen kann“, erklärt Rypdal.

Nach bisherigen Modellergebnissen ist das Abschmelzen des Grönlandeisschildes ab einer kritischen Schwelle der globalen Mitteltemperatur von 0,8 bis 3,2 Grad Celsius über dem vorindustriellen Niveau unvermeidlich. Sobald diese Schwelle überschritten wird, könnte der gesamte Eisschild über hunderte oder tausende von Jahren vollständig abschmelzen, was zu einem globalen Meeresspiegelanstieg von mehr als 7 Metern und einem Zusammenbruch der atlantischen meridionalen Umwälzzirkulation (AMOC) führen könnte, die für die relative Wärme in Europa und Nordamerika verantwortlich ist.

Doch neben mehreren positiven Rückkopplungen, die das Schmelzen beschleunigen, gibt es auch negative Rückkopplungen, die den grönländischen Eisschild auf mittleren Höhen stabilisieren könnten, vor allem durch zunehmende Akkumulation. „Wir müssen dringend das Zusammenspiel der verschiedenen positiven und negativen Rückkopplungsmechanismen besser verstehen, die die aktuelle Stabilität und die zukünftige Entwicklung des Eisschildes bestimmen“, sagt Niklas Boers.

Die Zukunft des Eisschildes ist ungewiss
Die Studie legt nahe, dass sich zumindest der zentral-westliche Teil des grönländischen Eisschildes einer kritischen Temperaturschwelle nähert. Doch wie sich dies auf den Eisschild als Ganzes auswirkt, bleibt unklar: „Angesichts der Anzeichen, die wir in Eiskernen aus dem zentral-westlichen Teil entdecken, müssen wir mehr Beobachtungen sammeln und unser Verständnis der entsprechenden Mechanismen verbessern, damit wir verlässlichere Schätzungen über die zukünftige Entwicklung des Grönland-Eisschildes machen können“, sagt Martin Rypdal.

„Das größte ​Problem ist die sogenannte Hysterese“, erläutert Niklas Boers weiter: „Unabhängig vom genauen Zusammenspiel der verschiedenen Rückkopplungen müssten wir die Temperaturen deutlich unter das vorindustrielle Niveau absenken, um wieder die Eisschildhöhe der letzten Jahrhunderte zu erreichen. Praktisch wird also der gegenwärtige und in naher Zukunft zu erwartende Massenverlust des Eises weitgehend irreversibel sein. Deshalb ist es höchste Zeit, dass wir die Treibhausgasemissionen aus der Verbrennung fossiler Brennstoffe schnell und deutlich reduzieren und das Eisschild und unser Klima wieder stabilisieren.“

Artikel: Niklas Boers & Martin Rypdal (2021): Critical slowing down suggests that the western Greenland ice sheet is close to a tipping point. PNAS. DOI: 10.1073/pnas.2024192118.

Wissenschaftliche Ansprechpartner:
presse@pik-potsdam.de

Originalpublikation:
Niklas Boers & Martin Rypdal (2021): Critical slowing down suggests that the western Greenland ice sheet is close to a tipping point. PNAS. DOI: 10.1073/pnas.2024192118.

(nach oben)


Neue REBOWL bald auch aus Biokunststoff? IfBB entwickelt nachhaltiges Material für neue Mehrweg-Schale

Dr. Lisa Mundzeck IfBB – Institut für Biokunststoffe und Bioverbundwerkstoffe
Hochschule Hannover
Das IfBB – Institut für Biokunststoffe und Bioverbundwerkstoffe an der Hochschule Hannover entwickelt in Zusammenarbeit mit dem Startup für messbar nachhaltige Produkte Crafting future für das Münchner Startup re-Cup ein nachhaltiges biobasiertes Material für die neue Mehrweg-Schale „REBOWL“ für „to go“-Lebensmittel. Nachhaltigkeit auf drei Ebenen: Vermeidung von Verpackungen, Wiederverwendung im Pfandsystem und baldmöglichst der Einsatz biobasierter Materialien.

Die Pfandschale „REBOWL“ wurde im April erfolgreich von re-Cup GmbH in Zusammenarbeit mit ihrem Partner Crafting future GmbH unter Unterstützung des IfBB auf den Markt gebracht. Nach dem Pfandsystem RECUP für Coffee-to-go-Mehrwegbecher gibt es damit auch für „to go“-Mahlzeiten ein Mehrwegpfandsystem. Das nachhaltige Konzept von Lebensmitteln und Getränken zum Mitnehmen in Mehrweg-Pfandbehältern wird weiter ausgebaut.
In der Pfandschale „REBOWL“, einer mit Deckel verschließbaren Schale, können „To go“-Gerichte auslaufsicher und nachhaltig transportiert, Schale und Deckel nach der Nutzung gespült deutschlandweit bei allen REBOWL-Partnern zurückgegeben werden.

Damit werden überflüssige Verpackungen vermieden und die Mehrwegnutzung durch das Pfandsystem nachhaltig gefördert – eine echte Alternative zur Einwegnutzung.

Die nun herausgebrachte erste Version der Schale besteht aus herkömmlichem Polypropylen, recycelbar und BPA frei. Nach der intensiven Zusammenarbeit der drei Partner im ersten Schritt soll nun im nächsten auch das Material ein nachhaltiges werden. Dafür bauen re-Cup und Crafting future ihre Zusammenarbeit mit dem IfBB an der Hochschule Hannover, den Experten auf dem Gebiet der Entwicklung biobasierter Kunststoffe, aus.
Die Herausforderung dabei: Der Biokunststoff muss ganzheitlich nachhaltig sein und sowohl bei der Nutzung und Wiederverwendung (für Lebensmittel zugelassen, ausreichend hitzebeständig, kratz-, spülmaschinen- und mikrowellenfest) als auch bei Rezyklierbarkeit und Wirtschaftlichkeit überzeugen.
Verschiedene Rezyklate sind bereits getestet worden und noch 2021 soll es aus Sicht der Partner einen fließenden Materialwechsel geben.

In den kommenden zwei Jahren soll ein Volumen von über einer Million REBOWLs erreicht werden.

Mehr zur REBOWL unter: https://rebowl.de/pfandschale/

(nach oben)


Verarmte Flora in Wiesen und Wäldern gefährdet Insekten

Reinhard Lässig Medienkontakt WSL Birmensdorf
Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft WSL
Wo die pflanzliche Vielfalt zurückgeht, nimmt die Diversität der Insekten und damit die Biodiversität als Ganzes ab. Auf intensiv genutzten Wiesen und Weiden sowie in dunklen Buchenwäldern fehlen etwa auf wenige Pflanzenarten spezialisierte Insekten, da dort ihre Futterpflanzen nicht mehr vorkommen. Dies zeigt eine von der Eidg. Forschungsanstalt für Wald, Schnee und Landschaft WSL koordinierte internationale Studie.

Die Intensivierung der Landnutzung stellt eine grosse Bedrohung für die biologische Vielfalt dar, unter anderem für pflanzenfressende Insekten und ihre Wirtspflanzen. Sind Käfer, Heuschrecken, Blattwanzen oder Zikaden nur auf eine oder sehr wenige Pflanzenarten spezialisiert, müssen sie abwandern oder sie sterben lokal aus, wenn ihre Wirtspflanzen verschwinden. Ist die vorhandene Nahrungspalette einer Insektenart hingegen artenreich, kann sie trotzdem überleben, auch wenn die Pflanzenarten abnehmen. Das Zusammenspiel von Arten unterschiedlicher Organismengruppen ist letztlich entscheidend für die Stabilität eines Ökosystems.

Diesen Wechselwirkungen zwischen Pflanzen und Insekten gingen Forschende mehrerer Forschungseinrichtungen aus Deutschland und der Schweiz unter der Leitung der Eidg. Forschungsanstalt für Wald, Schnee und Landschaft WSL auf den Grund. In der vom Schweizerischen Nationalfonds (SNF) finanzierten Studie im Rahmen des «Schwerpunktprogramms Biodiversitäts-Exploratorien» der Deutschen Forschungsgemeinschaft (DFG) untersuchten sie in den drei deutschen Naturräumen Schwäbische Alb (Baden-Württemberg), Hainich (Thüringen) und Schorfheide (Brandenburg) die Vielfalt der Pflanzen und Insekten, sowie deren Wechselwirkungen. Mit ihrer Studie auf intensiv bis wenig bewirtschafteten Wiesen und Weiden (Grünland) sowie in unterschiedlich bewirtschafteten Buchen- und Nadelwäldern wollten sie mehr über das Zusammenspiel zwischen Pflanzen- und Insektenarten herausfinden, die lokale Netzwerke bilden. Die bis zu 1300 Quadratkilometer grossen Naturräume decken eine genügende Anzahl unterschiedlich bewirtschafteter Flächen ab, um statistisch gesicherte Ergebnisse zu erhalten.

In den Gebieten mit einer Mischung aus naturnahen bis hin zu stark von Menschen genutzten Ökosystemen gingen die Forschenden davon aus, sehr unterschiedliche Insektengemeinschaften vorzufinden. «Da in diesen Gebieten zum Teil auch Insektenarten vorkommen, die auf wenige Futterpflanzen spezialisiert sind, versprachen wir uns neue Einblicke in die Konsequenzen, die eine intensive Nutzung für die ökologische Stabilität von Grünland und Wäldern hat», sagt Martin Gossner, Insektenforscher an der WSL und Leiter der Studie. Insgesamt erfassten die Forschenden auf 289 langfristig angelegten Stichprobenflächen 531 Pflanzen- und 1053 Insektenarten sowie deren Häufigkeiten.

Stabilere Insektengemeinschaften dank hoher Pflanzenvielfalt
In der Studie zeigte sich, dass Pflanzen-Insekten-Netzwerke in wenig beweidetem Grünland aus mindestens 70 Pflanzenarten und 80 pflanzenfressenden Käfer-, Heuschrecken-, Blattwanzen- und Zikadenarten bestehen. So bietet beispielsweise die wilde Möhre, eine typische Pflanze mässig bewirtschafteter Weiden, zahlreichen spezialisierten Käferarten Nahrung. Auf häufig gemähten oder gedüngten Wiesen und Weiden konnten im Mittel hingegen nur 40 Pflanzen- und 60 bis 70 der untersuchten Insektenarten nachgewiesen werden.

In seit kurzem unbewirtschafteten Wäldern mit dichtem Baumbewuchs ist die Biodiversität mit durchschnittlich 25 Pflanzen- und 30 solcher Insektenarten deutlich geringer als in lichten Wäldern. Jenen Insekten, die nur wenige Baum- oder Krautarten als Nahrung nutzen können, fehlt dort die Lebensgrundlage. Hingegen dringt in Wäldern mit zahlreichen Lücken im Kronendach viel Licht auf den Boden, so dass dort bis zu 80 Pflanzen- und 50 pflanzenfressende Insektenarten der studierten Gruppen vorkommen. «Licht fördert die Vielfalt an Pflanzen, welche wiederum mehr Insektenarten als Nahrungsgrundlage dienen. Gleichzeitig sind die Insektenarten weniger gefährdet, lokal auszusterben, das System ist also stabiler», sagt WSL-Forscher Felix Neff, der Erstautor des soeben in der Zeitschrift «Science Advances» erschienenen Fachartikels. Ein Beispiel für die stabilisierende Wirkung lichtdurchfluteter Wälder ist etwa die Brennnessel, die in diesen bevorzugt vorkommt und Nahrungsquelle für viele spezialisierte Schmetterlingsraupen, Rüsselkäfer, Blattzikaden und -wanzen ist. «Als Doktorand fasziniert mich diese Forschung nicht nur wegen der grossen, artenreichen Gebiete, die wir untersuchen; für mich ist auch die Zusammenarbeit mit den zahlreichen interdisziplinären Forschungsgruppen eine Bereicherung», betont Felix Neff.

Ergebnisse dürften sich in die Schweiz übertragen lassen
Werden lichtere Wälder gefördert, erhöht sich nicht nur die Vielfalt an Bodenpflanzen, Sträuchern und Bäumen, sondern auch die von der Pflanzenvielfalt profitierenden Insektenarten. Auch förderlich sind aus verschiedenen Laub- und Nadelbäumen gemischte Bestände, die sich ausserdem als stabiler gegenüber dem fortschreitenden Klimawandel erweisen dürften. Nimmt die pflanzliche Vielfalt hingegen ab, geht auch die Diversität der erfassten Insekten und damit die gesamte Biodiversität zurück. Derartige Ökosysteme verarmen also.

Für Grünland empfehlen die Forschenden eine moderate Beweidung anstelle des intensiven Mähens, um vielfältige und stabile Insektengemeinschaften zu fördern. «Diese Erkenntnisse lassen sich auch auf die Schweiz übertragen, beispielsweise aufs Mittelland, den Jura oder die tieferen Lagen der Voralpen», sagt Martin Gossner, «das Projekt der Exploratorien hatte von Beginn an zum Ziel, Aussagen machen zu können, die auf verschiedene Regionen Europas zutreffen».

Wissenschaftliche Ansprechpartner:
Felix Neff, Tel. +41 44 739 23 25

Originalpublikation:
F. Neff, M. Brändle, D. Ambarlı, C. Ammer, J. Bauhus, S. Boch, N. Hölzel, V. H. Klaus, T. Kleinebecker, D. Prati, P. Schall, D. Schäfer, E.-D. Schulze, S. Seibold, N. K. Simons, W. W. Weisser, L. Pellissier, M. M. Gossner, Changes in plant-herbivore network structure and robustness along land use intensity gradients in grasslands and forests. Sci. Adv. 7, eabf3985 (2021). doi: 10.1126/sciadv.abf3985

Weitere Informationen:
https://www.wsl.ch

(nach oben)


Geothermie als nachhaltige Energiequelle: Neue Fallstudie zeigt Potenziale für die Verringerung von CO₂-Emissionen

Christian Wißler Pressestelle
Universität Bayreuth
Geothermie kann als nachhaltige Energiequelle auch in Deutschland einen signifikanten Beitrag zur Senkung von CO₂-Emissionen leisten. Dies zeigt eine Fallstudie zum Kraftwerk Kirchstockach, die Wissenschaftler am Zentrum für Energietechnik (ZET) der Universität Bayreuth in der Zeitschrift „Renewable Energy“ veröffentlicht haben. Die Geothermie-Forschung am ZET ist in die Geothermie-Allianz Bayern integriert, die vom Bayerischen Wissenschaftsministerium seit 2016 gefördert wird. Im Rahmen der vor kurzem gestarteten zweiten Förderphase erhält das ZET rund 500.000 Euro.

Das Kraftwerk in Kirchstockach südwestlich von München wurde 2013 in Betrieb genommen und produziert jährlich rund 40 GWh erneuerbaren Strom. Die neue Fallstudie zu dieser Anlage bietet die erste umfassende Ökobilanz eines realen geothermischen Kraftwerks in Deutschland. Partner der Untersuchung waren das Karlsruher Institut für Technologie und die Martin-Luther-Universität Halle-Wittenberg. „Wir haben die Strombereitstellung durch das Geothermie-Kraftwerk in Kirchstockach insbesondere unter dem Aspekt der CO₂-Emissionen analysiert. Dabei stellte sich heraus: Wird die in der Erdkruste gespeicherte Wärme für die Stromerzeugung verwendet, fallen beim derzeitigen Stand der Technik weniger CO₂-Emissionen an, als wenn Biogas oder Photovoltaik für die Stromerzeugung genutzt werden“, sagt Dr.-Ing. Florian Heberle, Ko-Autor der Studie und Geschäftsführer des Zentrums für Energietechnik (ZET) der Universität Bayreuth.

Um die in heißen Themalwasser gespeicherte Erdwärme in elektrischen Strom zu wandeln, kommt in Kirchstockach – wie in vielen anderen Geothermie-Kraftwerken in Deutschland – ein spezielles Verfahren zum Einsatz: der Organic Rankine Cycle (ORC). Anstelle von Wasser wird dabei ein organisches Fluid, ein sogenanntes Arbeitsmedium, mit der Wärmequelle gekoppelt. Der auf diesem Weg erzeugte Dampf treibt Turbinen an und dient so der Stromerzeugung. Die Fallstudie kommt nun zu dem Ergebnis, dass die CO₂-Emissionen eines ausschließlich zur Stromerzeugung eingesetzten Geothermie-Kraftwerks zu mehr als einem Drittel vom jeweils verwendeten Arbeitsmedium abhängen. Hier sehen die Wissenschaftler signifikante Potenziale für einen noch klimafreundlicheren Betrieb von Geothermie-Anlagen. „Werden statt der bisher üblichen Fluide natürliche Kältemittel oder Hydrofluorolefine (HFO) – dies sind neuartige organische Verbindungen aus Wasserstoff, Fluor und Kohlenstoff – verwendet, lassen sich die CO₂-Emissionen bei der Stromerzeugung erheblich senken“, sagt Heberle. Er forscht am Lehrstuhl für Technische Thermodynamik und Transportprozesse (LTTT) schon seit vielen Jahren an einer optimierten Nutzung von Erdwärme als nachhaltiger Energiequelle.

„Die weitsichtige Entscheidung des Bayerischen Wissenschaftsministeriums, die Geothermie-Allianz Bayern in einer zweiten Phase bis 2024 weiter zu fördern, begrüßen wir sehr. Allein für dieses Jahr sind insgesamt 1,9 Millionen Euro für Forschungsvorhaben bereit gestellt worden, die darauf abzielen, die Geothermie verstärkt für eine integrierte Energieversorgung aus nachhaltigen Energiequellen zu nutzen. Daran wird sich das Zentrum für Energietechnik an der Universität Bayreuth insbesondere auf dem Gebiet der Wärmebereitstellung beteiligen. Hierbei steht unter anderem die technische, ökonomische und ökologische Betrachtung innovativer Energiesysteme mit Hochtemperatur-Wärmepumpen im Mittelpunkt. Darüber hinaus kooperieren wir sehr erfolgreich auch mit dem Kompetenzzentrum für Kraft-Wärme-Kopplung an der OTH Amberg-Weiden, das parallel zur Geothermie-Allianz gefördert wird“, sagt Prof. Dr.-Ing. Dieter Brüggemann, Direktor des Zentrums für Energietechnik und Inhaber des Lehrstuhls LTTT.

Der Geothermie-Allianz Bayern gehören neben der Universität Bayreuth auch die FAU Erlangen-Nürnberg sowie die Technische Universität München, die LMU München und die Hochschule München an.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Dieter Brüggemann / Dr.-Ing. Florian Heberle
Zentrum für Energietechnik (ZET)
Lehrstuhl für Technische Thermodynamik und Transportprozesse (LTTT)
Universität Bayreuth
Telefon: +49 (0)921 55-7160 / 55-6803
Brueggemann@uni-bayreuth.de / Florian.Heberle@uni-bayreuth.de

Originalpublikation:
Kathrin Menberg et al.: Environmental performance of a geothermal power plant using a hydrothermal resource in the Southern German Molasse Basin. Renewable Energy (2021), Volume 167, 20-31. DOI: https://doi.org/10.1016/j.renene.2020.11.028

(nach oben)


Drei Viertel der Beschäftigten mit Homeoffice-Option sind teilweise oder ausschließlich im Homeoffice tätig

Marie-Christine Nedoma, Jana Bart und Inna Felde Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Ende April waren 28 Prozent der Beschäftigten mit Homeoffice-Option, das heißt deren Tätigkeit Homeoffice zulässt und deren Betrieb ihnen die Möglichkeit zu Homeoffice gibt, ausschließlich im Homeoffice tätig. 47 Prozent arbeiteten teilweise im Homeoffice. Das geht aus einer Betriebsbefragung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) von Ende April hervor.

Das grundsätzliche Potenzial für Homeoffice wird in der Pandemie immer stärker ausgeschöpft. Das heißt, dass immer mehr Beschäftigte, deren Tätigkeit es zulässt, im Homeoffice tätig sind. „Das Potenzial für Homeoffice wird weitgehend genutzt, aber es gibt noch etwas Luft nach oben,“ stellt Bernd Fitzenberger, Direktor des IAB, fest. Der Anteil der Belegschaft, der Homeoffice nicht nutzen kann, obwohl es die Tätigkeit zuließe, hat sich seit dem vergangenen Oktober nahezu halbiert. Im Oktober konnten 13 Prozent nicht in Homeoffice arbeiten, obwohl das ihre Tätigkeit zuließe, im April waren es noch 7 Prozent.

46 Prozent aller Betriebe ermöglichen zumindest einem Teil ihrer Beschäftigten Homeoffice. Der Anteil dieser Betriebe ist seit Oktober 2020 gestiegen, vor allem bei den kleineren Betrieben. Generell ist Homeoffice eher in größeren Betrieben möglich. Dementsprechend arbeiten 75 Prozent aller sozialversicherungspflichtig Beschäftigten in Betrieben mit Homeoffice-Option. Der Anteil der Beschäftigten in Betrieben mit Homeoffice-Möglichkeit ist ebenfalls gestiegen, was vor allem an dem Anstieg bei Betrieben mittlerer Größe liegt.

Datengrundlage ist eine etwa alle drei Wochen durchgeführte Befragung des IAB von mehr als 1.500 Betrieben der Privatwirtschaft, mit der die Auswirkungen der Corona-Krise auf die Situation der Betriebe laufend untersucht werden.

Zum Download stehen unter http://doku.iab.de/arbeitsmarktdaten/ADuI_BeCovid_W12.xlsx Tabellen zu den Ergebnissen aus der 12. Befragungswelle bereit. Verfügbar sind Ergebnisse unter anderem zur Betroffenheit der Betriebe von der Corona-Krise, zur Liquidität und Existenzbedrohung. Tabellen und Grafiken aus früheren Befragungswellen können Sie ebenfalls herunterladen unter https://www.iab.de/de/daten/arbeitsmarktentwicklung.aspx.

(nach oben)


Studie: Das durchschnittliche Einzelkrankenhaus hat wenig Zukunft

Elena Wassmann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Unter Herausgeberschaft der Forschungsstelle für öffentliche und Nonprofit-Unternehmen der HWG LU wurde gerade die Studie „Ein kommunaler Krankenhauskonzern – Eine wissenschaftliche Bewertung aus Sicht von Daseinsvorsorge, medizinischer Qualität und Wirtschaftlichkeit“ veröffentlicht. Kernergebnis der Studie: Krankenhäuser ohne Verbund- oder Konzernstruktur werden es künftig schwer haben, sowohl mit Blick auf die medizinische Qualität als auch aus wirtschaftlicher Sicht. Innovative Lösungen der Verbund- und Konzernbildung, die es auch im öffentlichen Bereich erlauben, überregionale Verbünde zu bilden, sind gefragt.

Unter Herausgeberschaft der Forschungsstelle für öffentliche und Nonprofit-Unternehmen der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen wurde gerade eine Studie mit dem Titel „Ein kommunaler Krankenhauskonzern – Eine wissenschaftliche Bewertung aus Sicht von Daseinsvorsorge, medizinischer Qualität und Wirtschaftlichkeit“ veröffentlicht.

Krankenhäuser ohne Verbund- oder Konzernstruktur werden es künftig schwer haben, sowohl mit Blick auf die medizinische Qualität als auch aus wirtschaftlicher Sicht. Insbesondere die wirtschaftlichen Folgen der Covid-19-Krise sowie die Herausforderungen, die sich aus der künftigen digitalen Medizin und digitalen Prozessorganisation ergeben, werden es für das Gros der Kliniken kaum möglich machen, als Einzelkrankenhaus weiterzubestehen. Aus diesem Grund sollten neue innovative Lösungen der Verbund- und Konzernbildung überlegt werden, die es auch im öffentlichen Bereich erlauben, überregionale Verbünde zu bilden.

Das ist das Kernergebnis einer Studie, die von der Forschungsstelle für öffentliche und Nonprofit-Unternehmen von Prof. Dr. Marcus Sidki der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen im Auftrag von consus clinicmanagement herausgegeben wurde.

Unter dem Titel „Ein kommunaler Krankenhauskonzern – eine wissenschaftliche Bewertung aus Sicht von Daseinsvorsorge, medizinischer Qualität und Wirtschaftlichkeit“ beschreiben die Studienautoren Dr. Stephan Balling und Prof. Dr. Björn Maier, dass insbesondere kleinere kommunale Krankenhäuser im ländlichen Raum – Kreiskliniken – vor der Frage stehen, Partnerschaften einzugehen.

„Kommunen sollten für ihre Krankenhäuser regionale oder überregionale Verbundlösungen finden“, sagt Dr. Stephan Balling, einer der beiden Studienverfasser. Zum einen zeige eine Analyse verschiedener Quellen, dass Einzelkrankenhäuser, die als Grund- und Regelversorger agieren, besonders große wirtschaftliche Probleme sowie höchstwahrscheinlich auch medizinisch-technische Qualitätsmängel hätten. Zum anderen habe eine Expertenbefragung veranschaulicht, welche Vorteile Konzernstrukturen bringen.
„Shared Services wie IT, Einkauf oder Personalmanagement kombiniert mit einheitlichen Standards und hoher Verbindlichkeit sind die wichtigsten Faktoren, weshalb Verbundlösungen auch im Krankenhauswesen sinnvoll sind“, erklärt Studienverfasser Prof. Dr. Björn Maier. Als zentrales Argument für intensive Kooperationen und Verbundlösungen zeige die Studie auch die Möglichkeiten zum Wissenstransfer sowie die Entwicklung und Einhaltung von Qualitätsstandards. Dazu komme ein weiterer wesentlicher Erfolgsfaktor: Cashpools, mit denen sich kurzfristige Liquiditätsengpässe vermeiden und Investitionen gezielter steuern ließen.

Die Studie kommt ferner zu dem Ergebnis, dass als Rechtsform für Krankenhäuser neben der öffentlich-rechtlichen Variante der Anstalt des öffentlichen Rechts (AÖR) insbesondere die privatrechtlichen Gesellschaftsformen der (gemeinnützigen) Gesellschaft mit beschränkter Haftung (gGmbH) oder der (gemeinnützigen) Aktiengesellschaft (gAG) sinnvoll seien. Das Ziel, Entscheidungen unter medizinischen und wirtschaftlichen Aspekten zu fällen und Strukturen nicht mit Blick auf Wahlchancen von Kommunalpolitikern zu gestalten, könne vor allem mit der Rechtsform der gAG erreicht werden, da diese aktienrechtlich einen nicht weisungsgebundenen Vorstand habe.

Um Politikferne zu erreichen, sei aber auch der Gesetzgeber gefragt, Klarheit über die Weisungsungebundenheit kommunaler Mandatsträger in Aufsichtsräten von Krankenhäusern zu schaffen. Dies gelte insbesondere mit Blick auf Fachexperten, die von kommunalen Gremien entsandt werden. „Unsere Analyse zielt darauf, dass Krankenhäuser nach fachlichen Aspekten geführt werden, nach der Frage, was ist für eine gute Versorgung der Bevölkerung wichtig, und was ist wirtschaftlich nachhaltig, aber zugleich eine gewisse Politikferne erreicht wird, ohne dass Krankenhäuser privatisiert werden“, fasst Balling den Ansatz der Studie zusammen.

„Die Studienergebnisse bieten sehr interessante Anstöße für eine ideologiefreie und gemeinwohlorientierte Debatte über die künftige Krankenhauslandschaft in Deutschland“, kommentiert Dr. Djordje Nikolic, Geschäftsführer von Studienauftraggeber consus clinicmanagement, die Ergebnisse.

Wissenschaftliche Ansprechpartner:
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Forschungsstelle für öffentliche und Nonprofit-Unternehmen
Prof. Dr. Marcus Sidki
Marcus.Sidki@hwg-lu.de

Weitere Informationen:
https://www.vwl.hwg-lu.de Hier finden Sie die Studie zum Download
https://vwl.hwg-lu.de/fileadmin/user_upload/forschung-transfer/oeffentliche-unte… Hier kommen Sie direkt zur Studie

(nach oben)


Neue Studie aus Bayreuth: Deutlicher Anstieg des Radfahrens in Großstädten nach Lockdown-Beginn 2020

Christian Wißler Pressestelle
Universität Bayreuth
Die pandemiebedingte Schließung von Sportplätzen, Sporthallen und Fitness-Studios in Deutschland hat zu einem signifikanten Anstieg des Radfahrens in den öffentlichen Grünanlagen von Großstädten geführt. Zu diesem Ergebnis kommen Forscher*innen der Universität Bayreuth in einer neuen, in PLOS ONE veröffentlichten Studie. Die Untersuchung beruht auf anonymisierten Daten der Fitness-App von Strava, die weltweit von mehr als 73 Millionen Menschen genutzt wird.

„Wir wollten herausfinden, wie die Menschen in Deutschland seit Beginn des Lockdowns im März 2020 auf die zunehmenden Beschränkungen ihrer gewohnten sportlichen Aktivitäten reagiert haben. Insbesondere interessierten wir uns für die Frage, ob sie auf Outdoor-Aktivitäten ausweichen, die mit den von Bund und Ländern beschlossenen Beschränkungen sowie mit den Regeln des ‚Social Distancing‘ vereinbar sind. Die Fitness-App von Strava, die mit GPS-Daten arbeitet und die Bewegungsprofile der Nutzer*innen mit hoher Genauigkeit erfasst, eignen sich für eine solche Studie besonders gut. Bei der Auswertung haben wir uns auf einen Vergleich des Radfahrens in großen Ballungszentren und in ländlichen Räumen konzentriert“, sagt die Bayreuther Sportökologin Anne-Marie Schweizer M.A., Erstautorin der Studie und Mitarbeiterin von Prof. Dr. Manuel Steinbauer, dem Leiter der Studie.

Insgesamt wurden die 15 bevölkerungsreichsten Großstädte sowie sieben ländlich geprägte Regionen für die Studie ausgewählt. In diesen Regionen – beispielsweise im Bayerischen Wald, dem Harz, der Hohen Mark oder der Ostsee-Insel Usedom – ließ sich keine durch den Lockdown verursachte Steigerung von Radsport-Aktivitäten feststellen. In den großen Metropolen hingegen wurde das Radfahren, vor allem in öffentlichen Parks, immer beliebter. Bereits im April 2020 erhöhten sich die Radsport-Aktivitäten in städtischen Grünanlagen sprunghaft um 81 Prozent gegenüber den Vormonaten. Im Zeitraum April bis Juni 2020 stiegen sie durchschnittlich um 55 Prozent an. Um diese Entwicklungen aus dem umfangreichen Datenmaterial der Strava-App herauszuarbeiten, mussten die Wissenschaftler*innen sowohl wetterbedingte Einflüsse auf das Radfahr-Verhalten als auch die steigende Anzahl der Sportler*innen berücksichtigen, die sich im Verlauf der Covid-19-Pandemie für die App registriert hatten.

„Der Trend zum Outdoor-Sport in den städtischen Zentren wurde vermutlich auch durch den sprunghaften Anstieg der Kurzarbeit gefördert – um 17 Prozent von Januar bis April 2020. So hatten Beruftstätige in den Städten mehr Zeit für Outdoor-Sport. Darüber hinaus zeigt das beliebte Radfahren in öffentlichen Parks und anderen innerstädtischen Grünanlagen natürlich auch das Bedürfnis der Menschen, unter den oft bedrückenden Einschränkungen des Lockdowns etwas für ihre Gesundheit und ihr seelisches Wohlbefinden zu tun“, sagt Schweizer und verweist auf die Folgen der von Bund und Ländern getroffenen Maßnahmen zur Eindämmung der Pandemie: 27,6 Millionen Mitglieder in Sportvereinen und 11,7 Mitglieder in Fitness-Studios konnten ihr gewohntes regelmäßiges Training in den Monaten April bis Juni 2020 nicht länger fortsetzen.

Wissenschaftliche Ansprechpartner:
Anne-Maria Schweizer M.A.
Wissenschaftliche Mitarbeiterin
Sportökologie
Universität Bayreuth
Telefon: +49 (0)921 / 55-4702
E-Mail: Anne-Maria.Schweizer@uni-bayreuth.de

Prof. Dr. Manuel Steinbauer
Sportökologie
Universität Bayreuth
Telefon: +49 (0)921 / 55-5834
E-Mail: Manuel.Steinbauer@uni-bayreuth.de

Originalpublikation:
Anne-Maria Schweizer, Anna Leiderer, Veronika Mitterwallner, Anna Walentowitz, Gregor Hans Mathes, Manuel Jonas Steinbauer: Outdoor cycling activity affected by COVID-19 related epidemic-control-decisions. PLOS ONE (2021), DOI: https://doi.org/10.1371/journal.pone.0249268

(nach oben)


Bioaktive Papierbeschichtung ersetzt Kunststoffverpackungen bei Lebensmitteln

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Von Jahr zu Jahr steigt die Menge an Plastikmüll. Dazu tragen auch die Kunststoffverpackungen der Lebensmittel bei. Forschende der Fraunhofer-Gesellschaft haben im Projekt »BioActiveMaterials« eine umweltfreundliche Beschichtung für Papierverpackungen entwickelt. Damit wird nicht nur Kunststoff eingespart, die Beschichtung aus pflanzenbasierten Proteinen und Wachsen verlängert auch die Haltbarkeit der Lebensmittel. Nach der Nutzung wird die Verpackung in der Altpapiertonne entsorgt.

Wer heute seine Lebensmittel beim Discounter holt, kauft fast immer die Kunststoffverpackung mit. Wurst, Käse, Fleisch und Fisch sind fast immer abgepackt. Auch Obst, Salat und Gemüse kommen häufig in der Kunststoffverpackung. Diese ist hygienisch und schützt das Lebensmittel beim Transport nach Hause. Allerdings tragen die mineralölbasierten Kunststoffe zum Anwachsen der Müllberge bei. In Deutschland wurden allein im Jahr 2017 pro Einwohner insgesamt 38,5 Kilogramm Müll aus Plastikverpackungen erzeugt. Der Plastikmüll schwimmt auf den Ozeanen oder wird zur Entsorgung in asiatische oder afrikanische Länder exportiert. Durch Abrieb oder Zerfall entsteht Mikroplastik, das am Ende in der Nahrungskette landet. Eine Reduzierung der Kunststoffverpackungen auch im Bereich der Lebensmittel tut also Not.

Nun haben das Fraunhofer-Institut für Verfahrenstechnik und Verpackung IVV und das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB eine innovative und nachhaltige Lösung für Lebensmittelverpackungen vorgestellt. Die Haltbarkeit der Lebensmittel wird – wie bei herkömmlichen Verpackungen – verlängert. Aber die neue Verpackung verzichtet dabei auf Kunststoff. Nach der Benutzung ist sie problemlos zu recyceln.

Proteine, Wachse und Antioxidantien verlängern die Haltbarkeit
Im Projekt »BioActiveMaterials« nutzen die Forschenden Papier als Basismaterial zur Herstellung typischer und funktioneller Verpackungsmaterialien: verschließbare Siegelrandbeutel oder Einschlagpapier. Das Papier wird über Standardverfahren mit einer speziellen Beschichtung versehen. Für diese Beschichtung nutzen die Forschenden Proteine und Wachse mit biobasierten Additiven. Die spezielle Formulierung der langzeitstabilen Beschichtung erfüllt gleich mehrere Funktionen. »Zum einen dienen die Proteine als Sauerstoffsperrschicht und die Wachse als Wasserdampfbarriere, so trocknet beispielsweise Obst nicht so schnell aus. Zum anderen verleihen die biobasierten Additive antioxidative und antimikrobielle Wirkung. Fleisch und Fisch verderben dann nicht so schnell. Insgesamt wird die Haltbarkeit des Lebensmittels deutlich verlängert«, erklärt Dr. Michaela Müller, Leiterin des Innovationsfelds Funktionale Oberflächen und Materialien am Fraunhofer IGB. Auch die Proteine in der Beschichtung übernehmen bestimmte Aufgaben. Sie verhindern, dass Mineralöl aus dem Papier auf die Lebensmittel übergeht. Gerade Altpapier enthält Reste von mineralölhaltiger Druckerfarbe.

Die im Rahmen des Projekts »BioActiveMaterials« entwickelten beschichteten Papiere stellen eine Alternative zu derzeitigen Verpackungen für Lebensmittel aller Art dar, egal ob Obst und Gemüse, Fleisch und Fisch, Käse oder auch Süßwaren. Die Verbraucherin oder der Verbraucher können die papierverpackten Lebensmittel genauso lagern und handhaben wie die mit Kunststoff verpackten. »Unsere papierbasierten Verpackungen sind auch für Lebensmittel geeignet, die gekühlt werden müssen, beispielsweise Fleisch. Hierbei bleibt die Schutzfunktion vor Sauerstoff erhalten«, ergänzt Müller. Sogar Tiefkühlkost lässt sich darin verpacken. »Nach der Nutzung wandert die Verpackung in die Altpapiertonne, die Beschichtung ist biologisch abbaubar und stört das Papierrecycling nicht«, sagt Dr. Cornelia Stramm, Abteilungsleiterin am Fraunhofer-Institut für Verfahrenstechnik und Verpackung IVV.

Die Fraunhofer-Institute haben das Projekt in eng verzahnter Teamarbeit vorangetrieben. Während die Wissenschaftlerinnen und Wissenschaftler am Fraunhofer IGB sich um die komplexe Formulierung und Herstellung der Beschichtung kümmerten, testeten die Forschenden am Fraunhofer IVV, wie gut die Beschichtung in der Praxis funktioniert. »Wir haben beispielsweise getestet, wie effektiv die jeweilige Beschichtung das Lebensmittel vor Außeneinflüssen wie Wasserdampf, Sauerstoff und Mineralöl schützt«, erklärt Stramm. Zudem sorgte das Team im Fraunhofer IVV für den Auftrag der Beschichtung im Rolle-zu-Rolle-Verfahren auf die Papiere. Der erfolgt mittels einer Maschine, auf der das Papier über Walzen geführt wird. Dabei wird die Beschichtung als wässrige Dispersion aufgetragen.

Proteine aus Reststoffen, Wachse aus Brasilien und Nordmexiko
Bei der Wahl der Rohstoffe für »BioActiveMaterials« setzte das Fraunhofer-Team auf natürliche, lebensmittelrechtlich zugelassene Substanzen. Für die Protein-Komponente etwa experimentierten sie mit Raps, Lupinen, Molke oder Sonnenblumen. In der Praxis könnten landwirtschaftliche Betriebe nicht verwertete Reststoffe aus der Produktion an die Verpackungsindustrie liefern. Bei den Wachsen setzen die Forschenden auf Bienenwachs und auf Wachse, die aus dem in Nordmexiko vorkommenden Candelilla-Busch sowie aus der brasilianischen Carnauba-Palme gewonnen werden. »Wir haben uns für diese Wachse entschieden, da sie biologisch abbaubar, lebensmittelrechtlich zugelassen und auf dem Markt leicht verfügbar sind«, erklärt Müller.

In der Herstellung kommt klassische Labortechnik zum Einsatz, also Zerkleinern, Erhitzen, Rühren und Mixen. »Die Kunst besteht im Mischungsverhältnis und in der Reihenfolge, in der man die einzelnen Substanzen dazugibt. Die Flexibilität beim Mischungsverhältnis der Substanzen ermöglicht es uns auch, die Beschichtung für bestimmte Anwendungen zu optimieren«, sagt Müller. So könnte etwa eine Verpackung für Fleisch durch mehr Antioxidantien eine besonders starke antimikrobielle und antioxidative Wirkung entfalten, während der Salat in der Tüte durch eine Wachsbeschichtung besonders gut vor Austrocknung geschützt ist.

Vorteile für Hersteller, Händler und Verbraucher
Auch an ganz praktische Aspekte haben die Forschenden gedacht. So lässt sich neben Papier auch Karton mit der bioaktiven Beschichtung ausstatten. Ein Bedrucken der Verpackung ist dabei kein Problem. Ein Hersteller könnte sein Logo oder lebensmittelrechtlich vorgeschriebene Angaben zu Inhaltsstoffen aufdrucken. Auch Discounter und Lebensmittelhändler profitieren von der Fraunhofer-Verpackung. Denn ressourcensparende und biologisch abbaubare Verpackungen ohne Kunststoff liegen bei den Verbraucherinnen und Verbrauchern im Trend.

Die Projektpartner vom Fraunhofer IVV und vom Fraunhofer IGB experimentieren bereits mit Konzepten, bei denen die Beschichtung direkt auf Lebensmittel wie etwa Obst oder Gemüse aufgetragen wird und so die Haltbarkeit erhöht. Aus gesundheitlicher Sicht ist die essbare Beschichtung ohnehin unbedenklich.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/mai-2021/bioaktive-…

(nach oben)


KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten

Beatrice Liebeheim-Wotruba Referat Hochschulmarketing & Kommunikation
Hochschule Ruhr West
KIWaSuS steht für „KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten“.
Im Projekt soll ‚Künstliche Intelligenz‘ eingesetzt werden. Es handelt sich um eine Technik, die eher in Smartphones, Autos oder Sprachassistenten zur Mustererkennung in Bildern und Sprache eingesetzt wird. In KIWaSuS soll KI eingesetzt werden, Zusammenhänge und Muster bei der Entstehung von Starkregenzellen zu erlernen, um dann die zeitliche und räumliche Entwicklung von Starkregenzellen besser vorhersagen zu können. Auch soll KI verwendet werden, um das Verhältnis zwischen Niederschlag und dem Abfluss zu erlernen. So sollen Überlastungen des Kanalnetzes und Überschwemmungen besser zu beschreiben sein.

Gelsenkirchen / Essen / Mülheim an der Ruhr, 04. Mai 2021: Starkregen und Sturzfluten sind kein neues Phänomen. Doch die extremen Wetterereignisse, besonders in den Sommermonaten, nehmen in Folge des Klimawandels zu. Vor allem in urbanen Gebieten, also Ruhrgebietsstädten wie Gelsenkirchen, kommt es schnell zur Überlastung der Kanalnetze, zu Überflutungen von Straßen und Unterführungen. Damit sind Rettungswege, z. B. für die Feuerwehr, blockiert. Hinsichtlich Vorwarnzeit, geographisch genauer Verortung und zu erwartender Niederschlagsmenge sind Starkregenereignisse kaum adäquat vorherzusagen. Umso wichtiger ist eine technische und inhaltliche Weiterentwicklung der Vorhersagemodelle. Hier setzt das BMBF-Verbundforschungsprojekt „KIWaSuS“ an.

KIWaSuS steht für „KI-basiertes Warnsystem vor Starkregen und urbanen Sturzfluten“. Ziel des Projektes ist es, die Vorwarnzeiten vor Sturzfluten in den Städten signifikant zu erhöhen, diese besser zu lokalisieren und gleichzeitig wichtige Informationen für das kommunale Krisenmanagement bereitzustellen, um Bürger:innen besser zu schützen. Dazu soll eine intuitive, digitale Karte erstellt werden, die in Abhängigkeit des bevorstehenden Starkregenereignisses bereits Ort und Ausmaß der resultierenden Überflutung frühzeitig und zuverlässig darstellt. Damit können Akteure vor Ort sinnvoll unterstützt werden: Einsatzpläne für Feuerwehr, Katastrophenschutz und Kanalnetzbetreiber können so individuell an das Ereignis angepasst werden. Bürger können rechtzeitig gewarnt werden und eigene Schutzmaßnahmen einleiten.
Erschwerend in den Ruhrgebietsstädten kommt die Trennung ganzer Stadtteile durch Unterführungen aufgrund von zahlreichen Autobahnen und Bahntrassen hinzu. Vergangene Starkregenereignisse haben gezeigt, dass sich nicht nur Geländetiefpunkte wie Unterführungen zu Hindernissen entwickeln, sondern sich auch ganze Straßenzüge innerhalb kürzester Zeit in reißende Ströme verwandeln können. Der Bedarf für ein effizientes Echtzeitwarnsystem ist nicht auf Gelsenkirchen begrenzt, sondern deutschlandweit gegeben.

Im Projekt KIWaSuS soll ‚Künstliche Intelligenz‘ (KI) als zentrales Element eingesetzt werden. Dabei handelt es sich um eine Technik, die normalerweise eher in modernen Smartphones, Autos oder Sprachassistenten zur Mustererkennung in Bildern und Sprache eingesetzt wird. In KIWaSuS soll KI dazu eingesetzt werden, Zusammenhänge und Muster bei der Entstehung von Starkregenzellen zu erlernen, um künftig die zeitliche und räumliche Entwicklung von Starkregenzellen besser vorhersagen zu können. Andererseits soll KI verwendet werden, um das Verhältnis zwischen Niederschlag und dem daraus resultierenden Abfluss zu erlernen. So sollen Überlastungen des Kanalnetzes und Überschwemmungen besser zu beschreiben sein.

Voraussetzung für den effizienten Einsatz von KI ist ein intensiver Trainingsprozess, der eine große Datenbasis benötigt. Die Daten werden aus verschiedenen Quellen erhoben: Für den Niederschlag werden Messdaten durch die Kommunen und Wasserverbände bereits seit mehreren Jahrzehnten erfasst. Für den niederschlagsbedingten Abfluss hingegen liegen derzeit kaum Daten vor. Hier werden physikalisch basierte Abflussmodelle genutzt, um künstliche Trainingsdaten zu generieren. Darüber hinaus soll ein innovatives Sensorsystem zur Nachverdichtung bzw. Ergänzung der Datenbasis errichtet werden. Sämtliche Datenströme sollen in einer zentralen Datenplattform zusammengefügt und durch entsprechende Transformationsprozesse in ein ML-geeignetes Format gebracht und für die Vorhersagemodelle zur Verfügung gestellt werden.

Beteiligt an diesem Verbundprojekt sind die Unternehmen neusta sd west, Gelsenwasser AG, Abwassergesellschaft Gelsenkirchen, das Institut Wasserbau- und Wasserwirtschaft der Universität Duisburg-Essen und die Institute Bauingenieurwesen sowie Mess- und Sensortechnik der Hochschule Ruhr West. Konsortialführer ist Prof. Dr. Markus Quirmbach vom Institut Bauingenieurwesen. Anforderungen und Daten liefern die Feuerwehr Gelsenkirchen, das Landesamt für Natur, Umwelt und Verbraucherschutz und die Emschergenossenschaft. Das Projekt startete im April 2021 und läuft bis März 2024. Gefördert wird das Projekt mit ca. 1,5 Mio. Euro aus der BMBF Förderrichtlinie: „Künstliche Intelligenz in der zivilen Sicherheitsforschung“ im Programm „Forschung für die zivile Sicherheit 2018 bis 2023“.

Wissenschaftliche Ansprechpartner:
Hochschule Ruhr West | Institut Bauingenieurwesen
Prof. Dr. Markus Quirmbach
Telefon: 0208/ 882 54 463
E-Mail: markus.quirmbach@hs-ruhrwest.de

Weitere Informationen:
https://www.hochschule-ruhr-west.de/forschung/forschung-in-den-instituten/instit…

(nach oben)


Von Gewittern über Starkregen bis Dürreperioden

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Extremes Wetter wie starke Gewitter, Hagel oder Hitze haben in den letzten Jahren auch in Deutschland zugenommen und verursachen teils große wirtschaftliche und infrastrukturelle Schäden. Die komplexen physikalischen Prozesse, die beim Entstehen dieser Wetterereignisse ablaufen, untersucht die Helmholtz-Initiative MOSES, an der das Karlsruher Institut für Technologie (KIT) beteiligt ist. Ziel der nun startenden und vom KIT koordinierten Messkampagne „Swabian MOSES“ ist es, die Ursachen, Auswirkungen und Wechselwirkungen hydro-meteorologischer Extreme ganzheitlich zu untersuchen. Im Untersuchungsgebiet in Baden-Württemberg treten sowohl Gewitter als auch Hitze- und Dürreperioden häufig auf.

Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2021_041_von-gewittern-uber-starkregen-bis-durreperio…

Um die Auswirkungen meteorologischer und hydrologischer Extreme auf die langfristige Entwicklung von Erd- und Umweltsystemen zu untersuchen, bauen neun Forschungszentren der Helmholtz-Gemeinschaft das mobile und modular einsatzfähige Beobachtungssystem MOSES (Modular Observation Solutions for Earth Systems) auf, das bis 2022 vollständig einsatzfähig sein soll. Testkampagnen sind ein wichtiger Teil dieser Aufbauarbeit, denn es gilt die neuen Messsysteme im mobilen Einsatz zu prüfen, weiterzuentwickeln und aufeinander abzustimmen. Zwei dieser Kampagnen zu unterschiedlichen Fragen und in unterschiedlichen Untersuchungsgebieten sind bislang für das Jahr 2021 geplant – im Bereich der Schwäbischen Alb und auf der Elbe.

Im Mai startet die Messkampagne „Swabian MOSES“ im Bereich der Schwäbischen Alb und des Neckartals in Baden-Württemberg, die voraussichtlich bis Mitte September läuft und vom KIT koordiniert wird. In deren Mittelpunkt stehen zwei hydro-meteorologische Extreme – Trockenheit und Starkniederschlag. So führte die Häufung von mehrwöchigen Trockenperioden in den Jahren 2018 bis 2020 dazu, dass im letzten Jahr der Grundwasserspiegel auf einen historischen Niedrigstand sank und viele Flüsse ein ausgeprägtes Niedrigwasser führten – mit erheblichen Einschränkungen für Schifffahrt, Bewässerung und Kraftwerkskühlung.

„Aufgrund ihrer komplexen Topographie und geographischen Lage ist die Untersuchungsregion besonders häufig auch von schweren Gewitterereignissen betroffen“, sagt Professor Michael Kunz vom Institut für Meteorologie und Klimaforschung – Department Troposphärenforschung (IMK-TRO), einer der Koordinatoren des Projekts. „Ein Hagelsturm genau in unserem Untersuchungsgebiet im Juli 2013 beispielsweise, bei dem Hagelkörner mit einem Durchmesser von bis zu 10 Zentimetern beobachtet wurden, verursachte Schäden von etwa einer Milliarde Euro.“ Die mit Gewittern einhergehenden Starkniederschläge können zudem lokale Sturzfluten an Hanglagen oder in flächenversiegelten urbanen Bereichen verursachen, die nicht nur zu erheblichen Schäden, sondern auch zu einem massiven Sediment- und Schadstofftransport in Gewässern führen.

Mit verschiedenen Messsystemen beteiligt sind neben dem federführenden Institut für Meteorologie und Klimaforschung (IMK) des KIT auch das Helmholtz Zentrum für Umweltforschung (UFZ) aus Leipzig, das Forschungszentrum Jülich (FZJ), die Universität Hohenheim, die Eberhard Karls Universität Tübingen, die Technische Universität Braunschweig, das Helmholtz Zentrum Potsdam – Deutsches GeoForschungsZentrum (GFZ), das Deutsche Zentrum für Luft- und Raumfahrt (DLR) sowie der Deutsche Wetterdienst (DWD).

Auswirkungen von Gewittern auf Atmosphäre, Klima und Ökosysteme
Das KIT setzt sein mobiles Observatorium KITcube ein. „Der KITcube liefert detaillierte Informationen über den Zustand der Atmosphäre bei der Entstehung und Entwicklung von Gewittern, dem ersten Schwerpunkt der Messkampagne“, so Dr. Andreas Wieser, wissenschaftlicher Direktor des KITcube. „Dies gelingt durch die Kombination modernster Fernerkundungsgeräte und einer Vielzahl im Messgebiet verteilter lokaler Messsysteme.“ Dazu zählen unter anderem ein hochmodernes Wolkenradar, ein Niederschlagsradar, ein Netzwerk aus Lidaren, mit denen atmosphärische Luftströmungen mithilfe von Lasern erfasst werden können, Wetterballons und Wetterstationen. Eine neuartige mobile Wolkenkammer des KIT misst die Menge an eisbildenden Partikeln, die in Gewitterwolken für die Niederschlags- und Hagelbildung mitverantwortlich sind. Erstmalig erprobt das KIT zudem kleine Schwarmsonden, die innerhalb einer Gewitterwolke die Windverhältnisse und damit auch die Bahnen von Hagelkörnern nachbilden, um die Wachstumsprozesse der Niederschlagsteilchen, insbesondere von Hagel, besser zu verstehen.

Die Universität Hohenheim betreibt während der Kampagne am Land-Atmosphäre Feedback Observatorium (LAFO) ihr Netz aus Bodenfeuchte- und Energiebilanzstationen zur Messung von Energie-, Feuchte- und CO2-Flüssen in Bodennähe, sowie mehrere moderne Lidar-Fernerkundungsgeräte, die gleichzeitig die Verteilung der Luftfeuchtigkeit, der Temperatur und des Windes sowie deren Fluktuationen in der Atmosphäre messen.

Die Wissenschaftlerinnen und Wissenschaftler des Forschungszentrums Jülich lassen Ballonsonden bis in 35 Kilometer Höhe steigen, um unter anderem zu ermitteln, wie sich Gewitter langfristig auf das Klima auswirken. Der DWD führt am Standort Stuttgart-Schnarrenberg zusätzliche Ballonaufstiege durch, sodass Informationen über wichtige Wetterparameter im Vorfeld von Gewittern gewonnen werden. Zwei Forschungsflugzeuge der Technischen Universität Braunschweig sammeln Daten in Gewitternähe während drei Wochen im Juni und Juli. An Bord integrierte Messgeräte erlauben die Bestimmung von Energie- und Feuchteflüssen innerhalb der Atmosphäre. Eingebaut ist zudem ein vom KIT entwickeltes Lidar, das vertikale Windprofile entlang der Flugstrecke erfasst, welche Rückschlüsse auf die Strömung in den Entstehungsgebieten von Gewittern ermöglichen.

Den Einfluss von Starkregen und Überflutungen auf die Stofffrachten von Fließgewässern untersuchen Forschende der Universität Tübingen und des UFZ. Ein besonderer Schwerpunkt liegt dabei auf den gelösten und partikelgebundenen Schadstoffen, die durch Starkregen aus verschiedenen Quellen in Gewässer gelangen, und der daraus resultierenden Toxizität für das aquatische Ökosystem. Ziel der Untersuchungen ist die Erfassung der Stoffeintragspfade in hydrologisch verschiedenen Einzugsgebieten, welche sich in Landnutzung und Urbanisierungsgrad unterscheiden, sowie die Erfassung der Wasserqualität. Ein Teil der Proben wird am UFZ auf organische Schadstoffe und deren Mischungstoxizität untersucht. In Zusammenarbeit mit dem KIT untersuchen die Forschenden zudem den Austausch von Treibhausgasen zwischen Fließgewässern und der Atmosphäre.

Entwicklung von Hitze- und Dürreperioden in der Region
Um die Auswirkungen von Hitze- und Dürrestress auf landwirtschaftliche Flächen der Schwäbischen Alb zu erfassen, werden seitens des KIT an mehreren Standorten Messstationen errichtet, die den Energie- und Stoffaustausch zwischen den betroffenen Ökosystemen und der Atmosphäre quantifizieren. Das GFZ ergänzt diese Messungen aus der Luft über entsprechende an Drohnen befestigte Sensoren. Zusätzlich installiert das KIT mehrere Aerosolmessgeräte, um Zusammenhänge zwischen deren Verteilung und Hitze- und Dürreperioden zu erforschen.

Die Wissenschaftlerinnen und Wissenschaftler des UFZ untersuchen die Dynamik der Bodenfeuchte als eine zentrale Steuergröße für den Abfluss des Regenwassers sowie für die Dürreentwicklung. Dazu installiert das UFZ während der Messkampagne mobile, drahtlose Sensornetzwerke, welche die Bodenfeuchte und -temperatur in verschiedenen Tiefen messen. Um großräumige Variationen der Bodenfeuchte zu beobachten, kommt zusätzlich ein Geländefahrzeug mit speziell entwickelten Neutronensensoren (Cosmic Ray Rover) zum Einsatz. Das DLR erfasst die oberflächennahe Bodenfeuchte zusätzlich mit Radar-Flugzeugmessungen. Die Forschenden setzen hierfür innovative Abbildungsverfahren ein und erproben neue Algorithmen. Um in den Boden einzudringen, verwenden sie langwellige elektromagnetische Wellen, die abhängig von der Bodenfeuchte und der Vegetation ein charakteristisches Signal abbilden. Die Ergebnisse dienen auch dem Vergleich der verschiedenen Messmethoden im Hinblick auf ihre Genauigkeit. (jwi-uwe)

Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Weitere Informationen:
https://www.swabianmoses.de/ Swabian MOSES
http://www.moses-helmholtz.de MOSES allgemein
https://www.ufz.de/newsletter/ufz/Dezember2019/index.html#0 MOSES – zur rechten Zeit am rechten Ort
https://www.klima-umwelt.kit.edu/index.php Details zum KIT-Zentrum Klima und Umwelt

(nach oben)


Fehler am Anfang des Lebens

Dr. Carmen Rotte Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für biophysikalische Chemie
Statistisch führt bei Frauen nur jede dritte Befruchtung zu einer erfolgreichen Schwangerschaft. Viele Embryonen überstehen die frühe Entwicklungsphase nicht. Forschende am Göttinger Max-Planck-Institut (MPI) für biophysikalische Chemie haben nun mit Kolleginnen und Kollegen am Friedrich-Loeffler-Institut, Institut für Nutztiergenetik in Mariensee und weiteren internationalen Teams ein neues Modellsystem entwickelt, mit dem sich die frühe embryonale Entwicklung untersuchen lässt. So fanden sie heraus, dass schon bei der Vereinigung des elterlichen Erbguts unmittelbar nach der Befruchtung häufig Fehler passieren. Dahinter steckt ein bemerkenswert ineffizienter Prozess.

Menschliche Körperzellen besitzen in der Regel 46 Chromosomen, die Träger der Erbinformation. 23 erhält jeder Mensch mit dem Spermium vom Vater, 23 mit der Eizelle von der Mutter. Nach der Befruchtung liegen die elterlichen Chromosomen in der Eizelle zunächst in zwei getrennten Zellkernen vor, die man als Vorkerne bezeichnet. Diese bewegen sich langsam aufeinander zu, bis sie sich berühren. Danach löst sich die Hülle der Vorkerne auf, die elterlichen Chromosomen vereinigen sich. Soweit die Theorie.

Die überwiegende Zahl menschlicher Embryonen erhält allerdings eine falsche Zahl an Chromosomen. Diese Embryonen sind meistens nicht überlebensfähig. Damit ist eine fehlerhafte Chromosomenverteilung ein Hauptgrund für Fehlgeburten und Unfruchtbarkeit.

„Bei etwa 10 bis 20 Prozent der Embryonen, die eine fehlerhafte Chromosomenzahl aufweisen, bringt bereits die Eizelle zu wenige oder zu viele Chromosomen mit. Das war uns schon bekannt“, erläutert Melina Schuh, Direktorin am MPI für biophysikalische Chemie. „Wieso aber tritt das Problem bei noch viel mehr Embryonen auf? Die Zeit direkt nach der Vereinigung von Spermium und Eizelle – das sogenannte Zygoten-Stadium – schien eine extrem kritische Phase für die Entwicklung eines Embryos zu sein. Wir wollten herausfinden, warum das so ist.“

Erkenntnisse aus einem neuen Modellsystem
Für ihre Untersuchungen werteten die Wissenschaftlerinnen und Wissenschaftler zum einen Mikroskopie-Videos menschlicher Zygoten aus, die ein Labor in England aufgenommen hatte. Zum anderen machten sie sich auf die Suche nach einem neuen Modellorganismus, mit dem sich die frühe Embryonalentwicklung detailliert untersuchen lässt. „Wir haben gemeinsam mit unseren Kooperationspartnern am Institut für Nutztiergenetik ein System in Rinder-Embryonen entwickelt, da deren frühe Entwicklung der menschlichen stark ähnelt“, erläutert Tommaso Cavazza, Wissenschaftler in Schuhs Abteilung. „Der zeitliche Ablauf der ersten Zellteilungen ist beispielsweise vergleichbar, außerdem verteilen sich Chromosomen in Rinder-Embryonen etwa ebenso häufig fehlerhaft wie in menschlichen Embryonen.“ Ein weiterer Vorteil: Die Eizellen, aus denen sich die Rinder-Embryonen entwickelten, erhielten die Wissenschaftler aus Schlachtabfällen. Für das neue Modellsystem müssen also nicht eigens Tiere geopfert werden.

Schuhs Team befruchtete die Rinder-Eizellen im Reagenzglas und verfolgte anschließend mittels Lebend-Zell-Mikroskopie, wie sich das elterliche Erbgut vereint. Wie sie herausfanden, versammeln sich die elterlichen Chromosomen an der Grenzfläche der beiden Vorkerne. Bei manchen Zygoten beobachteten die Forschenden allerdings, dass einzelne Chromosomen aus der Reihe tanzten. In der Folge gingen diese bei der Vereinigung des Erbguts quasi verloren, sodass die entstehenden Kerne zu wenige Chromosomen besaßen. Diese Zygoten zeigten bald Entwicklungsdefekte.

„Das Ansammeln der Chromosomen an der Vorkern-Grenzfläche scheint ein extrem wichtiger Schritt zu sein“, erklärt Cavazza. „Denn wenn es nicht klappt, passieren in der Zygote folgenschwere Fehler.“

Abhängig von einem ineffizienten Prozess
Doch wie kommt es, dass sich die Chromosomen oft nicht korrekt versammeln? Auch das konnten die Max-Planck-Forschenden aufdecken, wie Cavazza berichtet: „Bestandteile des Zellskeletts und der Kernhülle orchestrieren, wohin sich die Chromosomen innerhalb der Vorkerne bewegen. Interessanterweise sind das dieselben Elemente, die auch dafür sorgen, dass sich die beiden Vorkerne aufeinander zu bewegen. Wir haben es also mit zwei eng verknüpften Vorgängen zu tun, die lebenswichtig sind, aber häufig fehlerhaft ablaufen. Dass sich ein Embryo gesund entwickelt, hängt damit von einem bemerkenswert ineffizienten Prozess ab.“

Die Ergebnisse der Wissenschaftlerinnen und Wissenschaftler sind auch für die künstliche Befruchtung beim Menschen relevant. Hier diskutiert man schon länger, ob die Ansammlung der sogenannten Kernkörperchen an der Vorkern-Grenzfläche als Indikator für die Chance auf eine erfolgreiche Befruchtung nutzen sollte: Zygoten, bei denen sich diese Bestandteile der Vorkerne allesamt an der Grenzfläche sammeln, haben bessere Entwicklungschancen und könnten bevorzugt für eine Kinderwunschbehandlung verwendet werden. „Unsere Beobachtung, dass sich auch die Chromosomen an der Grenzfläche sammeln müssen, um eine gesunde Entwicklung des Embryos zu garantieren, stützt dieses Auswahlkriterium“, so Schuh.

Wissenschaftliche Ansprechpartner:
Dr. Melina Schuh, Abteilung Meiose
Max-Planck-Institut für biophysikalische Chemie
Tel.: 0551 201-26000
E-Mail: melina.schuh@mpibpc.mpg.de

Originalpublikation:
Cavazza T, Takeda Y, Politi AZ, Aushev M, Aldag P, Baker C, Choudhary M, Bucevičius J, Lukinavičius G, Elder K, Blayney M, Lucas-Hahn A, Niemann H, Herbert M, Schuh M: Parental genome unification is highly error-prone in mammalian embryos. Cell (2021).
https://doi.org/10.1016/j.cell.2021.04.013

Weitere Informationen:
https://www.mpibpc.mpg.de/17816775/pr_2112 – Original-Pressemitteilung
https://www.mpibpc.mpg.de/de/mschuh – Webseite der Abteilung Meiose, Max-Planck-Institut für biophysikalische Chemie

(nach oben)


Schadstoffabbau und Treibhausgas-Verringerung: Neue Studie zur Funktionsweise aquatischer Ökosysteme

Christian Wißler Pressestelle
Universität Bayreuth
Die Funktionen wassergeprägter Ökosysteme können durch hydrologische Schwankungen erheblich beeinflusst und verändert werden. Von entscheidender Bedeutung sind dabei die variierenden Zustände redoxaktiver Substanzen. Dies haben Forscher*innen der Universität Bayreuth in Kooperation mit Partnern an den Universitäten Tübingen und Bristol sowie am Umweltforschungszentrum Halle-Leipzig herausgefunden. In der Zeitschrift „Nature Geoscience“ stellen sie ihre Entdeckung vor. Die neue Studie ermöglicht ein genaueres Verständnis biogeochemischer Prozesse, die zum Abbau von Schadstoffen und zur Verringerung von Treibhausgas-Emissionen beitragen.

Die Entstehung von Treibhausgasen zu verringern, Kohlenstoff zu speichern, Umweltschadstoffe wie Nitrat zu beseitigen und qualitativ hochwertiges Trinkwasser zu liefern – dies sind wichtige Dienstleistungen von Ökosystemen, die vom Wasser geprägt sind, wie beispielsweise Seen, Bäche, Sumpf- und Moorlandschaften. Die Funktionen solcher aquatischer Ökosysteme sind eng mit den Kreisläufen von Sauerstoff, Stickstoff, Kohlenstoff und anderen Elementen in der Natur verknüpft. Seit langem ist bekannt, dass es sich bei den Elementkreisläufen um vernetzte biogeochemische Vorgänge handelt, die von hydrologischen Schwankungen erheblich beeinflusst werden können. Beispiele hierfür sind Schwankungen des Wasserspiegels in Feuchtgebieten, Mooren und im Grundwasser oder veränderte Strömungsrichtungen des Grundwassers.

Dem von Prof: Dr. Stefan Peiffer an der Universität Bayreuth geleiteten Forschungsteam ist es nun gelungen, die Abhängigkeit der Elementkreisläufe von hydrologischen Fluktuationen genauer zu verstehen. Wie sich in zahlreichen Laborstudien herausgestellt hat, haben redoxaktive Substanzen dabei eine Schlüsselfunktion. „Wer einmal durch einen Sumpf gestapft ist oder an einem Badesee im Sand gewühlt hat, dem sind diese Substanzen aufgrund ihrer Farbenvielfalt aufgefallen. Auf engstem Raum wechseln sich Farbtöne ab, die von tiefschwarz über grau und braun bis zu hellrot reichen. Dahinter verbirgt sich ein Wechselspiel von mikrobiologischen und chemischen Vorgängen, bei denen Elektronen übertragen werden. Wir bezeichnen sie in der Forschung als Redoxreaktionen“, sagt Peiffer.

Eine vergleichsweise einfache Form von Redoxreaktionen ist die Atmung von Menschen und Tieren: Kohlenstoff wird dabei durch Sauerstoff zu Kohlendioxid oxidiert. Bei mikrobiell getriebenen Redoxreaktionen, die beispielsweise in einem Sumpf ablaufen, wird die Rolle des Sauerstoffs von einer Vielzahl redoxaktiver Substanzen übernommen – von Eisen-, Schwefel- und Manganverbindungen oder von Huminstoffen. Die Lebensdauer dieser Substanzen ist sehr kurz, aber sie zeigen eine sehr starke Tendenz, Redoxreaktionen einzugehen. Sie werden daher als „redoxaktive metastabile Phasen“ (RedoxActive Metastable Phases, RAMPs) bezeichnet. Aufgrund ihrer hohen Reaktionsbereitschaft haben RAMPs einen großen Anteil an den Elementkreisläufen in Ökosystemen: Sie sind beispielsweise in der Lage, Schadstoffe wie Nitrat oder verschiedene organische Chemikalien abzubauen.

Ein Grund für die kurze Lebensdauer von RAMPs ist ein ständiger Wechsel zwischen elektronenabgebenden und elektronenaufnehmenden Bedingungen. Die in „Nature Geoscience“ veröffentlichte Studie kommt nun zu einem für die Ökologie und Umweltforschung entscheidenden Ergebnis: Die Dynamik der Redoxreaktivität von RAMPs wird durch hydrologische Schwankungen ausgelöst, die an Uferzonen, in Feuchtgebieten, in staunassen Böden, in Reisböden oder an den Oberflächen von Sedimenten in Seen und Flüssen auftreten. Diese biogeochemischen Reaktionen im kleinen Maßstab beeinflussen wiederum die Reaktionen des Ökosystems im großen Maßstab, beispielsweise die Menge an Treibhausgasen, die an die Atmosphäre abgegeben werden. Damit wird erstmals verständlich, wie hydrologische Fluktuationen auf die Elementkreisläufe in der Natur und somit auf die Funktionen von Ökosystemen einwirken.

„Unsere Studie zeigt, dass biogeochemische Reaktionen im Maßstab von nur wenigen Mikrometern ein wichtiges Scharnier zwischen zwei großräumigen Vorgängen bilden: zwischen hydrologischen Schwankungen einerseits und Ökosystem-Funktionen andererseits. Unsere neuen Erkenntnisse werden daher in Zukunft helfen, den Schadstoffabbau in aquatischen Ökosystemen besser vorherzusagen. Auch die Folgen des Klimawandels für den Kohlenstoff- und Stickstoffumsatz in diesen Ökosystemen werden sich künftig genauer abschätzen lassen“, sagt Peiffer.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Peiffer
Direktor des Bayreuther Zentrums für Ökologie und Umweltforschung (BayCEER)
Lehrstuhl für Hydrologie
Universität Bayreuth
Telefon: +49 (0)921 55-2251
E-Mail: s.peiffer@uni-bayreuth.de

Originalpublikation:
S. Peiffer et al.: A biogeochemical–hydrological framework for the role of redox-active compounds in aquatic systems. Nature Geoscience (2021), DOI: https://dx.doi.org/10.1038/s41561-021-00742-z

(nach oben)


Beruflicher Erfolg beeinflusst die Persönlichkeit

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Eine Studie des Instituts für Psychologie der Universität Bern in Kooperation mit der Universität Gent ergibt, dass beruflicher Erfolg grundlegende Persönlichkeitseigenschaften verändern kann: Stiegen im Verlauf von acht Jahren das berufliche Prestige und Einkommen an, ging dies mit zunehmender emotionaler Stabilität und Offenheit für Erfahrungen sowie abnehmender Extraversion einher.

Persönlichkeitseigenschaften wurden in der wissenschaftlichen Psychologie lange Zeit als stabil angenommen. Die jüngere psychologische Forschung zeigt aber, dass sich die Persönlichkeit über die Lebensspanne verändert. Insbesondere können einschneidende Lebensereignisse (wie Scheidung, anhaltende Arbeitslosigkeit) oder wichtige soziale Rollen (wie Elternschaft, Art der Arbeitstätigkeit) die Persönlichkeitseigenschaften beeinflussen. Die aktuelle Studie unter der Leitung von Andreas Hirschi, Ordentlicher Professor für Arbeits- und Organisationspsychologie an der Universität Bern, untersuchte in diesem Zusammenhang den Einfluss des beruflichen Erfolgs auf die Persönlichkeit.

Forschungslücke geschlossen
Die bisherige Forschung zur beruflichen Laufbahn zeigte, dass bestimmte Persönlichkeits-eigenschaften wie emotionale Stabilität oder Gewissenhaftigkeit eine erfolgreiche Karriere begünstigen. Jedoch gab es bisher kaum Forschung dazu, ob beruflicher Erfolg umgekehrt auch zu Veränderungen in der Persönlichkeit führen kann.

Um diese Frage zu beantworten, analysierte die aktuelle Studie repräsentative Daten aus Deutschland von über 4’700 berufstätigen Erwachsenen, welche über einen Zeitraum von acht Jahren dreimal zu Berufserfolg und Persönlichkeit befragt wurden. Berufserfolg wurde anhand des erreichten beruflichen Prestiges der aktuellen Tätigkeit und des erzielten Einkommens gemessen. Die Persönlichkeit wurde anhand der grundlegenden Persönlichkeitseigenschaften Emotionale Stabilität, Extraversion, Offenheit für Erfahrungen, Verträglichkeit und Gewissenhaftigkeit erfasst – den «Big Five» in der Persönlichkeitspsychologie. Die Studie wurde vom Schweizerischen Nationalfonds unterstützt und im Journal of Vocational Behavior publiziert, der weltweit führenden wissenschaftlichen Zeitschrift für Laufbahnforschung. Der Erstautor Prof. Andreas Hirschi ist ein ausgewiesener Experte für Laufbahnforschung; er wurde für seine Beitrage auf diesem Gebiet 2020 mit dem «Mid-Career Award» der Careers Division der Academy of Management ausgezeichnet, dem weltweit führenden Berufsverband für Management- und Organisationswissenschaftlerinnen und -wissenschaftler. Prof. Filip De Fruyt von der Universität Gent wurde als Experte für Persönlichkeitsforschung ins Forschungsteam geholt.

Kleine Änderungen mit vielleicht grosser Wirkung
«Die Analysen zeigten, dass beruflich erfolgreichere Personen über die Zeit emotional stabiler und offener für Erfahrungen, aber weniger extravertiert wurden. Der Berufserfolg ging also einher mit mehr emotionaler Entspanntheit, besserem Umgang mit Stress und weniger Sorgenmachen», sagt Andreas Hirschi, Erstautor der Studie. Zudem wurden beruflich erfolgreichere Personen mit der Zeit offener im Denken und aktiver in ihrer Vorstellungskraft. Zugleich wurden sie distanzierter sowie weniger gesprächig und gesellig.

Es wurden keine Unterschiede zwischen Männern und Frauen oder Altersgruppen gefunden. Einschränkend muss festgehalten werden, dass die gefundenen Effekte relativ klein waren, die Veränderungen über den untersuchten Zeitraum also nicht sehr gross ausfielen. Jedoch könnten auch relativ kleine Veränderungen in den grundlegenden Persönlichkeitseigenschaften einen bedeutsamen langfristigen Effekt auf das Leben eines Menschen haben. So zeigt die Forschung zum Beispiel, dass Personen mit grösser emotionaler Stabilität eine geringere Sterblichkeitswahrscheinlichkeit aufweisen. «Die Ergebnisse unserer Studie sind besonders aussagekräftig, weil sie auf einer grossen bevölkerungsrepräsentativen Stichprobe beruhen, die über einen relativ langen Zeitraum begleitet wurde», fügt Co-Autor Ulrich Orth hinzu. Orth ist Ausserordentlicher Professor für Entwicklungspsychologie an der Universität Bern und hat für seine Forschung im Bereich Selbstwert- und Persönlichkeitsentwicklung den Mid-Career Award 2020 der European Association of Personality Psychology erhalten.

Neue Perspektive auf die Rolle von Erfolg im Leben
«Die Studie illustriert, dass Persönlichkeitseigenschaften nicht nur den Berufserfolg bestimmen, sondern Erfolg auch die Persönlichkeit verändern kann. Das gibt eine neue Perspektive auf die Rolle von Erfolg im Leben», fasst Andreas Hirschi die Ergebnisse der Studie zusammen.

Die Studie leiste somit einen wichtigen Beitrag zur Laufbahnforschung und Erforschung von Laufbahnerfolg. Sie zeige zudem, dass die Persönlichkeit über die Lebensspanne veränderbar ist und durch wichtige Lebenserfahrungen wie beruflichen Erfolg geprägt und verändert werden kann.

Abteilung Arbeits- und Organisationspsychologie am Institut für Psychologie
Die Abteilung Arbeits- und Organisationspsychologie befasst sich mit Arbeit und Berufstätigkeit als zentrale Lebensbereiche. Im Zentrum von Forschung und Lehre steht, wie Arbeitserfahrungen positiv und sinnhaft über die Lebensspanne gestaltet werden können. Themen sind die erfolgreiche Laufbahnentwicklung über die Lebensspanne, Berufswahl und Laufbahnberatung, Arbeit und Gesundheit sowie Arbeit und Sicherheit. Die Abteilung gehört zu den international renommiertesten Institutionen in der Laufbahnforschung.

Wissenschaftliche Ansprechpartner:
PROF. DR. ANDREAS HIRSCHI
Institut für Psychologie, Abteilung Arbeits- und Organisationspsychologie, Universität Bern
Telefon: +41 31 631 40 45 (Sekretariat)
E-Mail-Adresse: andreas.hirschi@psy.unibe.ch

Originalpublikation:
Hirschi, A., Johnston, C. S., De Fruyt, F., Ghetta, A., & Orth, U. (2021). Does success change people? Examining objective career success as a precursor for personality development. Journal of Vocational Behavior, 103582. https://doi.org/10.1016/j.jvb.2021.103582

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2021/medi…

Anhang
Medienmitteilung als PDF

(nach oben)


Mehr Widerstandskraft für die Schweizer Energieversorgung

Dr. Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
Heute startet das neue Forschungsprojekt SURE (SUstainable and Resilient Energy for Switzerland). In den nächsten sechs Jahren untersuchen Forschende aus zehn Institutionen unter Federführung des Paul Scherrer Instituts PSI, wie die Energieversorgung in der Schweiz in den kommenden Jahrzehnten möglichst nachhaltig und störungsfrei erfolgen kann.

Am 8. Januar dieses Jahres kam es im Europäischen Stromnetz zu einem Zwischenfall, der zu einem Blackout in Europa hätte führen können. Nur durch gemeinsame Anstrengungen aller Stromnetzbetreiber und gezielte Abschaltung von Verbrauchern in Frankreich und Italien konnte ein flächendeckender Zusammenbruch der Stromversorgung verhindert werden. Ursache für das beinahe eingetretene Unglück: Im europäischen Übertragungsnetz kam es aufgrund von Ausfällen mehrerer Netzbetriebsmittel innerhalb kurzer Zeit zu einer Entkopplung von Teilnetzgebieten, die etwa eine Stunde dauerte.

Dies, wie auch andere frühere Vorfälle, zeigt: Selbst in hoch entwickelten Ländern kann es zu schweren Störungen der Energieversorgung kommen. Dabei ist die Energiewirtschaft im Umbruch. Die Schweiz hat mit der Energiestrategie 2050 einen schrittweisen Ausstieg aus der Kernenergie beschlossen bei gleichzeitiger Erhöhung der Energieeffizienz und Ausbau der erneuerbaren Energien. Zudem möchte das Land ab 2050 unter dem Strich keine Treibhausgase mehr ausstossen.

Was aber, wenn es wieder zu einem technischen Ausfall oder zu politischen oder ökonomischen Schocks kommt? Diese Frage stellen sich zehn Institutionen im Forschungsprojekt SURE (SUstainable and Resilient Energy for Switzerland), das mit sechs Millionen Schweizer Franken gefördert wird. Es ist eines von vier Projekten in der ersten Ausschreibung des neuen Förderprogramms SWEET (SWiss Energy research for the Energy Transition) des Bundesamtes für Energie.

Die Forschenden untersuchen in den kommenden sechs Jahren ausgewählte Ereignisse, die das Schweizer Energiesystem der Zukunft beeinflussen könnten, und wie man die Versorgung so gestaltet, dass sie möglichst widerstandsfähig und anpassungsfähig sowie nachhaltig ist. «Neben Nachhaltigkeit sind Versorgungssicherheit und Unabhängigkeit zentrale Themen für die Schweizer Energieversorgung», sagt Tom Kober, Leiter der Gruppe Energiewirtschaft im Labor für Energiesystemanalysen am Paul Scherrer Institut PSI und Koordinator von SURE.

Nicht nur Katastrophen sind entscheidend
Schocks – Tom Kober spricht lieber von „disruptiven Ereignissen“ – können ganz unterschiedliche Ursachen haben. So könnten wichtige Energieinfrastrukturen aufgrund technischer oder energiepolitischer Einschränkungen nicht voll verfügbar sein oder extreme Wettererscheinungen die Stromproduktion in der Schweiz zumindest zeitweise substanziell beeinträchtigen.

Doch nicht immer sind es Katastrophen, die die Energieversorgung einschränken. Infrastrukturprojekte im Energiebereich – Beispiele hierfür sind Wasserkraftwerke, tiefengeothermische Anlagen und grosse Photovoltaikanlagen – machen es immer wieder deutlich: Auch die Akzeptanz der Bevölkerung oder regulatorische Rahmenbedingungen und die Ausgestaltung von Förderinstrumenten sind entscheidend, wenn sich eine Technologie durchsetzen soll. Auch diese Aspekte spielen deshalb für die Resilienz des zukünftigen Energiesystems eine wichtige Rolle.

Deshalb ist in SURE von Beginn an ein enger Austausch mit 16 Partnern aus der Praxis vorgesehen, darunter Kommunen, Energieversorger und Politik. Drei Fallstudien – im Tessin, in Zürich und im Raum Basel – sollen unterschiedliche Aspekte vertiefen, in Basel etwa die Nachhaltigkeit und Resilienz der Energieversorgung für die dort angesiedelte Industrie. Gemeinsam veranstalten die Partner regelmässige Workshops, bei denen Forschungsziele und Bedürfnisse der Praktiker aufeinander abgestimmt und strategische Instrumente für die Unterstützung von Entscheidungsträgern entwickelt werden.

Geplant ist unter anderem eine Online-Plattform, die einem breiten Publikum helfen soll, die Abhängigkeiten der verschiedenen Dimensionen von Nachhaltigkeit und Resilienz zu verstehen und die Zielkonflikte zwischen konkurrierenden Massnahmen einer nachhaltigen und resilienten Transformation des Energiesektors aufzuzeigen. SURE strebt an, mit Empfehlungen und Richtlinien politische Entscheidungsträger, Technologieentwickler und Unternehmen bei der Gestaltung ihrer jeweiligen Strategien für eine nachhaltigere und widerstandsfähigere Energiezukunft zu unterstützen.

Neuland mit ganzheitlichen Modellansätzen
Mit SURE betreten die Forschungspartner wissenschaftliches Neuland. Zwar hat die Modellierung von Energieszenarien im Computer lange Tradition, unter anderem war dies Thema von Projekten im Förderprogramm SCCER (Swiss Competence Centers for Energy Research), das im vergangenen Jahr ausgelaufen ist. Aber diese Art von weit in die Zukunft reichenden Schockszenarien ­– bis 2035 oder sogar bis 2050 – kombiniert mit einem breit auf Indikatoren gestützten Analyseansatz gibt es für die Schweiz noch nicht. Und noch nie waren die Rechenmodelle für so unterschiedliche Aspekte wie Infrastruktur, erneuerbare Energien, Energieeffizienz, Nachhaltigkeit, Versorgungssicherheit und Wirtschaftlichkeit eng zu einem systemischen Ansatz miteinander gekoppelt. «Das ist ein Novum und dafür wollen wir unsere quantitativen Modelle und Indikatoren weiterentwickeln», sagt Tom Kober. SURE kooperiert dazu auch eng mit den drei anderen SWEET-Projekten, die sich mit Innovationen auf dem Gebiet der erneuerbaren Energien zur Umsetzung der Energiestrategie 2050 beschäftigen.

In SWEET haben sich neun renommierte Forschungsinstitutionen der Schweiz zusammengefunden, darunter die ETH Zürich und die EPFL in Lausanne sowie als einziger ausländischer Partner das Beratungsunternehmen E3-Modelling in Athen, das international bekannt ist für seine Modelle für techno-ökonomische Zusammenhänge auf europäischer und weltweiter Ebene.

Das Konsortium des SURE-Projektes umfasst folgende Forschungspartner, die durch das SWEET-Programm des Bundesamtes für Energie gefördert werden:

– Paul Scherrer Institut
– Eidgenössische Technische Hochschule Zürich
– École polytechnique fédérale de Lausanne
– Università della Svizzera italiana
– TEP Energy GmbH
– University of Applied Sciences and Arts of Southern Switzerland
– Universität Bern
– Université de Genève
– Zürcher Hochschule für Angewandte Wissenschaften
– E3-Modelling S.A

Text: Bernd Müller

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 400 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.

Wissenschaftliche Ansprechpartner:
Dr. Tom Kober
Leiter der Gruppe Energiewirtschaft
Labor für Energiesystemanalysen
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 26 31
E-Mail: tom.kober@psi.ch [Deutsch, Englisch]

Weitere Informationen:
http://psi.ch/node/45019 – Darstellung der Mitteilung auf der Webseite des PSI und Bildmaterial
https://www.bfe.admin.ch/bfe/de/home/forschung-und-cleantech/foerderprogramm-swe… – Förderprogramm SWEET

(nach oben)


Ausgezeichnete Klimaaktivitäten als Blaupause für Kommunen

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik
Online-Publikation und Videoclips über erfolgreiche Klimaschutz-Projekte in Kommunen laden zum Nachmachen ein.

Klimaschutz und Maßnahmen zur Anpassung an den Klimawandel sind vielfältig. Die neue Online-Publikation „Ausgezeichnete Praxisbeispiele“ zeigt eine breite Palette erfolgreicher Projekte des Wettbewerbs „Klimaaktive Kommune 2020“ – vom Strombilanzkreismodell bis zum Einsatz einer neuen, klimarobusten Energie-Pflanze. Die Beispiele aus zehn ausgezeichneten Kommunen zeigen, wie es gehen kann.

Die Städte Aalen, Bremerhaven, Dresden, Geisa, München und Osnabrück sowie der Main-Taunus-Kreis, der Rems-Murr-Kreis, der Kreis Steinfurt und der Landkreis St. Wendel haben mit ihren vorbildlichen Projekten beim Wettbewerb „Klimaaktive Kommune 2020“ gewonnen. In den Bereichen Ressourcen- und Energieeffizienz, Klimaanpassung, Klimaaktivitäten zum Mitmachen und gemeinsame Aktivitäten von Jugend und Kommune bieten sie damit vielen anderen Kommunen gute Ideen und damit Blaupausen. Nachfragen zur Umsetzung sind ausdrücklich erwünscht – zu jedem Projekt ist eine Kontaktperson genannt.

Die Publikation kann kostenfrei als PDF heruntergeladen werden: https://difu.de/16593

#Klimaschutzbraucht – Motivation und Vorbilder auch in kurzen Videoclips
Die Kurzfilm-Reihe #Klimaschutzbraucht… gibt Kommunen weitere Impulse, um eigene Klimaaktivitäten anzugehen, zu verstärken und voranzutreiben. Das kann zu weiteren Maßnahmen für den kommunalen Klimaschutz motivieren. Die inhaltliche Bandbreite der Filme reicht vom Thema Klimakommunikation „Stichwort Aufmerksamkeit“ über erneuerbare Energie- und Wärmegewinnung bis zu Ressourcenschutz und Klimaanpassung als wichtiges Pendant zum Klimaschutz.

Alle Filmclips sind unter https://klimaschutz.de/motivationsfilme zu finden.

Der Text ist selbstverständlich frei zur Weiternutzung. Über ein Belegexemplar/Beleglink an presse@difu.de würden wir uns sehr freuen.

Wissenschaftliche Ansprechpartner:
Anna Hogrewe-Fuchs
hogrewe-fuchs@difu.de
+49 221 340308-16

Ulrike Vorwerk
vorwerk@difu.de
+49 221 340308-17

Originalpublikation:
https://difu.de/16593

Weitere Informationen:
https://www.klimaschutz.de/motivationsfilme (Kurzfilme #Klimaschutzbraucht …)
http://difu.de/16596 (Pressemappe)

(nach oben)


Bioraffinerie am Bauernhof der Zukunft

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Eine Bioraffinerie-Farm errichten das Karlsruher Institut für Technologie (KIT) und die Universität Hohenheim. Mit ihrer gemeinsamen Initiative zielen sie auf wirtschaftliche und nachhaltige technische Lösungen zur Verwertung von biogenen Reststoffen: Kleine Bioraffinerien, angesiedelt an Bauernhöfen, liefern Materialien und Energieträger, schließen Kreisläufe vor Ort und tragen dazu bei, Natur und Klima zu schützen. An der Versuchsstation „Unterer Lindenhof“ der Universität Hohenheim bauen die Partner eine bestehende Bioraffinerie-Anlage aus und führen technologische Innovationen zusammen.

Eine Bioraffinerie-Farm errichten das Karlsruher Institut für Technologie (KIT) und die Universität Hohenheim. Mit ihrer gemeinsamen Initiative zielen sie auf wirtschaftliche und nachhaltige technische Lösungen zur Verwertung von biogenen Reststoffen: Kleine Bioraffinerien, angesiedelt an Bauernhöfen, liefern Materialien und Energieträger, schließen Kreisläufe vor Ort und tragen dazu bei, Natur und Klima zu schützen. An der Versuchsstation „Unterer Lindenhof“ der Universität Hohenheim bauen die Partner eine bestehende Bioraffinerie-Anlage aus und führen technologische Innovationen zusammen.

Auf dem Bauernhof der Zukunft entstehen neben herkömmlichen landwirtschaftlichen Produkten auch Basischemikalien aus pflanzlicher Biomasse. Die Basischemikalien dienen als Ausgangsstoffe für Kunststoffe und Kraftstoffe, die an anderer Stelle erzeugt werden. Reststoffe aus diesen Prozessen werden wiederum in einer Biogasanlage energetisch verwertet und landen als Dünger wieder auf dem Feld. Dies ist die Vision von Forschenden um Professorin Andrea Kruse vom Fachgebiet Konversionstechnologien nachwachsender Rohstoffe der Universität Hohenheim und Professor Nicolaus Dahmen vom Institut für Katalyseforschung und -technologie des KIT. Gemeinsam wollen sie eine Bioraffinerie-Farm errichten, die pflanzliche Reststoffe und Nebenprodukte der Landwirtschaft nutzt, um ohne Konkurrenz zur Nahrungsmittelproduktion eine breite Palette von Materialien und Energieträgern herzustellen.

„Werden verschiedene Prozesse effizient hintereinandergeschaltet, lässt sich Biomasse entlang der ganzen Wertschöpfungskette zu Lebensmitteln, Futtermitteln, Werkstoffen, Materialien, Chemikalien und Energie veredeln“, sagt Dahmen. Bioraffinerien überzeugen jedoch nicht nur durch die gleichzeitige Herstellung mehrerer Produkte, sondern tragen auch zum Schutz von Natur und Klima bei. „Wenn aus Biomasse Kunststoffe, neue Materialien oder Kraftstoffe hergestellt werden, wird Kohlenstoff gebunden“, erläutert Kruse. „Werden diese biogenen Produkte dann am Ende ihrer Nutzungsdauer zur Energieerzeugung verbrannt, wird nur dieselbe Menge an Kohlendioxid freigesetzt, die auch beim Verrotten des pflanzlichen Ausgangsmaterials entstehen würde. So können nicht nur fossile Brennstoffe, sondern auch CO2-Emissionen eingespart werden.“

Technikum verarbeitet Biomasse zu Plattformchemikalien
Ein wesentliches Ziel dieses Projekts im laufenden Wissenschaftsjahr 2020/21 – Bioökonomie des Bundesministeriums für Bildung und Forschung ist, Energie- und Stoffkreisläufe vor Ort zu schließen. „Im Wesentlichen geht es um eine vielseitige Kombination von chemisch-physikalischen Verfahrenstechniken mit biologischen und biotechnologischen Prozessen“, sagt Dahmen. Dazu bauen die Karlsruher und die Hohenheimer Forschenden eine bestehende Bioraffinerie-Anlage an der Versuchsstation „Unterer Lindenhof“ der Universität Hohenheim aus. Der Betrieb des Technikums wird die möglichst vollständige stoffliche Verarbeitung von Biomasse zu Plattformchemikalien demonstrieren.

Holz, Stroh und Gräser enthalten Lignocellulose als Stützsubstanz. In der Bioraffinerie wird diese aufgespalten; die einzelnen Komponenten Cellulose, Hemicellulose und Lignin werden separat verwertet. Ein Karlsruher Verfahren zur Ligninspaltung wird dabei mit einem Hohenheimer Verfahren zur Verwertung von Lignocellulose gekoppelt. Hier entstehen unter anderem Furfural und Phenole, mit denen sich beispielsweise biogene und damit formaldehydfreie Spanplatten und Sperrholz herstellen lassen.

Ein weiteres Beispiel für den Ansatz, Biomasse dezentral in Zwischenprodukte umzusetzen und diese zentral weiterzuverarbeiten, ist das bioliq®-Verfahren des KIT: Aus trockener Biomasse werden synthetische Kraftstoffe und chemische Grundprodukte hergestellt. Als Nebenprodukte entstehen Wärme und Strom, die den Energiebedarf des Prozesses decken. Um energie- und kostenaufwendige Transportwege einzusparen, kombiniert das bioliq®-Konzept die dezentrale Erzeugung eines energiereichen Zwischenprodukts, genannt Biosyncrude, mit dessen zentraler Umwandlung zu Synthesegas. Dieses wird anschließend zum gewünschten Endprodukt veredelt.

Mit der Koppelung von Lebensmittelproduktion und Kunststoffherstellung für Verpackungen beschäftigen sich die On-farm-Bioraffinerie-Konzepte von Professorin Andrea Kruse in Hohenheim. Aus Biomasse entsteht beispielsweise Hydroxymethylfurfural (HMF). Daraus lassen unter anderem Lebensmittelverpackungen, Getränkeflaschen, Fasern für Autositze, Sportbekleidung oder Autoteile herstellen.

Kleine Anlagen gewährleisten Nachhaltigkeit auf regionaler Ebene
Die Bioraffinerie auf einem Bauernhof soll allerdings nicht alle Verfahrensschritte in einer Anlage vereinen. Ziel sind möglichst kleine Anlagen, aus denen Nährstoffe direkt vom jeweiligen Hof wieder auf die Felder gelangen können. Damit auch kleine Anlagen wirtschaftlich arbeiten, werden die Zwischenprodukte in größeren Fabriken weiterverarbeitet. So soll Nachhaltigkeit auf regionaler Ebene gewährleistet werden. (or)

Details zum KIT-Zentrum Energie: https://www.energie.kit.edu

Kontakt für diese Presseinformation:
Margarete Lehné, stellv. Pressesprecherin, Tel.: +49 721 608-41157, E-Mail: margarete.lehne@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Weitere Informationen:
https://www.kit.edu/kit/pi_2021_038_bioraffinerie-am-bauernhof-der-zukunft.php

(nach oben)


Grippeschutzimpfung: Neue Richtlinie verbessert Versorgung älterer Menschen

Nina Meckel Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Die seit dem 1. April 2021 geltende Schutzimpfungs-Richtlinie des Bundesgesundheitsministeriums stellt klar: Gesetzlich Versicherte ab 60 Jahren sollen im Rahmen ihrer Grippeschutz-Impfung den Hochdosis-4-fach-Influenzaimpfstoff erhalten. Die Deutsche Gesellschaft für Geriatrie (DGG) begrüßt die neue Richtlinie sehr, sieht aber noch weiteres Verbesserungspotenzial.

In den letzten Monaten hat sich in Deutschland bereits einiges getan in puncto Versorgungssicherheit älterer Menschen: Zunächst wurde der Hochdosis-4-fach-Influenzaimpfstoff für Personen ab 65 Jahren zugelassen, Ende Februar wurde die Zulassung auf die 60- bis 64-Jährigen erweitert. „Aus geriatrischer Perspektive sind das sehr positive Entwicklungen, denn sie tragen den besonderen Bedürfnissen älterer Menschen besser Rechnung. Denn zum einen sind die Älteren besonders gefährdet, eine Influenza-Infektion zu entwickeln, zum anderen haben sie eine deutlich höhere Sterblichkeit, wenn sie infiziert sind. Bis zu 90 Prozent aller Grippe-Toten sind älter als 60 Jahre“, erklärt Dr. Anja Kwetkat, Direktorin der Klinik für Geriatrie am Universitätsklinikum Jena und Sprecherin der DGG-Arbeitsgruppe Impfen. Gleichzeitig sinke die Wirksamkeit der Grippeimpfung mit zunehmendem Lebensalter, so die Geriaterin. Der neue Hochdosis-Impfstoff, der im Vergleich zum normalen Influenza-Impfstoff die vierfache Antigenmenge enthält, wirkt dem durch seine stärkere Wirksamkeit entgegen.

Empfehlung weiterer stärker wirksamer Impfstoffe könnte Versorgungslage weiter verbessern
Dennoch sieht Dr. Kwetkat Verbesserungspotenzial bei der Grippeimpfung älterer Menschen hierzulande: „Neben dem Hochdosis-Impfstoff gibt es weitere Grippe-Impfstoffe mit einer verbesserten Wirksamkeit bei Älteren. Diese könnten z. B. eingesetzt werden, um eventuelle Versorgungsengpässe auszugleichen.“ Diese sind durchaus zu befürchten, da es für den Hochdosis-Impfstoff nur einen einzigen Hersteller gibt. Die Ständige Impfkommission STIKO bescheinigt in ihrer wissenschaftlichen Stellungnahme dem adjuvantierten 4-fach-Influenza-Impfstoff ebenfalls eine bessere Wirksamkeit, kritisiert aber die bisher weniger gute Datenlage als beim Hochdosis-Impfstoff. „In Großbritannien etwa belegen die sogenannten Real World Data, dass der adjuvantierte Impfstoff eine überlegene Wirksamkeit gegenüber dem Standard-Impfstoff hat, denn dort wurde er bereits für die Älteren empfohlen und entsprechend eingesetzt. Wenn man diesen Impfstoff hierzulande zumindest bei Engpässen als Ersatz nutzen würde, wäre das aus meiner Sicht die bessere Alternative, als sich in diesem Falle nur auf den Standard-Impfstoff zu stützen – mit den bekannten Nachteilen“, so die Geriaterin.

Pressekontakt der DGG
Nina Meckel
medXmedia Consulting KG
Nymphenburger Str. 19
80335 München
Tel: +49 (0)89 / 230 69 60 69
Fax: +49 (0)89 / 230 69 60 60
E-Mail: presse@dggeriatrie.de

Deutsche Gesellschaft für Geriatrie (DGG)
Die Deutsche Gesellschaft für Geriatrie (DGG) ist die wissenschaftliche Fachgesellschaft der Ärzte, die sich auf die Medizin der späten Lebensphase spezialisiert haben. Wichtige Schwerpunkte ihrer Arbeit sind unter anderem Bewegungseinschränkungen und Stürze, Demenz, Inkontinenz, Depressionen und Ernährungsfragen im Alter. Häufig befassen Geriater sich auch mit Fragen der Arzneimitteltherapie von alten Menschen und den Wechselwirkungen, die verschiedene Medikamente haben. Bei der Versorgung geht es darum, den alten Menschen ganzheitlich zu betreuen und ihm dabei zu helfen, so lange wie möglich selbstständig und selbstbestimmt zu leben. Die DGG wurde 1985 gegründet und hat heute rund 1.700 Mitglieder.

Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen/1778-pm-grippeschutzimpfung-ne…

Anhang
Grippeschutzimpfung: Neue Richtlinie verbessert Versorgung älterer Menschen

(nach oben)


Mehr Gemüse, weniger Milch

Nicolas Scherger Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Weltweit werden die natürlichen Ressourcen für die Ernährung immer knapper. Unterschiedliche politische Initiativen zielen darauf ab, in den nächsten Jahren den ökologischen Fußabdruck des Lebensmittelkonsums zu verringern und Lebensmittelverschwendung zu verhindern. Hanna Helander von der Professur für Gesellschaftliche Transformation und Kreislaufwirtschaft hat zusammen mit Kolleginnen und Kollegen die Umweltauswirkungen verschiedener Ernährungsstile sowie die damit einhergehende Abfallvermeidung hierzulande untersucht.

Ihre Ergebnisse zeigen, dass eine Umstellung auf eine pflanzenbasierte Ernährung den ökologischen Fußabdruck in Deutschland deutlich verringern könnte. Die Studie ist in der Fachzeitschrift „Environmental Research Letters“ erschienen.

Die Bundesrepublik Deutschland hat sich zum Ziel gesetzt, bis 2030 die Lebensmittelverschwendung in Konsum und Vertrieb zu halbieren. In ihrer Analyse betrachten die Forschenden drei Szenarien einer ernährungsphysiologisch sinnvollen, pflanzenbasierten Ernährungsweise und vergleichen diese miteinander. Zum einen begutachten sie die Empfehlung der Deutschen Gesellschaft für Ernährung, die Fleischkonsum vorsieht. Zum anderen untersuchen sie den Vorschlag der EAT Lancet Kommission für eine Ernährung innerhalb der Belastungsgrenzen der Erde, die weniger Fleisch erlaubt. Die EAT Lancet Kommission ist ein Zusammenschluss von 37 Wissenschaftlerinnen und Wissenschaftlern aus der ganzen Welt, die erforschen, wie sich eine zukünftige Bevölkerung von zehn Milliarden Menschen innerhalb der ökologischen Ressourcen der Erde gesund ernähren kann. Als drittes betrachten Helander und ihre Kollegen eine vegetarische Variante der EAT Lancet Ernährungsweise.

Mithilfe eines Berechnungsmodells für Lebensmittel und Landwirtschaft hat das Team die Biomasse-, Ackerland- und Blauwasser-Fußabdrücke der globalen Lieferketten zu den Ernährungsszenarien erfasst. Als blaues Wasser wird die Wassermenge bezeichnet, die in der Industrie und im häuslichen Gebrauch zur künstlichen Bewässerung oder zur Herstellung von Produkten benötigt wird.

Die Ergebnisse zeigen, dass eine milcharme, vegetarische Ernährung besonders effektiv wäre, um den Biomasse-Fußabdruck bis zu 61 Prozent und den Ackerland-Fußabdruck bis zu 48 Prozent zu verringern. Die Halbierung der Lebensmittelabfälle hätte eine Einsparung der Biomasse- und Ackerland-Fußabdrücke von 11 Prozent respektive 15 Prozent zur Folge. „Zwar ließen sich mit einer vegetarischen Ernährung fast die Hälfte der Flächen für die Lebensmittelproduktion einsparen, der Einfluss auf das blaue Wasser wäre aber leider gering. Um diesen Verbrauch zu senken, wäre es hilfreicher, Lebensmittelabfälle zu reduzieren“, sagt Helander.

Eine vegetarische Ernährung allein reiche dafür nicht aus – im Gegenteil: Die Studie zeigt, dass auch eine pflanzenbasierte Ernährung trotz verringerter Fußabdrücke zu mehr Lebensmittelabfällen führen kann, da damit der Konsum von Produkten steigt, die einen höheren Anteil an Lebensmittelabfällen aufweisen – zum Beispiel Kartoffel, Rüben oder Getreide. „Politische Strategien, die sowohl den Fußabdruck des Lebensmittelkonsums als auch die Lebensmittelverschwendung minimieren wollen, können also widersprüchlich sein“, bilanziert Hanna Helander. „Eine höhere Ressourceneffizienz lässt sich am besten erreichen, wenn wir die Reduktionspotenziale aller verfügbaren Strategien ausschöpfen und gleichzeitig die Wechselwirkungen der unterschiedlichen Strategien berücksichtigen.“

Wissenschaftliche Ansprechpartner:
Hanna Helander
Professur für Gesellschaftliche Transformation und Kreislaufwirtschaft
Fakultät für Umwelt und Natürliche Ressourcen
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-67920
E-Mail: hanna.helander@transition.uni-freiburg.de

Originalpublikation:
Helander Hanna; Bruckner Martin; Leipold Sina; Petit-Boix, Anna and Stefan Bringezu (2021): Eating healthy or wasting less? Reducing resource footprints of food consumption. In: Environmental Research Letters. DOI: 10.1088/1748-9326/abe673

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/mehr-gemuese-weniger-milch

(nach oben)


Korallen, die Algen spucken

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Mikroalgen aus der Gruppe der Dinoflagellaten gehen seit Urzeiten intrazelluläre Symbiosen mit Korallen ein. Ein Forschungsteam vom Centre for Organismal Studies der Universität Heidelberg hat nun herausgefunden, dass solche Symbiosen von der Fähigkeit der Algen abhängen, das Immunsystem ihrer Wirtszelle zu unterdrücken und so die Beseitigung durch „Ausspucken“ zu vermeiden. Die Wissenschaftler fanden außerdem Hinweise darauf, dass es sich bei dieser Immunantwort um einen evolutionär alten Abwehrmechanismus handelt, der weiter verbreitet ist als bisher angenommen.

Eine alte Immunantwort reguliert die Entstehung von vorteilhaften Symbiosen
Mikroalgen aus der Gruppe der Dinoflagellaten sind bekannt für ihre Fähigkeit, in anderen tierischen Zellen zu überleben. Auch mit Korallen gehen diese winzigen Einzeller seit Urzeiten wechselseitig vorteilhafte Beziehungen ein. Indem sie lebenswichtige Nährstoffe an ihre Wirte weitergeben, ermöglichen es Dinoflagellaten den Korallen etwa, auch in kargen Regionen zu gedeihen. Ein Forschungsteam vom Centre for Organismal Studies (COS) der Universität Heidelberg hat nun herausgefunden, dass solche Symbiosen innerhalb der Zelle entscheidend von der Fähigkeit der Algen abhängen, das Immunsystem ihrer Wirtszelle zu unterdrücken und so die Beseitigung durch „Ausspucken“ zu vermeiden. Gleichzeitig fanden die Wissenschaftlerinnen und Wissenschaftler Hinweise darauf, dass es sich bei dieser Immunantwort um einen evolutionär alten Abwehrmechanismus handelt, der weiter verbreitet ist als bisher angenommen.

Bei diesem Mechanismus handelt es sich um die sogenannte Vomozytose. Entgegen bisheriger Annahmen werden von Korallen aufgenommene Mikroalgen nicht von der Zelle verdaut, wenn sie sich nicht als Symbionten – als Teil einer Symbiose – eignen, sondern im Rahmen der Vomozytose wieder „ausgespuckt“. Spezielle Dinoflagellaten sind in der Lage, diese Immunantwort ihrer Wirtszelle gezielt zu unterdrücken, um so in der Zelle zu verbleiben. Wie ihnen das gelingt, zeigt eine Studie, die unter der Leitung der Zellbiologin Prof. Dr. Annika Guse am COS durchgeführt wurde. „Die Herausforderung für die Korallen besteht darin, zwischen nützlichen und potenziell schädlichen Mikroorganismen zu unterscheiden. Die Algen wiederum müssen die Immunantwort der Wirtszelle umgehen, eine intrazelluläre Nische etablieren, in der sie überleben können, und die eigenen Zellfunktionen so auf die ihres Wirtes abstimmen, dass Nährstoffe effizient ausgetauscht werden können“, erklärt die Wissenschaftlerin.

Bislang konnte für keine der gängigen Theorien, die diese Vorgänge zu erklären versuchen, ein experimenteller Beweis erbracht werden. Das Team um Prof. Guse hat nun anhand des Modellsystems Exaiptasia diaphana (Aiptasia) aus der Gattung der Seeanemonen nachvollzogen, wie die Immununterdrückung durch den Symbionten dazu beiträgt, dass die Wirtszelle geeignete Mikroalgen erkennt und langfristig aufnimmt. Die Larven der Seeanemone Aiptasia nehmen die Symbionten aus der Umwelt in gleicher Weise auf wie Korallenlarven. Außerdem eignen sich die Larven der auch als Glasrosen bekannten Seeanemonen aufgrund ihrer Größe und Transparenz hervorragend für hochauflösende Bildgebung und zellbiologische Untersuchungen.

Aus der Umwelt nimmt Aiptasia kontinuierlich unterschiedliche Partikel auf, ohne dabei zwischen geeigneten und ungeeigneten Teilchen oder Lebewesen zu unterscheiden. Nicht kompatible Partikel werden anschließend innerhalb eines bestimmten Zeitraums wieder „ausgespuckt“. Symbionten vermeiden diesen Vorgang der sogenannten Vomozytose, vermutlich indem sie die Signalwege der Toll-like-Rezeptoren (TLR) der Wirtszelle unterbrechen. Diese Rezeptoren spielen eine entscheidende Rolle bei der Aktivierung des zelleigenen Abwehrsystems und sorgen dafür, dass unerwünschte Eindringlinge erkannt und entfernt werden. Bei den meisten Tieren werden die Toll-like-Rezeptoren von dem Gen MyD88 gesteuert. „Wir konnten nachweisen, dass Algen-Symbionten MyD88 unterdrücken, um die Symbiose zu initiieren. So schaffen sie es, der Vomozytose zu entgehen“, erläutert Prof. Guse.

Gleichzeitig deuten die Erkenntnisse der Heidelberger Wissenschaftler darauf hin, dass es sich bei der Vomozytose um einen Mechanismus handelt, der weiter verbreitet ist als vermutet. Bislang wurde angenommen, dass das „Ausspucken“ von schädlichen Eindringlingen selbst initiiert wird, um den teilweise sehr spezialisierten Immunantworten der potenziellen Wirtszelle zu entkommen. Die Studie mit dem Aiptasia-Modell legt jedoch nahe, dass dieser Vorgang auch von der Wirtszelle ausgelöst werden kann. Die Forscherinnen und Forscher nehmen daher an, dass es sich bei der Vomozytose um einen evolutionär alten Abwehrmechanismus handelt, den sich Korallen oder Nesseltiere wie Aiptasia zunutze machen, um geeignete Symbionten zu selektieren. Prof. Guse: „Die Vermutung liegt nahe, dass die Vomozytose ein wichtiger Prozess ist, der überhaupt erst zur Entstehung des intrazellulären Lebenswandels der Korallen-Symbionten geführt hat.“

Die Ergebnisse der Studie wurden in der Fachzeitschrift „Nature Microbiology“ veröffentlicht. Finanziert wurden die Forschungsarbeiten unter anderem aus Mitteln des Horizon 2020-Programms der Europäischen Union und der Deutschen Forschungsgemeinschaft.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Annika Guse
Centre for Organismal Studies
Telefon (06221) 54-6264
annika.guse@cos.uni-heidelberg.de

Originalpublikation:
M. R. Jacobovitz, S. Rupp, P. A. Voss, I. Maegele, S. G. Gornik, A. Guse: Dinoflagellate symbionts escape vomocytosis by host cell immune suppression. Nature Microbiology (29 April 2021), https://dx.doi.org/10.1038/s41564-021-00897-w

Weitere Informationen:
https://www.cos.uni-heidelberg.de/index.php/a.guse?l=

(nach oben)


Wem gehört der Fußball?

Stephan Laudien Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Wirtschaftswissenschaftler der Universität Jena erforschen in einem DFG-Teilprojekt die Eigentumsverhältnisse im europäischen Fußball

Jedes Jahr der immergleiche deutsche Meister, jedes Jahr die gleichen Vereine im Halbfinale der Champions League und nun die Pläne für eine „Super League“ der reichsten Clubs in Europa: „Wem gehört der Fußball?“, diese Frage beschäftigt die Wirtschaftswissenschaftler Prof. Dr. Mike Geppert und Kenny Böswetter von der Friedrich-Schiller-Universität Jena. Im Rahmen des Sonderforschungsbereichs-Transregio 294 „Strukturwandel des Eigentums“ untersuchen die beiden Wissenschaftler die Eigentumsverhältnisse in den „Big Five“ des europäischen Fußballs, also in den ersten Ligen in Spanien, England, Deutschland, Italien und Frankreich. Die Deutsche Forschungsgemeinschaft (DFG) fördert die Untersuchung für die Dauer von vier Jahren mit einer Summe von 235.000 Euro.

Der „Fall Hopp“ spielt eine Rolle
„Wir wollen untersuchen, inwieweit die Eigentumsverhältnisse im Fußball die Regeln in den Verbänden beeinflussen“, sagt Mike Geppert. Der Inhaber des Lehrstuhls Strategisches und Internationales Management konstatiert, dass sich die vorherrschenden marktwirtschaftlichen Regeln einzelner Länder im Fußball widerspiegeln. Während in Deutschland mit seiner Idee der sozialen Marktwirtschaft die 50+1 Regel gilt, die verhindern soll, dass Fußballvereine komplett übernommen werden können, gelten etwa in England andere Regeln. Dort würde ein freierer Markt erlauben, dass Sportvereine gekauft werden können. „Wir werden untersuchen, welchen Einfluss Clubeigner, wie etwa Roman Abramowitsch bei Chelsea London, haben“, sagt Mike Geppert.

Beim Blick auf die Bundesliga werde der „Fall Hopp“ eine Rolle spielen, die faktische Übernahme der TSG Hoffenheim durch den SAP-Gründer Dietmar Hopp. Mike Geppert sagt, Hopps Engagement in Hoffenheim werde oftmals als der Sündenfall im bezahlten Fußball in Deutschland dargestellt. Zudem werde dem Newcomer RB Leipzig vorgeworfen, das Modell Hopp kopiert zu haben. Dabei verstelle das den Blick auf die sogenannten Werksclubs in Leverkusen und Wolfsburg.

Bleibt der Fußball in Europa ein öffentliches Gut?
In der Studie „Who owns football?“ wird es auch um die Frage gehen, in welchem Maße der Fußball als öffentliches Gut anzusehen ist. Mike Geppert konstatiert, dass über diese Frage verstärkt seit etwa 20 Jahren debattiert werde. Ein Beleg für die Bedeutung des Fußballs als öffentliches Gut sei sicherlich die Tatsache, dass die europäischen Ligen trotz Corona mehrheitlich weiterlaufen. „Ein wenig hat das etwas von Brot und Spiele“, sagt Prof. Geppert.

Gemeinsam mit Kenny Böswetter, der im Rahmen der Studie seine Doktorarbeit schreibt, wird Mike Geppert in einem zweiten Teil der Arbeit eine Fallstudien-basierte Analyse von Premier League und Bundesliga vornehmen. Sein wissenschaftliches Interesse begründet Prof. Mike Geppert mit der offensichtlichen Tatsache, dass Fußballvereine Wirtschaftsunternehmen immer ähnlicher werden. Privat ist der Wirtschaftswissenschaftler selbst Fan: In der Bundesliga drückt er Union Berlin die Daumen, in der Premier League ist Manchester City sein Verein: „Ich habe mich schon für Manchester City begeistert, als der Verein noch in der zweiten englischen Liga spielte“. Heißt im Klartext, noch bevor der Verein von der Herrscherfamilie des Emirats in Abu Dhabi übernommen wurde.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mike Geppert
Wirtschaftswissenschaftliche Fakultät der Friedrich-Schiller-Universität Jena
Carl-Zeiß-Straße 3, 07743 Jena
Tel.: 03641 / 943160
E-Mail: mike.geppert@uni-jena.de

(nach oben)


Einkaufen ohne Verpackungsmüll

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
DBU-Projekt entwickelt Standards zur Abfallvermeidung

Eberswalde. Bei einem gewöhnlichen Einkauf kommt oft viel Müll in Form von Verpackungen zusammen. Eine Alternative sind Unverpackt-Läden. Den Betreiberinnen und Betreibern fehlen bislang aber standardisierte Lösungen zum Beispiel für Transport oder Marketing ihrer Produkte. Ein Projekt der Hochschule für nachhaltige Entwicklung Eberswalde (HNEE) will Abhilfe schaffen und den Verpackungsmüll durch branchenweite Standards systematisch reduzieren. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Vorhaben fachlich und finanziell mit rund 291.000 Euro.

Nudeln in Plastikverpackungen, eingeschweißtes Obst und Gemüse, aufwendige Umverpackungen für Süßwaren und Getränke in Einwegplastikflaschen: Deutschland hat ein stetig wachsendes Müllproblem. Lag die Menge an Verpackungsmüll vor 20 Jahren noch bei rund 15 Millionen Tonnen, waren es 2018 bereits 18,6 Millionen Tonnen. „Besonders die Kunststoffabfälle sind für eine Vielzahl von Umweltproblemen verantwortlich“, sagt Dr. Susanne Wiese-Willmaring, DBU-Referatsleiterin für Lebensmittel. Nach Informationen des Umweltbundesamtes landen jährlich weltweit bis zu zehn Millionen Tonnen Abfall im Meer. Viele Tiere hielten die Teilchen für Nahrung und würden sie fressen, ohne die Partikel verdauen zu können. Sie verhungerten mit vollem Magen. Für andere Tiere wiederum würden die Plastikteile zur tödlichen Falle, weil sie sich in ihnen verfangen und ertrinken können.

Weniger Müll beim Einkauf
Eine Möglichkeit, weniger Verpackungsmüll zu erzeugen, ist laut Wiese-Willmaring der Einkauf in Unverpackt-Läden: Kundinnen und Kunden füllen sich die benötigten Mengen von Nudeln, Kaffee, Reinigungsmitteln und Co. in Gefäße ab oder nehmen die Ware lose mit. Auch Mehrwegsysteme sind eine Option. „Unverpackt-Läden nutzen bereits heute Großverpackungen und sparen so Material ein“, sagt Projektleiter Prof. Dr. Jens Pape von der Hochschule für nachhaltige Entwicklung Eberswalde. Allerdings seien an Verpackungen verschiedene Funktionen geknüpft. Pape: „Sie sichern zum Beispiel die Hygiene, erfüllen Kennzeichnungsvorschriften zu Haltbarkeit, Lagerung, Inhaltsstoffen und Allergenen oder werden zu Marketingzwecken bedruckt und beklebt. Der Unverpackt-Handel muss hierfür also Alternativen entwickeln.“

Neue Standards für Unverpackt-Läden
Die Forscherinnen und Forscher der HNEE und ihre Praxispartner sehen vor allem zwei Herausforderungen: zum einen die verpackungsarme Beschaffung, zum anderen die rechtlichen Rahmenbedingungen. „Logistik und Zulieferer sind noch nicht an den verpackungsfreien Einkauf angepasst“, sagt Pape. „Wir brauchen effiziente und praxistaugliche Lösungen für Transportverpackungen, den Einsatz von nachhaltigen Verpackungsmaterialien und Mehrwegsysteme.“ Ein sensibler Aspekt ist Pape zufolge der vorgegebene Rechtsrahmen, insbesondere das Hygiene- und Schädlingsmanagement. Hierfür gibt es bislang kein einheitliches Vorgehen, jeder Laden entwickelt individuelle Lösungen. Ziel des Projektes ist die Entwicklung von branchenweiten Standards, um so das Unverpackt-Konzept künftig effizienter, nachhaltiger und professioneller zu gestalten. So kann „unverpackt“ auch für den klassischen Lebensmittelhandel interessanter werden.

Fotos nach IPTC-Standard zur kostenfreien Veröffentlichung unter http://www.dbu.de
Wann immer das generische Maskulinum verwendet wird, dient dies lediglich der besseren Lesbarkeit. Gemeint sein können aber alle Geschlechter.

(nach oben)


Studie: Wie verändern Berufseinstieg und Renteneintritt die Persönlichkeit?

Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Welche Persönlichkeitsmerkmale sich in den Jahren um den Berufsstart und der Verrentung wandeln, haben die Psychologinnen Eva Asselmann und Jule Specht von der Humboldt-Universität zu Berlin untersucht

Bei der Arbeit sind wir mit einer Vielzahl an Aufgaben und Erwartungen konfrontiert. Werden wir reifer, wenn wir ins Berufsleben eintreten und entspannter, wenn wir in Rente gehen? Dieser Frage gingen Eva Asselmann und Jule Specht von der Humboldt-Universität zu Berlin nach.
Die Forscherinnen konnten zeigen, dass junge Erwachsene, die erstmals ins Berufsleben einstiegen, in den Jahren danach merklich gewissenhafter, extravertierter und verträglicher wurden. Bei älteren Personen, die in Rente gingen, nahm die Gewissenhaftigkeit in den darauf folgenden Jahren deutlich ab.
Für ihre Studie werteten die Psychologinnen Daten von mehr als 3500 angehenden Berufseinsteiger:innen und mehr als 2500 angehenden Rentner:innen aus dem Sozioökonomischen Panel (SOEP) aus, einer bevölkerungsrepräsentativen Langzeitstudie aus Deutschland. Sie untersuchten die fünf Persönlichkeitsmerkmale Offenheit, Geselligkeit, Gewissenhaftigkeit, Verträglichkeit und emotionale Stabilität in den Jahren vor und nach dem Berufseinstieg bzw. Renteneintritt.
Zusammengefasst stützen die Studienergebnisse die Annahme, dass wir reifen, wenn wir ins Berufsleben eintreten, und entspannter werden, wenn wir aus dem Berufsleben aussteigen. Letzteres wird auch als „la-Dolce-Vita-Effekt“ bezeichnet.
Eine mögliche Erklärung: Bei der Arbeit sind wir mit klaren Erwartungen konfrontiert: Wir müssen zuverlässig und pünktlich sein, Termine und Verpflichtungen einhalten, überzeugend aufzutreten und uns anderen gegenüber freundlich und professionell verhalten. Das könnte erklären, warum es nach dem Berufseintritt zu einer Persönlichkeitsreifung kommt. Wenn wir in Rente gehen, fallen diese Anforderungen weg – es bleibt also mehr Raum, um zu entspannen und die Vorzüge des Lebens zu genießen.

Wissenschaftliche Ansprechpartner:
Dr. rer. nat. habil. Eva Asselmann
Institut für Psychologie, Humboldt-Universität zu Berlin
eva.asselmann@hu-berlin.de

Originalpublikation:
Asselmann, Eva und Specht, Jule (2021): “Personality maturation and personality relaxation: Differences of the Big Five personality traits in the years around the beginning and ending of working life”, Journal of Personality, DOI: 10.1111/jopy.12640.

(nach oben)


Starker Rückgang der Darmkrebs-Inzidenz und -Sterblichkeit seit Einführung der Vorsorge-Darmspiegelung

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Seit 2002 bieten die gesetzlichen Krankenkassen die Darmspiegelung als primäre Screening-Untersuchung an, mit der Darmkrebs und Vorstufen entdeckt werden können. Damit kann die Zahl der Neuerkrankungen gesenkt und die Heilungschance verbessert werden. Wissenschaftler im Deutschen Krebsforschungszentrum berechneten nun die Entwicklung der Darmkrebs-Inzidenz und Sterblichkeit innerhalb dieses Zeitraums: Von 2000 bis 2016 ging die altersstandardisierte Neuerkrankungsrate bei beiden Geschlechtern um knapp ein Viertel zurück. Noch deutlicher waren die Effekte auf die Sterblichkeitsrate: Zwischen 2000 und 2018 sank sie bei Männern um 35,8 Prozent, bei Frauen sogar um 40,5 Prozent.

„Die Rückgänge bei den Neuerkrankungen und bei der Sterblichkeit beobachten wir vor allem in der Altersgruppe ab 55 Jahren, für die die Darmspiegelung angeboten wird. Zusammen mit den Ergebnissen bereits vorliegender Studien lassen diese Zahlen keine Zweifel mehr offen, dass das Angebot der gesetzlichen Darmkrebsvorsorge und insbesondere die Darmspiegelung ein hochwirksames Instrument der Krebsprävention ist”, sagt Hermann Brenner vom Deutschen Krebsforschungszentrum.

Am stärksten ausgeprägt waren die Rückgänge bei Karzinomen des Enddarms und des unteren Darmabschnitts („distales Kolon”). Für Tumoren des oberen Darmabschnitts („proximales Kolon”) beobachteten die Forscher dagegen kaum einen Rückgang der Neuerkrankungsrate. „Die Tumorvorstufen im oberen Dickdarm sind häufig mit dem Endoskop schwerer zu erkennen und weisen auch andere biologische Eigenschaften auf”, nennt Brenner Gründe für die geringere Wirksamkeit der Endoskopie im oberen Darmabschnitt. Aber auch die Tumoren im oberen Dickdarmabschnitt wurden zunehmend früher und damit in einem besser heilbaren Krebsstadium erkannt. „Eine frühere Erkennung hat auch in diesem Darmabschnitt zu einem erheblichen Rückgang der Sterblichkeit an Krebserkrankungen beigetragen, obwohl die Inzidenz dieser Tumoren innerhalb des Untersuchungszeitraums kaum zurückgegangen ist”, erklärt Brenner.

Einen direkten Vergleich der Erkrankungsraten von Teilnehmern und Nicht-Teilnehmern an der Screening-Koloskopie konnten die Wissenschaftler in dieser Register-basierten Studie nicht durchführen: Krebsregisterdaten dürfen aus datenschutzrechtlichen Gründen in Deutschland nicht mit den Daten zur Teilnahme an der Vorsorgedarmspiegelung verknüpft werden. Den Zusammenhang mit der Darmspiegelung konnten die Wissenschaftler aber in anderen Studien vielfach belegen. Der deutliche Rückgang der Darmkrebs-Inzidenz und -Sterblichkeit trotz der demografischen Entwicklung ist daher aus Sicht der Epidemiologen in allererster Linie der Wirksamkeit der Darmkrebsvorsorge zu verdanken.

Knapp 20 Jahre nach Einführung der Vorsorge-Darmspiegelung hat zwar gut die Hälfte der über 50-Jährigen in Deutschland schon einmal eine Darmspiegelung und damit einen wirksamen Schutz vor Darmkrebs erhalten, da hierbei die meisten Vorstufen von Darmkrebs entdeckt und abgetragen werden können. Doch noch immer erkranken jedes Jahr fast 60.000 Menschen an Darmkrebs, und fast 25.000 Menschen sterben an der Erkrankung. Brenner ist überzeugt, dass sich diese Zahlen innerhalb der nächsten zehn Jahre halbieren ließen. Sein Appell an die Gesundheitspolitik: „Wir müssen dringend die Einladungsverfahren zur Darmkrebs-Vorsorge verbessern, um deutlich mehr Menschen zu motivieren, die Chance zur Krebsprävention zu ergreifen”.

Rafael Cardoso, Anna Zhu, Feng Guo, Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Inzidenz und Mortalität proximaler und distaler kolorektaler Karzinome in Deutschland: Trends in der Ära der Vorsorge-Koloskopie
Deutsches Ärzteblatt 2021, DOI: 10.3238/arztebl.m2021.0111

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
http://www.dkfz.de

Originalpublikation:
Rafael Cardoso, Anna Zhu, Feng Guo, Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Inzidenz und Mortalität proximaler und distaler kolorektaler Karzinome in Deutschland: Trends in der Ära der Vorsorge-Koloskopie
Deutsches Ärzteblatt 2021, DOI: 10.3238/arztebl.m2021.0111

(nach oben)


Neue Ursache zur Entstehung von Leukämie entdeckt

Bianca Hermle Kommunikation und Medien
Universitätsklinikum Tübingen
Forscherinnen und Forschern des Universitätsklinikums Tübingen ist es gelungen, eine molekulare Ursache der Leukämieentstehung zu identifizieren. Damit haben sie ein neuartiges experimentelles Modell etabliert, das es Patientinnen und Patienten mit Leukämie in Zukunft ermöglicht, spezifischer behandelt zu werden. Die Forschungsergebnisse sind aktuell in der Fachzeitschrift Cell Stem Cell publiziert.

Schwere kongenitale Neutropenie (CN) ist ein prä-leukämisches Knochenmarkversagenssyndrom, das sich zu einer akuten myeloischen Leukämie (AML) entwickeln kann. Bei dieser seltenen angeborenen Erkrankung der Blutbildung handelt es sich um einen Immundefekt, der mit einer verminderten Anzahl an Granulozyten und funktionellen Defekten ebendieser einhergeht. Bereits früh nach der Geburt bilden sich bei Betroffenen schwere bakterielle Infektionen. Die einzig mögliche Therapie ist eine lebenslange Behandlung mit rekombinanten Wachstumsfaktoren (Proteinen), die täglich injiziert werden müssen. 20 Prozent der Patientinnen und Patienten mit angeborener Neutropenie erkranken bereits in den ersten Lebensjahrzehnten an Leukämie.

Den Forscherinnen und Forschern um Professorin Dr. Julia Skokowa, Dr. Benjamin Dannenmann und Dr. Maksim Klimiankou von der Abteilung Hämatologie, Onkologie, klinische Immunologie und Rheumatologie der Medizinischen Klinik des Uniklinikums Tübingen ist es nun gelungen, den Mechanismus der Leukämieentstehung aufzuschlüsseln und eine neue Therapie zu ergründen. Als Leiterin des Referenzlabors für Diagnostik und Forschung des internationalen Registers für schwere chronische Neutropenien (SCNIR) konnte Prof. Skokowa große Datenmengen von Patientinnen und Patienten mit seltenen Erkrankungen für ihr Forschungsvorhaben analysieren.

Da es für Neutropenie keine Tiermodelle gibt und es schwierig ist, genügend Knochenmarkzellen von Erkrankten zu gewinnen, erarbeiteten die Forscherinnen und Forscher ein neuartiges Versuchsmodell zur Untersuchung der Leukämie: Dabei versetzten sie die Blutzellen von Neutropenie-Patienten mithilfe molekularer Methoden zurück in einen frühen embryonalen Zustand – in sogenannte induzierte pluripotente Stammzellen (iPS-Zellen). In Zellkulturen generierten sie aus diesen Stammzellen wiederum blutbildende Zellen. Unter Verwendung einer neuen Methode, der Genschere (CRISPR/Cas9), stellten sie die bösartige Leukämiezelle her und fügten die Genmutation in die iPS-Zellen hinzu. So gelang es den Expertinnen und Experten, Leukämiezellen in Zellkulturen zu generieren, die den primären Leukämiezellen der Neutropenie-Patienten sehr ähnlich sind.

Weiter untersuchten die Forschenden die Effekte jener Gene, von denen in Leukämiezellen viel größere Mengen vorhanden sind, als in gesunden Zellen. Um diese Auswirkung auf das Leukämiewachstum zu erforschen, wurden die Gene in den im Labor erzeugten Stammzellen mittels der Genschere ausgeschaltet. Dabei entdeckte man, dass das Ausschalten eines einzigen Proteins – BAALC – zum Tod der Leukämiezellen führt. Durch Analysen der Aktivierung aller BAALC-abhängigen Gene konnten Prof. Skokowa und ihr Team den molekularen Mechanismus der Leukämieentwicklung entschlüsseln und einen niedermolekularen Inhibitor (CMPD1) mit therapeutischer Wirkung identifizieren. Dieses neuartige Medikament tötet die Leukämiezellen ab, ohne dabei die gesunden blutbildenden Zellen anzugreifen und kann dadurch zur Therapie von Leukämien in klinischen Studien eingesetzt werden.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Tübingen
Medizinische Klinik
Innere Medizin II
Hämatologie, Onkologie, klinische Immunologie und Rheumatologie
Prof. Dr. Dr. Julia Skokowa
Otfried-Müller-Straße 10, 72076 Tübingen
Tel. 07071 29-82168, Fax 07071 29-25161
Julia.Skokowa@med.uni-tuebingen.de

Originalpublikation:
iPSC modeling of stage-specific leukemogenesis reveals BAALC as a key oncogene in severe congenital neutropenia; doi: https://doi.org/10.1016/j.stem.2021.03.023

(nach oben)


Langeweile und Selbstkontrolle in der Pandemie

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Forschende der Universitäten Bern und Konstanz sowie der FernUni Schweiz zeigen, dass grosse Langweile und geringe Selbstkontrolle mit mehr Schwierigkeiten von Schülerinnen und Schülern im Homeschooling während der COVID-19-Pandemie zusammenhängen. Diese Ergebnisse decken sich mit weiteren Befunden und theoretischen Arbeiten des Forschungsteams, die zeigen, dass grosse Langeweile und geringe Selbstkontrolle eine geringere Einhaltung der pandemiebedingten Verhaltensrichtlinien vorhersagen.

In aktuellen theoretischen Forschungsarbeiten wird argumentiert, dass Langeweile und Selbstkontrolle eine wichtige gemeinsame Rolle bei der Steuerung zielgerichteten Verhaltens zukommt und dass diese beiden psychologischen Konstrukte während der COVID-19-Pandemie von besonderer Relevanz sind. Konkret wird angenommen, dass die Tendenz sich häufig und schnell zu langweilen das Befolgen der pandemiebedingten Verhaltensrichtlinien erschwert. Zudem wird angenommen, dass die Tendenz Selbstkontrolle aufzubringen den Umgang mit diesen Schwierigkeiten erleichtert und somit eine Schutzfunktion hat.

Ein Team aus Forschenden der Universitäten Bern und Konstanz sowie der FernUni Schweiz hat diese theoretischen Vorhersagen in mehreren Studien untersucht. In einer ersten Studie, für die 895 erwachsene US-amerikanische Personen befragt wurden, fanden die Forschenden empirische Unterstützung für diese Vorhersagen und konnten die Befunde in einer weiteren Studie mit 574 US-amerikanischen Erwachsenen prospektiv über den Zeitraum von einer Woche replizieren. Überdies zeigen die Forschenden auch die besondere Wichtigkeit spezifischer Selbstkontroll-Strategien auf (sogenannte Wenn-Dann-Pläne). Mit einer Befragung von 138 Schweizer Schülerinnen und Schülern zwischen 6 und 21 Jahren konnten die Forschenden darüber hinaus zeigen, dass Schwierigkeiten im Homeschooling mit grosser Langeweile und geringer Selbstkontrolle zusammenhängen. Für das Einhalten der COVID-19-Verhaltensrichtlinien scheinen Langeweile und Selbstkontrolle somit tatsächlich robuste Einflussfaktoren zu sein.

Der Einfluss von Langeweile und Selbstkontrolle im Homeschooling
Das weitgehend selbstorganisierte Lernen und Arbeiten im Homeschooling stellt zusätzliche Anforderungen an die Selbstkontrolle und an den effektiven Umgang mit Langeweile. «Verglichen mit dem typischen Unterricht in der Klasse ist es plausibel, dass das Homeschooling den Schulstoff als langweiliger erscheinen lässt, weil mehr verlockende Ablenkungen verfügbar sind. Schülerinnen und Schüler im Homeschooling sind daher möglicherweise in besonderem Masse von der Pandemie und den einhergehenden Beschränkungen betroffen», sagt Wanja Wolff, Studien-Mitautor vom Institut für Erziehungswissenschaft der Universität Bern. Es bedürfe entsprechend mehr Selbstkontrolle, um den Schulstoff dennoch zu bearbeiten.

In ihrer Studie zu Homeschooling kommen die Forschenden zu dem Schluss, dass Langeweile und Selbstkontrolle mit den selbstberichteten Schwierigkeiten der Schülerinnen und Schüler während des Homeschoolings in der Tat zusammenhängen: Hohe Selbstkontrolle ging mit geringeren Schwierigkeiten und mit einer besseren Umsetzung der Aufgaben im Homeschooling einher. Bei Langeweile wurde der umgekehrte Zusammenhang gefunden: Grosse Langeweile ging mit vermehrten Schwierigkeiten und einer schlechteren Umsetzung der Aufgaben einher. Damit bestätigten die Ergebnisse der Studie abermals theoretische Annahmen zur Relevanz von Selbstkontrolle und Langeweile für das Verhalten.

Geringerer Einfluss von Langeweile und Selbstkontrolle im Klassenraum
Interessante Ergebnisse förderte eine Analyse der gleichen Fragestellung zu Schwierigkeiten beim Lernen im Klassenraum zutage: Hier war die Neigung zur Langeweile kein statistisch bedeutsamer Prädiktor mehr. Auch der Zusammenhang von Selbstkontrolle mit den Schwierigkeiten beim Lernen war geringer ausgeprägt. «Eine vorsichtige Interpretation dieses Befunds ist, dass das strukturiertere Umfeld des Klassenraums mit Lehrkräften, Mitschülerinnen und Mitschülern sowie mit etablierten Regeln die Anforderungen hinsichtlich Selbstkontrolle und dem Umgang mit Langeweile für die Schülerinnen und Schüler reduziert», sagt Wanja Wolff. Dies erleichtere den Schülerinnen und Schülern offenbar, sich den Schulstoff effizienter anzueignen.

Langeweile während der Pandemie ernst nehmen
Die Ergebnisse aller Studien deuten zusammenfassend darauf hin, dass Langweile und Selbstkontrolle wichtige Einflussfaktoren für den individuellen Umgang mit den Herausforderungen der Pandemie sind. Während die Wichtigkeit von Selbstkontrolle in der psychologischen Forschung schon fest etabliert ist, ist die Relevanz von Langeweile bislang erstaunlich wenig beforscht. «Die neu gewonnenen Erkenntnisse zeigen, dass Langeweile sowohl für Erwachsene als auch für Schülerinnen und Schüler den Umgang mit der Pandemie erschwert», sagt Wanja Wolff. Besonders hervorzuheben sei der umgekehrte Zusammenhang zwischen Langeweile und Selbstkontrolle: Personen mit hoher Neigung zur Langeweile berichten häufig eine geringere Selbstkontrolle. Übertragen auf die aktuelle Pandemie könnte das bedeuten, dass es Personen, denen es aus Langweile schwerer fällt, sich an die Verhaltenseinschränkungen zu halten, auch häufig an der nötigen Selbstkontrolle mangelt, um mit den durch Langeweile ausgelösten Impulsen wirksam umzugehen.

«Schlussfolgerungen für den Schulalltag könnten daher sein, die Homeschooling-Situation möglichst ablenkungsfrei zu gestalten und den Gebrauch einfacher Selbstregulationsstrategien einzuüben», sagt Psychologe Wanja Wolff und ergänzt: «Allgemein sollte insbesondere Personen mit stärkerer Tendenz zur Langeweile besonders unterstützend zur Seite gestanden werden».

Wissenschaftliche Ansprechpartner:
Dr. Wanja Wolff
Universität Bern, Institut für Erziehungswissenschaft, Abteilung für Pädagogische Psychologie
E-Mail: wanja.wolff@edu.unibe.ch, Twitter: @WolffWanja
Tel.: Telefonische Auskunft kann per E-Mail vereinbart werden

Originalpublikation:
Martarelli, Corinna S.; Pacozzi, Simona G.; Bieleke, Maik; Wolff, Wanja (2021): High Trait Self-Control and Low Boredom Proneness Help COVID-19 Homeschoolers. In: Frontiers in psychology 12, S. 594256. DOI: 10.3389/fpsyg.2021.594256.

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2021/medi…

(nach oben)


Einladung zum HNEE-Feldtag: Austausch über die Vielfalt im Wurzelraum

Jana Reimann-Grohs Hochschulkommunikation
Hochschule für nachhaltige Entwicklung Eberswalde
Die Hochschule für nachhaltige Entwicklung Eberswalde (HNEE) lädt am 15. Juni 2021 zum jährlichen Feldtag auf der Lehr- und Forschungsstation Wilmersdorf (Angermünde) ein. Wissenschaftler*innen der Hochschule wollen in die Tiefe gehen und Interessierten ihre Forschungsergebnisse präsentieren. Mit dem Bericht aus geförderten Projekten durch das MLUK, dem BMEL und BMBF sollen besonders Landwirt*innen und Berater*innen angesprochen werden. Auf den Versuchsparzellen werden Anbaustrategien vermittelt – beispielsweise wie sich eine Vielfalt im Wurzelraum herstellen lässt. Dabei wird auf Zuckerrübe, Zwischenfrüchte und Futterleguminosen gesetzt.

Der jährliche Feldtag der HNEE auf der Lehr- und Forschungsstation Wilmersdorf (Wilmersdorfer Str. 23, 16278 Angermünde) soll am 15. Juni von 10 bis 15 Uhr stattfinden und ist unter Vorbehalt als Präsenzveranstaltung geplant. Im vergangenen Jahr konnte der Feldtag nur als Online-Veranstaltung anhand von Fotos, Vorträgen und virtuellen Rundgängen durchgeführt werden. In diesem Jahr hoffen die HNEE-Projektverantwortlichen darauf, wieder vor Ort in die Tiefe gehen zu können: Im Fokus der Veranstaltung stehen aktuelle Forschungsprojekte und Ergebnisse aus den Versuchsparzellen mit besonderem Schwerpunkt auf den Anbau von Zuckerrüben, Zwischenfrüchten und Futterleguminosen.

Mit Fachvorträgen sowie einer Feldbesichtigung von Praxisflächen auf dem Gut Wilmersdorf zu ausgewählten Kulturen will man gezielt ins Gespräch über mögliche Anbaustrategien kommen. „Wir wollen die Chance nutzen, insbesondere mit Landwirt*innen und Berater*innen über Themenfelder zu diskutieren. Als Wissenschaftler*innen können wir dann Fragestellungen nachgehen, die aus der Praxis kommen und für die landwirtschaftlichen Betriebe von Bedeutung sind, um gemeinsam Lösungswege zu finden“, sagt Sabrina Scholz, wissenschaftliche Mitarbeiterin am Fachgebiet Politik und Märkte in der Agrar- und Ernährungswirtschaft und Projektverantwortliche Praxisnetzwerk Biodiversität im Ackerbau.

Innerhalb des neuen Projektes zUCKERrübe wird es mit einer Anbaufläche von ca. 1700 Quadratmetern (36 Parzellen) auf der Lehr- und Forschungsstation Gut Wilmersdorf erstmalig einen Feldversuch zum Anbau von Biozuckerrüben geben. „Das ist unser Highlight, weil wir damit der Fragestellung nachgehen, wie die mechanische Unkrautregulierung in den Zuckerrübenfeldern gelingt“, betont HNEE-Professor Ralf Bloch, im Fachbereich Landschaftsnutzung und Naturschutz auf das Fachgebiet Agrarökologie und nachhaltige Anbausysteme spezialisiert. Im Ökolandbau werde der Umwelt und nachhaltigen Ernährung zuliebe auf den Einsatz chemisch-synthetischer Pflanzenschutzmittel verzichtet, erläutert der Leiter der Lehr- und Forschungsstation Wilmersdorf. Typisch für den Ökolandbau sei aber auch ein erhöhter Arbeitsaufwand durch das notwendige mechanische Hacken zur Unkrautregulierung: „Zur einfacheren Handhabung wollen wir deshalb einen Roboter konzipieren, der das Hacken der Bio-Zuckerrüben von Hand ersetzen kann.“

Neben Fachvorträgen zum Ökolandbau und zur Optimierung der internen Kleegrasverwertung bei viehlosen Betrieben können sich die Besucher auf den Versuchsflächen an Ständen zu Anbaustrategien durch Zwischenfrüchte, Futter- und Körnerleguminosen oder alte Getreidesorten informieren. Betriebsleiter Jörg Juister bietet zu verschiedenen Uhrzeiten einen Rundgang über die Flächen des Gut Wilmersdorf an.

Projektpartner:

• Praxisnetzwerk Biodiversität im Ackerbau
Projektlaufzeit: 08/2020 bis 12/2022

• MSL-Projekt: Markt- und standortangepasste Landbewirtschaftung
unterstützt durch den Verein für Erhaltung und Rekultivierung von Nutz-pflanzen in Brandenburg (VERN)

Diese Vorhaben werden gefördert durch das Ministerium für Landwirtschaft, Umwelt und Klimaschutz des Landes Brandenburg (MLUK) im Rahmen des Entwicklungsprogramms für den ländlichen Raum in Brandenburg und Berlin. Die Zuwendung setzt sich aus ELER- und Landesmitteln zusammen.

• NutriNet: Kompetenz-und Praxis- Forschungsnetzwerk zur Weiterentwicklung des Nähstoffmanagements im Ökologischen Landbau
Dieses Vorhaben wird gefördert durch das Bundesministerium für Ernährung und Landwirtschaft aufgrund eines Beschlusses des Deutschen Bundestages im Rahmen des Bundesprogramms Ökologischer Landbau und anderer Formen nachhaltiger Landwirtschaft.
Projektlaufzeit: 03/2019 bis 02/2024
Mehr dazu unter http://www.nutrinet.agrarpraxisforschung.de

• ZUckerrübe: WIR!-Region 4.0-Verbundprojekt-zUCKERrübe
Die Anbauverfahrensentwicklung mittels innovativer Feldrobotik, UAS und Praxisforschung für Bio-Zuckerrübenanbau in der Uckermark wird gefördert vom Bundesministerium für Bildung und Forschung im Programm „WIR! Wandel durch Innovation in der Region“.
Projektlaufzeit: 02/2021 bis 07/2023

SAVE-THE-DATE
Aufgrund der aktuellen Lage wird die Veranstaltung am 15. Juni unter Vorbehalt sowie bestimmten Hygienebedingungen stattfinden. Die Teilnehmerplätze für den Feldtag, als auch für die einzelnen Vorträge und Feldbesichtigungen, sind begrenzt. Zur Anmeldung für die Veranstaltung (mit Nennung der gewünschten Teilnahme bzw. Zeit für den Rundgang) bitte den vollständigem Namen und eine E-Mailadresse an Sabrina.Scholz@hnee.de senden – eine Bestätigungsmail zur Teilnahmemöglichkeit erfolgt dann umgehend bis Anfang Juni.

Programm:

10 Uhr
Begrüßung und Vorstellung der aktuellen Forschung auf der Lehr- und Versuchsstation Wilmersdorf (Ralf Bloch, HNEE – Wiss. Leitung der Lehr- und Forschungsstation Wilmersdorf)

ab 10.20 Uhr
verschiedene Infostände auf den Versuchsflächen:

Zuckerrübe – wie gelingt die Beikrautregulierung?
Zwischenfrüchte – Welche Auswirkungen haben sie auf den Wasserhaushalt und die Nachfrucht?
Futterleguminosen – Sind Arten wie Stein-, Horn- und Bokharaklee eine Anbauoption?
Körnerleguminosen – Was bringt der Anbau von Soja und Kichererbsen?
alte Getreidesorten – Sorten und Anbaumöglichkeiten

10.40–11.20 Uhr
Vortrag: Wie gelingt der Zuckerrübenanbau im Ökolandbau? (N.N.)

11.30–12.30 Uhr und 13.30–14.30 Uhr
Rundgang über betriebseigene Flächen des Gut Wilmersdorf (Jörg Juister, Gut Wilmersdorf GbR)

12.40–13.20 Uhr
Vortrag: Optimierung der internen Kleegrasverwertung bei viehlosen Betrieben (N.N.)

Über die HNEE:
Die HNEE ist national wie international Impulsgeberin für nachhaltige Entwicklung. Rund 2.300 Studierende aus 57 Ländern studieren und mehr als 350 Beschäftigte forschen, lehren und arbeiten an der modernen Campus-hochschule inmitten einer ausgedehnten Naturlandschaft vor den Toren Berlins. An den vier Fachbereichen Wald und Umwelt, Landschaftsnutzung und Naturschutz, Holzingenieurwesen und Nachhaltige Wirtschaft kön-nen in aktuell 20 und zum Teil deutschlandweit einzigartigen Studiengängen Kompetenzen in den Bereichen Naturschutz, Forstwirtschaft, Ökolandbau, Anpassung an den Klimawandel, nachhaltige Wirtschaft, Holzbau und nachhaltiges Tourismusmanagement erworben werden. www.hnee.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ralf Bloch (wissenschaftlicher Leiter der Lehr- und Forschungsstation Wilmersdorf)
HNEE, Fachbereich Landschaftsnutzung und Naturschutz – Fachgebiet Agrarökologie und nachhaltige Anbausysteme
Telefon: +49 3334 657-362
ralf.bloch@hnee.de

Sabrina Scholz (Verantwortliche Projekt Praxisnetzwerk Biodiversität im Ackerbau)
HNEE, wissenschaftliche Mitarbeiterin am Fachgebiet Politik und Märkte in der Agrar- und Ernährungswirtschaft
Tel.: +49 3334 657-425
Sabrina.Scholz@hnee.de

Charlotte Kling (Verantwortliche Projekt NutriNet)
HNEE, wissenschaftliche Mitarbeiterin am Fachgebiet Politik und Märkte in der Agrar- und Ernährungswirtschaft
Tel.: +49 3334 657-239
Charlotte.Kling@hnee.de

Weitere Informationen:
http://www.region40.de/hf1-projekt-zuckerruebe Link zum Feldtag 2019
http://www.hnee.de/E10882 Link zur Projektseite Regionales Ackerbau-Praxisnetzwerk „Biodiversität im Ackerbau“ in Brandenburg
http://www.hnee.de/K6775 Link zur Projektseite NutriNet
http://www.region40.de/hf1-projekt-zuckerruebe Link zum Projekt zUCKERrübe

Anhang
Pressemitteilung zum Feldtag 2021 mit Logos

(nach oben)


Kraftstoffe & Energieträger der Zukunft

Dr. Regine Klose-Wolf Kommunikation und Veranstaltungen
Deutsches Maritimes Zentrum e. V.
Wie kann die Maritime Branche zur Begrenzung des Klimawandels beitragen? Deutsches Maritimes Zentrum stellt erste Zwischenergebnisse zu den Studien Kraftstoffportfolio und Wasserstoff vor.

Der Ersatz von fossilen Energieträgern durch regenerative Kraft- und Brennstoffe ist ein wichtiges Thema für die Maritime Branche. Sie steht vor einem globalen Umbruch. Um die Klimaziele zu erreichen und einen Beitrag zur Begrenzung des Klimawandels zu leisten, müssen Schiffbau, Schifffahrt und Häfen sowie die in der Logistikkette angrenzenden Bereiche rasche Erfolge erzielen.

Mehr als 200 Expert*innen haben heute darüber diskutiert, welche Brennstoffe aktuell für die globale Schifffahrt zur Verfügung stehen und welche Möglichkeiten der Nutzung und der Herstellung sowie des Transports von Wasserstoff entlang der maritimen Logistikkette es heute und perspektivisch gibt.

„Das Deutsche Maritime Zentrum hat Studien sowohl zur Kraftstoffanalyse in der Schifffahrt nach Schiffssegmenten als auch zur Wasserstoffnutzung in der Maritime Wirtschaft beauftragt, mit denen wir in die Zukunft denken wollen“, sagt Claus Brandt, Geschäftsführer des DMZ. Ziel der Studien sei es, Grundlagen für den Strukturwandel zu definieren. „Wir müssen wissen, welche alternativen Kraftstoffe global vorgehalten werden können und welche Rolle Wasserstoff in der maritimen Wirtschaft spielen kann“, fährt Brandt fort.

„Es geht darum, den Schiffsverkehr CO2-frei zu bekommen. Dafür müssen wir wissen, wo welche Brennstoffe über die Welt verteilt für welche Schiffstypen zur Verfügung stehen. Auch wollen wir zeigen, welche Kraftstoffe sich wo am besten substituieren und bunkern lassen“, erläutert Ralf Plump, Referent für Schiffs- und Meerestechnik im DMZ, der die Studie über alternative Kraftstoffe betreut.
„Wenn wir Wasserstoff effektiv einsetzen wollen, müssen wir uns jetzt Gedanken über Regularien und Logistikketten machen, dabei geht es um Fragen der Wasserstoffherstellung, seiner unterschiedlichen Nutzungsmöglichkeiten, der Speicherung, des Transports, der Distribution etc. Dabei spielen die Häfen eine zentrale Rolle,“ erklärt Katja Leuteritz, Referentin für Häfen und Infrastruktur im DMZ, die die Studie zu Wasserstoff begleitet.

Auf der Veranstaltung wurden erste Ergebnisse der Studien präsentiert. Den Auftakt bildeten zwei Impulse.
Detlef Wilde (Alfred-Wegener-Institut), stellte – in seiner Funktion als Projektdirektor für die Polarstern II – den Entscheidungsprozess für das neue Schiff dar, das so weit als möglich klimaneutral konzipiert und betrieben werden soll.

Dr. Tobias Haack (Vorstand der HADAG Seetouristik und Fährdienst AG) erklärte, wie Hamburgs ÖPNV auf dem Wasser klimaneutral wird.

Anschließend präsentierte Thomas Rust, Studienleiter zum Kraftstoff-Portfolio für den Auftragnehmer Ramboll, die Daten der Erhebung des Status quo der Kraftstoff-Arten und-Verbräuche im Schiffsverkehr weltweit. Hierbei sei auch erfasst worden, welche Alternativen es an welchem Ort gibt und zukünftig geben könnte.

Dr. Nils Meyer-Larsen (Institut für Seeverkehrswirtschaft und Logistik/ISL), der Leiter der Studie zu Wasserstoff, erläuterte erste Ergebnisse. Die Analyse der Norddeutschen, der Nationalen und der Europäischen Wasserstoffstrategie zeige eine Lücke zwischen Energiebedarf und Energieerzeugung in Deutschland auf. In einem nächsten Schritt werden in der Studie aktuelle Technologien in Bezug auf Wasserstoff in der maritimen Branche untersucht und die damit verbundenen Prozessketten von der Herstellung zum fertigen Produkt definiert.

„Wasserstoff ist das verbindende Element zwischen den beiden Projekten“, sagte Claus Brandt am Ende der Veranstaltung, „es ist die Grundlage aller alternativen Kraftstoffe und ist immer im Spiel, wenn es um CO2-freie Schiffe, Häfen und Logistik geht.“

Beide Studien sollen im Sommer 2021 abgeschlossen und veröffentlicht werden.

Sollten Sie weitere Informationen benötigen oder Rückfragen haben, wenden Sie sich gerne an uns.

Wissenschaftliche Ansprechpartner:
Katja Leuteritz, Referentin Häfen und Infrastruktur, Telefon: +49 40 9999 698 – 78
E-Mail: Leuteritz@dmz-maritim.de
Ralf Plump, Referent Schiffs- und Meerestechnik, Telefon: +49 40 9999 698 – 81
E-Mail: Plump@dmz-maritim.de

(nach oben)


Keine Ausreden mehr: EU-Kommissar Frans Timmermans unterstreicht ein effektives Recycling von Hightech-Kunststoffen

Susann Thoma Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration IZM
Nahezu 200 internationale Teilnehmende schalteten sich am 15.04.2021 zum virtuellen Workshop „Circular product development – the secrets to design for and from recycling“, welcher im Rahmen des EU-Projekts PolyCE stattfand. Die Expert*innen präsentierten ihre Erfahrungen und Erkenntnisse zur ganzheitlichen Kreislaufwirtschaft für Hightech-Kunststoffe sowie ganz nach dem Motto „Design for Recycling“ entwickelte Best-Practice-Strategien. Ein zusätzliches Highlight war der Auftritt des für den Green Deal zuständigen Kommissars für Klimaschutz und Vizepräsidenten der EU-Kommission Frans Timmermans. Ihm wurden Handlungsempfehlungen für ein effektives Kunststoff-Recycling übergeben.

2017 startete PolyCE (Post-Consumer High-tech Recycled Polymers for a Circular Economy) mit dem gemeinsamen Ziel der 20 Projektpartner*innen, einen Wandel hin zur Kreislaufwirtschaft für Kunststoffe zu aktivieren. Mit einem Blick für die gesamte Wertschöpfungskette gilt es, bereits genutzte Hightech-Kunststoffe, wie sie in Handys, Fernsehgeräten, Staubsaugern und Co. zu finden sind, als Rohstoffquelle zu nutzen und somit gänzlich wiederzuverwenden. Nicht nur aus Forschungszwecken sind diese Ziele höchst aktuell, denn auch die Europäische Kommission sieht die Notwendigkeit einer Bewegung hin zur Kreislaufwirtschaft und verabschiedete eine europaweite Strategie, mithilfe derer bis 2025 zehn Millionen Tonnen recycelte Kunststoffe in Form von neuen Produkten zurück auf den Markt finden sollen.

Im aktuellen Workshop lag der Fokus vor allem auf dem Design von WEEE-Kunststoffen, die durch mechanisches Recycling gewonnen wurden. In Keynote-Vorträgen erläuterten die Expert*innen die Herausforderungen der letzten vier Jahre, zeigten aber auch, dass das Recycling von Kunststoffen keine simple, aber lösbare Aufgabe ist – ein klares Signal an Hersteller, zukünftig intensiver recycelte Kunststoffe einzusetzen.

Eine besondere Ehre war es, dass Frans Timmermans, einer der drei geschäftsführenden Vizepräsidenten der EU-Kommission als Verantwortlicher für den Green Deal, am interaktiven Workshop teilnahm. Virtuell überreichte ihm die Koordinatorin des Projekts und Umwelt-Expertin am Fraunhofer IZM, Gergana Dimitrova, die im Projekt entstandene Publikation „Design for Recycling“, welche unter anderem praxisnahe Richtlinien für Designer*innen beinhaltet.

Frans Timmermans: „Wir müssen uns auf eine Kreislaufwirtschaft zubewegen. Der Wunsch, der erste klimaneutrale Kontinent zu sein, ist kein Ziel um seiner selbst willen. Er ist Teil unserer Einsicht, dass wir innerhalb der Grenzen unseres Planeten leben müssen.

Wir müssen auch sicherstellen, dass unsere Produkte die höchsten Nachhaltigkeitsstandards einhalten. Wir brauchen langlebige, wiederverwendbare und reparierbare Produkte. Solche, die aus recycelten Materialien hergestellt und wiederum für hochwertiges Recycling ausgelegt sind. Dies ist eine wesentliche Diskussion, zu der Ihr Projekt einen hochaktuellen Beitrag leistet. Das Buch, das Sie heute vorstellen, zeigt glasklar, wie wir diese Ziele erreichen können.

Es ist klar: Nur mit einer Kreislaufwirtschaft können wir Klimaneutralität erreichen.“

Bis in den Nachmittag konnten in einer abwechslungsreichen Melange aus Vorträgen, Fallbeispielen und offenen Fragerunden unterschiedliche Ansätze präsentiert werden, die aufzeigten, wie eine Hinwendung zur Wiederverwendung recycelter Kunststoffe schrittweise umgesetzt werden kann und welche Designempfehlungen zu berücksichtigen sind. Die Richtlinien schließen dabei fünf Kategorien ein:
1. die Vermeidung von Gefahrstoffen
2. einen einfachen Zugang zu umweltbelastenden Produktkomponenten
3. die Verwendung recycelter Materialien
4. die Verwendung recycelbarer Materialien
5. die Verwendung von Materialkombinationen und Verbindungen, die einen einfachen Zugriff auf diese Materialien ermöglichen.

Diese Richtlinien gelten als erster abgestimmter Wegweiser für die Elektronik-Industrie. Sie werden Entscheidungsträger*innen aus dem Produktdesign, der Fertigung, aber auch auf politischen Ebenen helfen, an der Entwicklung nachhaltiger Produkte mitwirken zu können.

Das PolyCE-Konsortium besteht aus: KU Leuven, Ona Product SI, Philips, ECODOM, dem European Environmental Bureau (EEB), Ghent University, Imagination Factory, KunststoffWeb, MGG Polymers, PEZY Group, Prolabin & Tefarm, SITRAPLAS GmbH, TECNALIA Research & Innovation, TU Berlin, UL Environment, University of Northampton: Institute of Logistics, Infrastructure, Supply and Transportation, Whirlpool, UNU-VIE SCYCLE und dem Fraunhofer IZM.

Die Richtlinien zum Download: https://www.polyce-project.eu/results/

Wissenschaftliche Ansprechpartner:
Gergana Dimitrova
Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration IZM
Gustav-Meyer-Allee 25
13355 Berlin

Telefon +49 30 46403-7963
gergana.dimitrova@izm.fraunhofer.de

Originalpublikation:
https://www.izm.fraunhofer.de/de/news_events/tech_news/circular-product-developm…

Weitere Informationen:
https://www.polyce-project.eu/

(nach oben)


Grüner Wasserstoff: Israelisch-deutsches Team löst das Rätsel um Rost

Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Metalloxide wie Rost eignen sich als Photoelektroden, um „grünen“ Wasserstoff mit Sonnenlicht zu erzeugen. Doch trotz jahrzehntelanger Forschung an diesem preisgünstigen Material sind die Fortschritte begrenzt. Ein Team am HZB hat nun mit Partnern von der Ben-Gurion-Universität und dem Technion, Israel, die optoelektronischen Eigenschaften von Rost (Hämatit) und anderen Metalloxiden in bisher nicht gekanntem Detail analysiert. Ihre Ergebnisse zeigen, dass der maximal erreichbare Wirkungsgrad von Hämatit-Elektroden deutlich geringer ist als bisher angenommen. Die Studie gibt darüber hinaus konkrete Hinweise, wie sich neue Materialien für Photoelektroden realistischer bewerten lassen.

Wasserstoff wird im Energiesystem der Zukunft in großen Mengen als Energieträger und Rohstoff benötigt. Dafür muss Wasserstoff jedoch klimaneutral erzeugt werden, zum Beispiel über eine so genannte Photo-Elektrolyse, in der Wasser in seine Elemente Wasserstoff und Sauerstoff gespalten wird. Die nötige Energie liefert dafür das Sonnenlicht. Als Photoelektroden kommen halbleitende Materialien in Frage, die Sonnenlicht in Strom umwandeln und im Wasser stabil bleiben. Zu den besten Kandidaten für preisgünstige und stabile Photoelektroden gehören Metalloxide. Einige dieser Metalloxide besitzen zudem katalytisch aktive Oberflächen, die die Bildung von Wasserstoff an der Kathode bzw. Sauerstoff an der Anode beschleunigen.

Warum bleibt Rost unter den berechneten Möglichkeiten?
Im Fokus der Forschung steht seit langem Hämatit (α-Fe2O3), das weithin unter dem Namen Rost bekannt ist. Hämatit ist stabil im Wasser, extrem preiswert und eignet sich gut als Photoanode mit nachgewiesener katalytischer Aktivität für die Sauerstoffentwicklung. Obwohl seit etwa 50 Jahren an Hämatit-Photoanoden geforscht wird, liegt die Photostrom-Umwandlungseffizienz bei weniger als 50 Prozent des theoretischen Maximalwertes. Zum Vergleich: Der Wirkungsgrad des Halbleitermaterials Silizium, das heute fast 90 Prozent des Photovoltaikmarktes dominiert, liegt bei etwa 90 Prozent des theoretischen Maximalwertes. Über die Gründe rätselt man seit langem. Was genau wurde übersehen? Woran liegt es, dass trotz langer Forschung nur bescheidene Steigerungen des Wirkungsgrads erreicht werden konnten?

Israelisch-Deutsche Kooperation löst das Rost-Rätsel
Nun aber hat ein Team um Dr. Daniel Grave (Ben-Gurion-Universität), Dr. Dennis Friedrich (HZB) und Prof. Dr. Avner Rothschild (Technion) eine Erklärung dafür geliefert und in Nature Materials publiziert. Die Gruppe am Technion untersuchte, wie die Wellenlänge des absorbierten Lichts die photoelektrochemischen Eigenschaften der Hämatit-Dünnschichten beeinflusst, während das HZB-Team mit zeitaufgelösten Mikrowellenmessungen die Beweglichkeit der Ladungsträger in dünnen Rostschichten bestimmte.

Wichtige physikalische Eigenschaft des Materials
Durch die Kombination ihrer Ergebnisse gelang es den Forschenden, eine grundlegende physikalische Eigenschaft des Materials zu extrahieren, die bei der Betrachtung anorganischer Solarabsorber bisher vernachlässigt wurde: Das Spektrum der Photogenerationsausbeute. „Grob gesagt bedeutet dies, dass nur ein Teil der absorbierten Licht-Energie im Hämatit auch mobile Ladungsträger erzeugt, der Rest erzeugt eher lokalisierte Ladungsträger und geht somit verloren“, erklärt Grave.

Obergrenze neu berechnet
„Dieser neue Ansatz gibt einen experimentellen Einblick in die Wechselwirkung zwischen Licht und Material in Hämatit und erlaubt es, das Spektrum in produktive und nicht-produktive Absorption zu unterscheiden“, erklärt Rothschild. „Damit konnten wir zeigen, dass die effektive Obergrenze für die Umwandlungseffizienz von Hämatit-Photoanoden deutlich niedriger ist als bisher berechnet“, sagt Grave. Nach der neuen Berechnung kommen die heutigen „Champions“ unter den Hämatit-Photoanoden schon recht nahe an das theoretisch mögliche Maximum heran. Viel besser geht es also nicht mehr.

Realistische Einschätzung von neuen Materialien
Der Ansatz wurde auch erfolgreich auf das Modellmaterial TiO2 und das derzeit beste Metalloxid-Photoanodenmaterial BiVO4 angewendet. „Mit diesem neuen Ansatz haben wir unserem Arsenal ein mächtiges Werkzeug hinzugefügt, das es uns ermöglicht, das tatsächliche Potenzial von Photoelektrodenmaterialien zu ermitteln. Wenn wir dies auf neuartige Materialien anwenden, wird dies hoffentlich die Entdeckung und Entwicklung der idealen Photoelektrode für die solare Wasserspaltung beschleunigen. Es würde uns auch erlauben, ’schnell zu scheitern‘, was bei der Entwicklung neuer Absorbermaterialien wohl ebenso wichtig ist“, so Friedrich.

Originalpublikation:
Nature Materials (2021): Extraction of mobile charge carrier photogeneration yield spectrum of ultrathin-film metal oxide photoanodes for solar water splitting

Daniel A. Grave, David S. Ellis, Yifat Piekner, Moritz Kölbach, Hen Dotan, Asaf Kay, Patrick Schnell, Roel van de Krol, Fatwa F. Abdi, Dennis Friedrich and Avner Rothschild

DOI: 10.1038/s41563-021-00955-y

(nach oben)


Papier-basierter Covid-19-Antikörper-Test – TU-Forschende veröffentlichen ihre Entwicklung in „Scientific Reports“

Bettina Bastian Stabsstelle Kommunikation und Medien
Technische Universität Darmstadt
Der Arbeitskreis für Angewandte Biochemie an der Technischen Universität Darmstadt unter Leitung von Professor Harald Kolmar forscht zur Generierung maßgeschneiderter Antikörper für diagnostische und therapeutische Anwendungen. In einem Projekt im Rahmen der strategischen Kooperation zwischen der TU Darmstadt und dem Unternehmen Merck entwickelte der Doktorand Adrian Elter innovative Papier-basierte Schnelltests zur Detektion von SARS-CoV-2 spezifischen Antikörpern. Die Ergebnisse wurden jetzt publiziert.

In sogenannten „lateral flow tests“ (LFTs), bekannt als Corona-Schnelltests oder Schwangerschaftstests, wird chemisch modifizierte Zellulose in Form von Nitrozellulose-Membranen für den Kapillartransport der Probe verwendet. Nitrocellulose ist schwer biologisch abbaubar und in der Herstellung deutlich aufwändiger und teurer als herkömmliches Zellulose-basiertes Papier. „Deshalb lag unser Fokus darauf, Nitrozellulose durch biologisch abbaubares Papier zu ersetzen“, so Professor Harald Kolmar. „Papier als Trägermaterial für solche Tests eignete sich bisher nicht, da bei solchen Teststreifen auf der Kontroll- und Testlinie spezielle Nachweis-Antikörper in großer Anzahl aufgebracht werden müssen. Antikörper haften allerdings schlecht an Papier, aber sehr gut an Nitrozellulose. Für dieses Problem haben wir eine technische Lösung gefunden. Unsere neuartige Technologie basiert auf der Kopplung eines stark Zellulose-bindenden Proteins aus Bakterien an Antikörper, wodurch diese auf Papiersubstraten ausgezeichnet anhaften“, so fasst Kolmar die Ergebnisse der Arbeit im Rahmen der bisherigen „Merck Lab@TU Darmstadt“-Aktivitäten zusammen.

Die Modellexperimente mit einem Papier-basierten Schwangerschaftstest und einem Covid19-Antikörper-Schnelltest wurden im Fachjournal Scientific Reports der Nature Publishing Group veröffentlicht.

Schnelltests sind seit Jahrzehnten nicht mehr aus der klinischen Diagnostik, Umweltanalytik und Heimanwendung wegzudenken. Milliarden Schnelltests werden sowohl für den Nachweis einer Infektion mit dem Coronavirus eingesetzt, als auch zur Überprüfung, ob Patienten nach einer Infektion oder Impfung Antikörper gegen den Erreger gebildet haben. „Wir dürfen gerade in dieser Zeit nicht vergessen, dass eine Minimierung der Kosten für solche Schnelltests insbesondere auch für die Anwendung in Gesundheitssystemen einkommensschwacher Länder einen wichtigen Beitrag zur Gesundheitsförderung und nachhaltigen Ressourcennutzung leisten kann“, betont Kolmar. Der Merck-Mitarbeiter und Projektleiter des Merck Labs, Gerhard Schwall, ergänzt: „Das Projekt macht deutlich, wie eine intensive Zusammenarbeit zwischen Universität und Unternehmen zu nachhaltigen Lösungen führt. Die enge Partnerschaft zwischen Merck und TU Darmstadt werden wir in Zukunft in Form eines ,Sustainability Hubs‘ in den Fokus der Nachhaltigkeit stellen.“

Publikation
Carbohydrate binding module-fused antibodies improve the performance of cellulose-based lateral flow immunoassays. Scientific Reports volume 11, Article number: 7880 (2021): https://go.nature.com/3djVxFf
Wissenschaftlicher Ansprechpartner
Professor Dr. Harald Kolmar
harald.kolmar@tu-darmstadt.de
+49 6151 16-21291

Über die TU Darmstadt
Die TU Darmstadt zählt zu den führenden Technischen Universitäten in Deutschland. Sie verbindet vielfältige Wissenschaftskulturen zu einem charakteristischen Profil. Ingenieur- und Naturwissenschaften bilden den Schwerpunkt und kooperieren eng mit prägnanten Geistes- und Sozialwissenschaften. Drei Forschungsfelder prägen das Profil der TU Darmstadt: I+I (Information and Intelligence), E+E (Energy and Environment) sowie M+M (Matter and Materials). Wir entwickeln unser Portfolio in Forschung und Lehre, Innovation und Transfer dynamisch, um der Gesellschaft kontinuierlich wichtige Zukunftschancen zu eröffnen. Daran arbeiten unsere 312 Professorinnen und Professoren, rund 4.500 wissenschaftlichen und administrativ-technischen Mitarbeiterinnen und Mitarbeiter sowie rund 25.400 Studierenden. Im Netzwerk Unite!, das Universitäten aus sieben europäischen Ländern vereint, treibt die TU Darmstadt die Idee der europäischen Universität voran. Mit der Goethe-Universität Frankfurt und der Johannes Gutenberg-Universität Mainz bildet die TU Darmstadt die strategische Allianz der Rhein-Main-Universitäten.

http://www.tu-darmstadt.de
MI-Nr. 30/2021, AK Kolmar/Merck Lab

Wissenschaftliche Ansprechpartner:
Professor Dr. Harald Kolmar
harald.kolmar@tu-darmstadt.de
+49 6151 16-21291

Originalpublikation:
Carbohydrate binding module-fused antibodies improve the performance of cellulose-based lateral flow immunoassays. Scientific Reports volume 11, Article number: 7880 (2021): https://go.nature.com/3djVxFf

(nach oben)


Wohlhabendere Länder im Vorteil

Pia Barth Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
195 Vertragspartner haben auf dem Pariser Klimagipfel 2015 Maßnahmen gegen den Klimawandel beschlossen. Wer in der Folge wieviel Treibhausgase reduziert hat, wird derzeit weltweit in zahlreichen Studien untersucht. Doch an welchen ethischen Kriterien wird der Erfolg der Maßnahmen gemessen? Eine Analyse der Prüfkriterien legt nun ein Zusammenschluss internationaler Philosophen sowie Sozial- und Politikwissenschaftler vor, denen auch Prof. Dr. Darrel Moellendorf, Politikwissenschaftler an der Goethe-Universität, angehört. Die Wissenschaftler fordern ethische Richtlinien für Kontrollstudien zu weltweiten Maßnahmen gegen den Klimawandel.

Zehn von sechzehn untersuchten Studien zur Bewertung der weitweiten Anstrengungen gegen den Klimawandel urteilen nach Kriterien, die „voreingenommen und stark vereinfachend sind“. Damit bevorteilten sie vor allem die wohlhabenden Länder der Erde. Zu diesem Schluss kommen 18 internationale Wissenschaftlerinnen und Wissenschaftler in ihrer Studie „Ethical choices behind quantifications of fair contributions under the Paris Agreement“, an der auch der Politikwissenschaftler Prof. Dr. Darrel Moellendorf beteiligt ist. Im Vorfeld des für November in Glasgow geplanten Weltklimagipfels fordern sie deshalb, diese Kriterien transparent zu machen und politisch zur Diskussion zu stellen.

„Viele dieser Bewertungen von Klimagerechtigkeit gelten als neutral und unabhängig, was sie aber nicht sind und vielleicht auch gar nicht sein können“, sagt Darrel Moellendorf, Politikwissenschaftler mit dem Schwerpunkt Umweltethik an der Goethe-Universität. „Wir müssen über diese Kriterien nachdenken, bevor auf Grundlage dieser Studien neue Beschlüsse gefasst werden. Andernfalls wird es weiterhin keine Klimagerechtigkeit geben. Und Klimagerechtigkeit bedeutet: Länder, die eine größere Kapazität haben, gegen den Klimawandel vorzugehen, müssen auch größere Anstrengungen unternehmen.“

Selbst der anerkannten und als unabhängig geltenden wissenschaftlichen Analyse „Climate Action Tracker“ (CAT), die von Medien, Regierungen und der Zivilgesellschaft zur Einschätzung klimagerechter Schritte herangezogen wird, attestieren die Wissenschaftlerinnen und Wissenschaftler Kriterien, die wohlhabendere Länder bevorzugen. So liege etwa auch in CAT-Analysen das in der Europäischen Union praktizierte Grandfathering-Prinzip zugrunde – wenn auch „tief im Innern ihres Maschinenraums versteckt“, so die Wissenschaftler: Nach dem Grandfathering-Prinzip erhalten Anlagen kostenlose Zertifikate gemäß ihren bisherigen Emissionen. Dieses Prinzip benachteilige Anlagen, die früher weniger durch Emissionen zum Klimawandel beigetragen hätten. Zu einer Schieflage in der Bewertung von Klimagerechtigkeit führe zudem auch, dass die „Not“ mancher Länder, also deren schwächere ökonomische Lage, bei der Beurteilung ihrer Klimagerechtigkeit nicht berücksichtigt werde.

„Die Studien sollten diese unterschiedlichen Ausgangslagen der Länder offenlegen“, sagt Moellendorf. „Auch sollte die größere Verantwortung der Industrienationen in die Bewertung von klimagerechtem Handeln einfließen. Und wir sollten uns darüber klar sein, dass es eine völlig neutrale Bewertung von Klimagerechtigkeit nicht gibt. Nach welchen Kriterien wir sie beurteilen, sollte aber transparent gemacht werden und auch politisch diskutiert werden.“

Neben dem Politikwissenschaftler Prof. Dr. Darrel Moellendorf der Goethe-Universität sind folgende Wissenschaftlerinnen und Wissenschaftler an der Studie beteiligt:
Kate Dooley, University of Melbourne; Christian Holz, Carleton University,Ottawa; Sivan Kartha, Stockholm Environment Institute, Boston; Sonja Klinsky, Arizona State University; Timmons Roberts,, Brown University, Rhode Island; Henry Shue, University of Oxford; Harald Winkler, University of Cape Town; Tom Athanasiou, Climate Equity Reference Project, Berkeley; Simon Caney, University of Warwick; Elizabeth Cripps, University of Edinburgh; Navroz K. Dubash, Centre for Policy Research, New-Delhi; Galen Hall, Brown University; Paul G. Harris, Education University of Hong Kong; Bård Lahn, CICERO Center for International Climate Research, Oslo; Benito Müller, University of Oxford; Ambuj Sagar, Indian Institute of Technology, Delhi; Peter Singer, Princeton University.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Darrel Moellendorf
Institut für Politikwissenschaft/ Forschungsverbund „Normative Ordnungen“
Goethe-Universität Frankfurt
E-Mail: darrel.moellendorf@normativeorders.net

Originalpublikation:
Publikation in „Nature Climate Change“:
https://dx.doi.org/10.1038/s41558-021-01015-8

(nach oben)


Kampf gegen Mikroplastik: Neues Verfahren zur Herstellung von Dämmstoff aus Kunststoffabfällen

Magister Susanne Pitro Presse und Veranstaltungsmanagement
Freie Universität Bozen
Ein Schaumstoff zur akustischen und thermischen Dämmung von Gebäuden, der aus Mikroplastik im Meer gewonnen werden kann: Mit dieser Innovation will der Forscher Marco Caniato von der Fakultät für Naturwissenschaften und Technik einen konkreten Beitrag zur Reduzierung des Plastikmülls in unseren Ozeanen leisten. Das Verfahren beruht auf einem Biopolymer, das aus der Verarbeitung von Rotalgen gewonnen wird.

Sekundäres Mikroplastik, also Plastikpartikel, die kleiner als 5 Millimeter sind, und aus weggeworfenen Plastikflaschen und diversen Kunststoffverpackungen entstehen, macht etwa 68 bis 81% des Mikroplastiks in unseren Ozeanen aus (Quelle: Europäisches Parlament). Laut den Vereinten Nationen befanden sich im Jahr 2017 bis zu 51 Billionen solcher Plastikpartikel in den Weltmeeren, das seien 500 Mal mehr Partikel als Sterne in unserer Galaxie. Angesichts dieser weltweiten Problematik sind die Aufbereitung und der Lebenszyklus von Kunststoffen zu einer riesigen Herausforderung geworden, von der die biologische Vielfalt der Meere und das Überleben vieler Fischarten abhängt. Darüber hinaus weiß man noch nicht genau, wie sehr diese Mikropartikel über die Nahrungskette auch dem Menschen schaden.

Eine vielversprechende Innovation in diesem Bereich kommt nun von Marco Caniato, einem Forscher und Dozenten der Fakultät für Naturwissenschaften und Technik aus der Forschungsgruppe rund um Prof. Andrea Gasparella: Seine patentierte Erfindung beruht auf der Nutzung eines Biopolymers, das sich als extrem effizientes thermisches und akustisches Isoliermaterial erwiesen hat. In Zusammenarbeit mit der Universität Triest entwickelte Caniato dieses Polymer aus einem Extrakt der Meeresalge Agar Agar, ein Polysaccharid, das häufig als rein pflanzliches Geliermittel mit der Konsistenz eines Gels verwendet wird, und in diesem Fall nach Zugabe von Kalziumkarbonat mit pulverisiertem Kunststoff vermischt wird.

Um dem in den Ozeanen am weitesten verbreiteten Mikroplastik möglichst nahe zu kommen, verwendeten die Forscher Kunststoffabfälle aus dem Industrie- und Haushaltsbereich (Polyethylen, PET-Flaschen, expandiertes und geschäumtes Polystyrol). Nach dem Gelieren werden die Proben 12 Stunden lang bei -20 °C eingefroren und anschließend gefriergetrocknet, um das Wasser zu entfernen. Das Endprodukt ist ein poröses Material, das zum Beispiel als Alternative zu Steinwolle verwendet werden kann. Doch nicht nur das Produkt selbst, auch sein Herstellungsprozess, ist umweltfreundlich. So wird selbst das Wasser wiederverwendet, das am Ende der Gefriertrocknung nach dem Auftauen abgegeben wird.

Die Entwicklung solch innovativer Technologien zur Abfallverwertung sind in der Wissenschaft keine Neuigkeit. So wurde beispielsweise ermöglicht, Glaspulver als Füllstoff für Beton oder Kunststoffabfälle als Füllstoff für Asphaltmischungen zu verwenden. Neu ist dagegen die Idee, die Plastikpartikel aus unseren Meeren zu verwerten. Dies scheiterte bisher auch an der Vermischung dieser Partikel mit anderen Abfällen sowie Meersalz, die eine Wiederverwertung schwierig machen. „Unsere Charakterisierungstests haben bestätigt, dass unser Produkt hervorragende Dämmeigenschaften hat und problemlos mit herkömmlichen Dämmstoffen wie Steinwolle oder Polyurethanschaumstoffen mithalten kann”, unterstreich Caniato. „Wir haben bewiesen, dass es mit einem nachhaltigen, sauberen und ökologischem Ansatz möglich ist, Meeresabfälle zu recyceln und daraus ein sowohl ökologisch wie auch wirtschaftlich überzeugendes Produkt herzustellen.“

Wissenschaftliche Ansprechpartner:
Marco Caniato
Free University of Bolzano
marco.caniato@unibz.it
+39 0471 017145

Originalpublikation:
https://www.sciencedirect.com/science/article/pii/S2214993721000294?via%3Dihub

Anhang
So sieht das recycelte Material aus

(nach oben)


Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik

Beate Rogler MATH+, Presse- und Öffentlichkeitsarbeit, Sekretariat MA 2-2
MATH+ Das Forschungszentrum der Berliner Mathematik
Wie Modellierungen und Simulationen von zwei Berliner Forschungsgruppen helfen, Zukunftsprognosen vorauszusagen und Entscheidungsträger zu unterstützen. Der Ansatz ist der gleiche, der Unterschied liegt in den Dimensionen. Die Arbeitsgruppe um Edda Klipp von der Humboldt-Universität konzentriert sich mit komplexen Modellen auf eine Kleinstadt; die Teams um Kai Nagel von der TU Berlin sowie Christof Schütte und Tim Conrad vom Zuse-Institut und der FU Berlin beziehen sich auf die Großstadt Berlin und Mobilfunkauswertungen. Der Standort Berlin ist weltweit bekannt für Angewandte Mathematik. Dafür steht u.a. auch der Exzellenzcluster MATH+, an dem die gesamte Berliner Mathematik beteiligt ist.

Was passiert, wenn wir alle zu Hause bleiben, wenn wir nur zur Arbeit gehen, die Schulen und Kindergärten wieder öffnen? Alles Fragen, die uns seit einem Jahr umtreiben und deren Auswirkungen wir auch täglich in den Medien verfolgen können. Diese Fragen fließen in die mathematischen Berechnungen von zwei großen Berliner Forschungsgruppen ein. Die dabei verwendeten Berechnungsmodelle beruhen auf der gleichen Methode: der agentenbasierten Modellierung. Unter Agenten versteht man hierbei virtuelle Avatare die sich in einer Computersimulation auf Basis von gegebenen Regeln bewegen und Aktivitäten ausüben. So betont Björn Goldenbogen von der Klipp-Gruppe: „Realistische Aussagen kann nur ein agentenbasiertes Modell treffen, da es die Infektionsdynamik über die Mensch-zu-Mensch-Interaktion darstellen kann.“

Die Arbeitsgruppe um Edda Klipp von der Humboldt-Universität konzentriert sich auf die Kleinstadt Gangelt, die mit 11.000 Einwohnern in der Nähe von Heinsberg liegt. Grundlagen ihres Modells sind die Agenten in ihrer typischen Wohnsituation und mit ihren typischen Tagesabläufen, wie sie in Deutschland üblich sind. Daraus entstand ein sehr komplexes Modell mit detaillierten Interaktionsmustern. Die dafür verwendeten Daten sind im Internet frei zugänglich, wie über Open Street Map oder von Daten des Robert Koch-Instituts (RKI). Wer sich hinter den Agenten verbirgt, bleibt allerdings anonym und eigene Daten wurden nicht erhoben.

Agentenbasierte Modelle können dabei über verschiedene Szenarien die Auswirkungen der Kontrollmaßnahmen und der Impfstrategie abbilden. Wichtige Ausgangsfragen sind: Was verhindert eine Infektionswelle am besten? Welche Faktoren tragen in welchem Maße zur Infektionsdynamik bei, wie etwa das Öffnen der Gastronomie? Wie wirken sich nicht-pharmazeutische Gegenmaßnahmen, wie zum Beispiel Schließungen von Schulen und Maskentragen, auf die Infektionsdynamik aus? Die unterschiedlichen Szenarien für den Lockdown werden unter diesen Fragestellungen simuliert und aus den so im Modell entstandenen Bewegungsmustern und Interaktionen können Rückschlüsse auf die Realität gezogen werden. Interessant war für die Klipp-Gruppe beispielsweise zu sehen, wie die Infektionswelle in die Altersgruppen wandert. Am Anfang stecken sich laut ihrem Modell die Kinder und jungen Menschen an. Die Älteren werden zuletzt infiziert und tragen kaum zum Treiben der Pandemie bei, da ihre Bewegungsmuster nicht sehr aktiv sind und sie weniger mit jungen Menschen zusammenkommen. Was die Frage nach einem Lockdown angeht, war laut Edda Klipp das wichtigste Ergebnis die sogenannte Bi-Modalität: „Beschließt man einen Lockdown, sollte man ihn erstens möglich früh beginnen und lange genug durchhalten.“

Als die Thematik Impfstoff aufkam, versuchte die Klipp-Gruppe, auch die Impfstrategien und ihre Auswirkungen am Beispiel von Gangelt vorherzusagen. Was passiert, wenn man nach der natürlichen Infektionswelle impft, also zuerst die am schnellsten und stärksten infizierte Gruppe? Macht es einen Unterschied, ob die Schulen geöffnet oder geschlossen sind, wenn man nach Alter impft? Ein interessantes Ergebnis dabei war, dass die Todeszahlen auch sinken, wenn die Schulen offenbleiben. Ein anderes besagt, dass eine Impfstrategie, die am Anfang die Menschen mit den höchsten Interaktionen impft, die sogenannte Herdenimmunität am frühesten erreichen lässt.

Das Modell der Klipp-Arbeitsgruppe ist öffentlich und frei zugänglich und für jeden kleineren Ort in Deutschland als generelles Konzept anwendbar, auch für zukünftige Pandemien. Die Grundidee am Anfang war, lokale Hilfestellungen zu geben, ohne dass damit kommerzielle Zwecke verfolgt werden. So können Bürgermeister kleinerer Gemeinden das Modell herunterladen und ihre lokalen Daten eingeben, um die Prognosen zu sehen und die beste Strategie für ihren Ort zu erhalten.

Die Forschungsgruppen um Kai Nagel (TU Berlin), Christof Schütte und Tim Conrad (ZIB/FU Berlin) arbeiten in ihren agentenbasierten Berechnungsmodellen mit einer sehr großen Anzahl an Agenten. Hier werden die Bewegungsmuster von ca. ein Million Agenten, hier die Menschen in Berlin, durchgerechnet. Das sind 25% der Berliner Bevölkerung, wofür ein Hochleistungsrechner im Zuse-Institut nur etwas weniger als eine Stunde braucht. Agentenbasierte Modelle erlauben es auch, viele Regeln einsetzen und individuelle Entscheidungen mit einzubeziehen, womit ein umfangreicheres Spektrum von Effekten dargestellt werden kann.

Die Grundlage für das Modell liefert eine Software, die in Kai Nagels Gruppe entwickelt wurde, und die für die Verkehrsplanung und Mobilitätsforschung gedacht war und ist. Das Alleinstellungsmerkmal des Projektes im Gegensatz zu anderen Modellen ist die Verwendung realer tagesaktueller Daten über das Aktivitätsniveau der Bevölkerung. Dies wird aus Mobilfunkdaten abgeleitet. Auf Basis dieser realen Daten kann das agentenbasierte Modell immer wieder an die jeweils wirkliche Situation angepasst werden. Damit können mit diesem Modell Vorhersagen getroffen werden, wie sich die Infektionszahlen entwickeln, wenn entsprechende Restriktionen gelten und die Bürger*innen diese befolgen. Diese Agenten sind dann tatsächlich das Abbild bzw. das Modell, der digitale Zwilling, dieser Stadt.

Eine Erweiterung des Modells macht es möglich, dass alles, was eine Übertragung bzw. Weitergabe beinhaltet, z.B. Viren, Informationen, Fake News oder Gegenstände, damit berechnet werden kann. Das Modell kann ebenfalls frei verfügbar heruntergeladen werden und steht gemäß dem Open Source Prinzip auch anderen Wissenschaftler*innen zur Verfügung.

Natürlich gibt es laut Tim Conrad auch „die Grenzen der Modellierung, was die Zukunftsprognosen angeht, denn Modelle sagen in den meisten Fällen das vorher, was im Rahmen der vorgegebenen Regeln möglich ist. Wenn die Regeln vorschreiben, dass nach einer Infektion drei Tage zu Hause geblieben wird, dann macht der Agent in der Simulation das auch. Wenn das aber in der Realität nicht passiert, dann sind die vorhergesagten Zahlen offensichtlich anders.“ Das bedeutet, dass man die Prognosen von einem Modell natürlich nicht generell als „wahr“ annehmen darf, sondern immer prüfen und bewerten muss.

Das ganze Projekt ist dabei, laut Conrad, ein umfassender Teamerfolg, denn: „Dahinter steht ein großes Team, das viel Zeit investiert hat.“ Zeit, die nicht unbedingt in die wissenschaftliche Karriere einfließt, sondern dem Bedürfnis geschuldet ist, das mathematische Wissen für die Gesellschaft einzusetzen. In dem vom Bundesministerium für Bildung und Forschung (BMBF) finanzierten Projekt arbeiten bis zu 15 Berliner Wissenschaftler*innen.

Der grundlegende Ansatz ist bei beiden Forschungsgruppen somit gleich und basiert auf der gleichen Methodik, der agentenbasierten Modellierung. Der Unterschied liegt in der jeweiligen Größe des Untersuchungsortes und der Ausprägung bzw. in den zugrundeliegenden Daten. Für alle Wissenschaftler*innen gelten aber die gleichen Ziele: Mit Hilfe der Mathematik die Pandemie besser zu verstehen und somit Vorhersagen treffen zu können, um Handlungsanweisungen und Lösungsvorschläge anzubieten.

Wissenschaftliche Ansprechpartner:
nagel@vsp.tu-berlin.de
schuette@mi.fu-berlin.de
conrad@zib.de

Weitere Informationen:
https://mathplus.de/ – Webseite des Exzellenzclusters und Forschungszentrums der Berliner Mathematik MATH+
https://mathplus.de/news/covid-19-related-research/ – Covid-19 bezogene Forschungsprojekte bei MATH+
https://senozon.com/modus-covid/ – Forschungsgruppe MODUS-COVID: Modellgestützte Untersuchung von Massnahmen zur Eindämmung von COVID-19 (Nagel/Schütte)
https://www.zib.de/members/schuette – C. Schütte (Zuse-Institut)
https://www.zib.de/members/conrad – T. Conrad (Zuse-Institu)

Anhang
Medieninformation: Mathematik in der Pandemie – Hilfestellungen in der Krise durch die Berliner Mathematik

(nach oben)


Zuverlässig messen, ob Flüssen und Seen die Luft ausgeht

Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Abwässer tragen große Mengen organischer Substanzen in Flüsse und Seen, die zu starkem Bakterienwachstum und Sauerstoffmangel führen. Bisherige Messverfahren können diese organische Belastung nicht genau bestimmen. Ein neues Verfahren, das von Experten des Helmholtz-Zentrums Hereon mitentwickelt wurde, soll künftig ein eindeutiges Bild vom Zustand der Gewässer liefern. Die Arbeit wurde jetzt im Fachmagazin Science Advances veröffentlicht.

Wenn Abwässer aus Dörfern und Städten in Flüsse und Seen fließen, dann gelangen mit den Fäkalien große Mengen an Fetten, Eiweißen, Zuckern und anderen kohlenstoffhaltigen – organischen – Substanzen in die Natur. Diese organischen Substanzen werden von Bakterien abgebaut, die Sauerstoff verbrauchen. Je größer die Abwassermenge ist, desto besser gedeihen die Bakterien. Doch damit nimmt der Sauerstoffgehalt des Wassers immer weiter ab, bis schließlich den Fischen, Muscheln oder Würmern buchstäblich die Luft ausgeht. Weltweit sind dadurch in vielen Flüssen und Seen sauerstoffarme Todeszonen entstanden.

Bislang kein Goldstandard für Messungen
Um zu messen, wie stark die Gewässer mit organischen Stoffen aus Fäkalien belastet sind, nehmen Behörden und Umweltforscher regelmäßig Wasserproben. Weit verbreitet ist eine Messmethode, die mithilfe einer chemischen Reaktion den Gehalt an organischen Substanzen bestimmt. Wie ein internationales Team von Wissenschaftlerinnen und Wissenschaftlern jetzt zeigt, liefert diese etablierte Methode jedoch Werte, aus denen sich der tatsächliche Verschmutzungsgrad des Wassers kaum ableiten lässt. An der Studie, die jetzt im Fachjournal Science Advances erschienen ist, ist auch Prof. Helmuth Thomas, Leiter des Hereon-Instituts für Kohlenstoffkreisläufe, beteiligt. „Wir stellen in dem Artikel deshalb auch eine neue Methode vor, die Messungen künftig sehr viel zuverlässiger macht“, sagt er.

Bei der herkömmlichen Messmethode werden Wasserproben mit den Chemikalien Permanganat oder Dichromat versetzt. Diese sind besonders reaktionsfreudig und bauen in kurzer Zeit alle organischen Substanzen ab. An der Menge des verbrauchten Permanganats oder Dichromats lässt sich dann bestimmen, wie viel organische Substanz in der Wasserprobe enthalten war. Experten sprechen bei dieser Messung vom „Chemischen Sauerstoffbedarf“ (Chemical Oxygen Demand, COD). Das Problem der COD-Messung: Sie unterscheidet nicht zwischen den organischen Stoffen, die mit den Abwässern ins Wasser gelangen, und jenen, die auf natürlichem Wege entstanden sind – etwa Lignin und Huminsäuren, die beim Zerfall von Holz frei werden. Damit lässt sich die Verschmutzung des Wassers kaum vom natürlichen Gehalt an organischen Stoffen unterscheiden. „Für den Han-Fluss in Südkorea etwa haben wir mit unserer neuen Methode herausgefunden, dass die Belastung mit organischen Stoffen aus Abwässern in den vergangenen 25 Jahren abgenommen hat. Die COD-Messungen aber zeigen nach wie vor hohe Werte an“, sagt Helmuth Thomas, „weil hier die natürlichen Substanzen einen Großteil der Organik im Wasser ausmachen.“

Komplizierte biologische Analyse
Wie aber lässt sich die tatsächliche Verschmutzung besser messen? Etabliert ist hier seit Jahrzehnten eine biologische Messmethode, die jedoch sehr viel aufwendiger als die COD-Messung ist und deshalb von Behörden und Forschungseinrichtungen seltener genutzt wird. In diesem Fall wird eine Wasserprobe aus dem Fluss oder See entnommen und der Sauerstoffgehalt des Wassers als Anfangswert gemessen. Eine weitere sogenannte Parallelprobe wird sofort luftdicht verschlossen. Anschließend ruht diese Wasserprobe fünf Tage lang. In dieser Zeit bauen die Bakterien die organische Substanz ab, wobei sie den Sauerstoff im Wasser nach und nach verbrauchen. Nach fünf Tagen wird das Gefäß geöffnet und der Sauerstoff gemessen. Enthält das Wasser viel Organik, waren die Bakterien besonders aktiv. Entsprechend groß war dann der Sauerstoffverbrauch. Experten sprechen bei dieser Messung vom „Biologischen Sauerstoffbedarf“ (Biological Oxygen Demand, BOD). „Die Messung des BOD ist sehr viel genauer als die des COD, weil die Bakterien vorzugsweise die kleinen organischen Moleküle aus dem Abwasser abbauen, aber die natürlichen wie etwa Lignin unangetastet lassen“, sagt Helmuth Thomas. Allerdings habe auch die Messung des BOD ihre Nachteile. Zum einen dauere die BOD-Messung fünf Tage, während der COD-Wert nach wenigen Minuten vorliege. Zum anderen müsse man beim Abfüllen, Lagern und Vermessen der Wasserproben peinlich genau darauf achten, dass kein Sauerstoff aus der Umgebungsluft in die Probe gelange und den Messwert verfälsche. „Das ganze Handling der BOD-Messung beherrschen nur einige wenige Leute mit großer Laborerfahrung“, sagt Helmuth Thomas. „Daher bevorzugen Behörden und Forscher auch heute noch den COD – trotz großer Unsicherheiten.“

Schneller und sicherer messen
Das Team um Helmuth Thomas stellt deshalb eine alternative Methode vor, die die klassische BOD-Messung verbessert. Vorteil der Methode ist, dass nur eine Wasserprobe genommen werden muss, diese sofort verschlossen wird und der Sauerstoffverbrauch ohne Eingriff in die Probe gemessen wird. Es ist dabei nicht notwendig, die Probe nach fünf Tagen erneut zu öffnen, um den Sauerstoffgehalt zu messen. So wird vermieden, dass die Probe erneut mit Luftsauerstoff in Berührung kommt. Beim neuen Ansatz wird gleich beim Abfüllen der Wasserprobe eine optische Faser in das Probengefäß eingeführt. Über diese Faser kann der Sauerstoffgehalt anhand optischer Effekte kontinuierlich direkt in der Probe gemessen werden. Thomas: „Wir können den Sauerstoffgehalt damit nonstop messen und erhalten ein sehr viel genaueres Bild vom Sauerstoffverbrauch durch die Bakterien.“ Erste Versuche haben gezeigt, dass ein aussagekräftiges Ergebnis bereits nach rund 48 Stunden vorliegt, was die BOD-Messung erheblich beschleunigt. Alles in allem macht das optische Verfahren die BOD-Messung also nicht nur zuverlässiger, sondern auch schneller. Helmuth Thomas geht deshalb davon aus, dass sich das neue Verfahren in den kommenden Jahren als neuer Standard etabliert, der sowohl die COD- als auch die klassische BOD-Messung ablösen wird. So kann künftig beispielsweise zuverlässiger als bisher ermittelt werden, ob Maßnahmen zur Gewässerreinhaltung tatsächlich erfolgreich sind.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Helmuth Thomas
Institut für Kohlenstoff-Kreisläufe
Institutsleitung
Tel: +49 (0)4152 87-2805
Mail: helmuth.thomas@hereon.de

Originalpublikation:
doi.org/10.1126/sciadv.abc7318

(nach oben)


Entwicklung von Wasserstofftanks für Kraftfahrzeuge

Christina Kaufmann Hochschulkommunikation
Hochschule München
Kann der Wasserstoffantrieb einen wichtigen Beitrag zur klimaneutralen Mobilität leisten? Prof. Dr. Horoschenkoff von der Fakultät für Maschinenbau, Fahrzeugtechnik, Flugzeugtechnik der Hochschule München und sein Team sind davon überzeugt. Sie forschen mit Hochdruck an neuartigen Tankkonzepten um Fahrzeuge mit Brennstoffzelle wirtschaftlicher zu machen.

In Zukunft werden zwei elektrische Antriebskonzepte den Fahrzeugbau dominieren: das E-Fahrzeug mit Batterie und das E-Fahrzeug mit Brennstoffzelle betrieben mit Wasserstoff. Wasserstoff gilt als aussichtsreicher Energieträger für eine klimaneutrale Mobilität in der Zukunft. Als Treibstoff für Brennstoffzellenfahrzeuge liefert er die elektrische Energie für den Antrieb und wird CO2-neutral zu Wasser umgewandelt. Damit die Brennstoffzellenfahrzeuge gegenüber den heutigen batteriebetriebenen Elektrofahrzeugen wettbewerbsfähig werden, müssen unter anderem die Herstellkosten sinken. Die Forscher der Hochschule München wollen den Wasserstofftank gemeinsam mit BMW im Sinne von Baureihensynergien dort unterbringen, wo im E-Mobil die Batterie vorgesehen ist: Im Unterboden des Fahrzeugs. Hierfür gut geeignet ist eine Quaderform. Die Konstruktion muss dabei einem Betriebsdruck von 700 bar standhalten.

Herausforderung Wasserstofftank
Die Speicherung des Wasserstoffs für die Brennstoffzelle in Drucktanks ist technisch sehr anspruchsvoll. Derzeit verursacht die Integration von Drucktanks aufgrund ihrer zylindrischen, sperrigen Form hohe Einbußen des Kundennutzens und der Fahrdynamik. Hier setzt das Forschungsprojekt BRYSON an, das vom Bundeswirtschaftsministerium gefördert wird, und als Zielsetzung die Entwicklung von neuartigen Drucktanks für Wasserstoff im Automobilbau verfolgt. Die Hochschule München ist über ihr Competence Centre Smart Composites der Fakultät Maschinenbau, Fahrzeugtechnik und Flugzeugbau eingebunden. Die Bauweise sieht eine näherungsweise quaderförmige Tankgeometrie vor, bei der eine unerwünschte Aufweitung des Tanks durch eingearbeitete Zugstreben, die das Tankinnere durchziehen, verhindert wird. Wesentliche Herausforderungen des neuen Konzepts sind die Auslegung des Tanks, die Sicherstellung der Dichtigkeit und die Entwicklung eines geeigneten Fertigungsprozesses. Das Themengebiet Wasserstoffspeicherung in kohlenstofffaserverstärkten Tanks ist für das Team um Prof. Dr. Alexander Horoschenkoff nicht neu. Bereits in der Vergangenheit wurden Forschungsarbeiten zur Erhöhung der Betriebssicherheit von Drucktanks mit speziellen Kohlenstofffaser-Sensoren erfolgreich durchgeführt.

Unterstützung durch Nachwuchswissenschaftler
Unter Leitung von Prof. Dr. Alexander Horoschenkoff arbeiten derzeit 4 Studierende des Studiengangs Master of Applied Research in Engineering Sciences (Forschungsmaster) mit an dem Projekt. Der vor einigen Jahren eingeführte Forschungsmaster ermöglicht es Hochschulen auch an größeren Forschungsprojekten mit längeren Laufzeiten teilzunehmen. Mit Baumustern konnten bereits erste Druckversuche durchgeführt werden.

Das Projekt Bryson läuft seit Dezember 2019 und ist für eine Dauer von 3,5 Jahren ausgelegt. Das Bundeswirtschaftsministerium fördert das Projekt. Die Leitung des Projekts mit insgesamt 5 Partnern und einer Gesamtfördersumme von über 1,7 Mio. Euro liegt bei der BMW AG.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Horoschenkoff
alexander.horoschenkoff@hm.edu

Weitere Informationen:
https://www.hm.edu/allgemein/forschung_entwicklung/forschungsprojekte/projektdet…

(nach oben)


Mehr als die Summe der Mutationen – 165 neue Krebsgene mit Hilfe maschinellen Lernens identifiziert

Dr. Martin Ballaschk Pressestelle
Max-Planck-Institut für molekulare Genetik
Ein neuer Algorithmus sagt Gene vorher, die an der Entstehung von Krebs beteiligt sein können, deren DNA-Sequenz jedoch nicht zwangsläufig verändert ist. Ein Berliner Forschungsteam kombinierte unterschiedlichste Daten, analysierte sie mit „künstlicher Intelligenz“ und identifizierte so zahlreiche Krebsgene. Für die gezielte Krebstherapie in der personalisierten Medizin sowie für die Entwicklung von Biomarkern ergeben sich so neue Perspektiven.

Bei Krebs geraten Zellen außer Kontrolle. Sie vermehren sich uneingeschränkt, verdrängen dadurch andere Gewebe, zerstören Organe und beeinträchtigen so wichtige Lebensfunktionen. Die Ursache für dieses Wachstum sind in aller Regel angehäufte DNA-Veränderungen in Krebsgenen – also Mutationen in jenen Genen, die die Entwicklung der Zelle steuern. Doch einige Krebsarten entstehen bereits bei nur sehr wenigen mutierten Genen. In diesen Fällen führen andere, wenig verstandene Ursachen zu der Erkrankung.

Ein Forschungsteam vom Max-Planck-Institut für molekulare Genetik (MPIMG) in Berlin und dem Institut für Computational Biology des Helmholtz Zentrums München hat nun einen neuen Algorithmus entwickelt, der mit Hilfe von maschinellem Lernen 165 zuvor unbekannte Krebsgene identifizierte. Von diesen Genen sind längst nicht alle mutiert – offenbar kann bereits ihre Fehlregulation zu Krebs führen. Die neu entdeckten Gene stehen jedoch alle in engem Austausch mit bereits bekannten Krebsgenen. Überdies sind sie überlebenswichtig für Tumorzellen, wie sich im Zellkulturexperiment herausstellte.

Das auf den Namen „EMOGI“ (für Explainable Multi-Omics Graph Integration) getaufte Programm kann auch erklären, welche zellulären Zusammenhänge jedes der identifizierten Gene zu einem Krebsgen machen. Wie die Forschenden um Annalisa Marsico im Fachblatt Nature Machine Intelligence schildern, kombiniert das Programm dafür zehntausende Datensätze aus Patientenproben. Diese enthalten neben Sequenzdaten mit Mutationen auch Informationen über DNA-Methylierungen, die Aktivität einzelner Gene und Interaktionen von Proteinen, die an zellulären Signalwegen beteiligt sind. Ein Deep-Learning-Algorithmus erkennt in diesen Daten die Muster und molekularen Gesetzmäßigkeiten, die zu Krebs führen.

„Idealerweise haben wir irgendwann eine komplette Übersicht über alle Krebsgene, die bei verschiedenen Betroffenen einen unterschiedlichen Einfluss auf das Fortschreiten der Krebserkrankung haben können“, sagt Marsico, bis vor kurzem Leiterin einer Forschungsgruppe am MPIMG und nun am Helmholtz Zentrum München. „Das ist die Grundlage für die personalisierte Krebstherapie.“

Bei diesen neuartigen Heilverfahren werden anders als bei konventionellen Krebsbehandlungen wie der Chemotherapie die Medikamente genau auf die Krebsart zugeschnitten. „In der Klinik kann für die Erkrankten dann die jeweils beste Therapie gefunden werden – also die wirksamste Behandlung mit den wenigsten Nebenwirkungen“, erklärt die Forscherin. „Wir könnten zudem anhand der molekularen Eigenschaften den Krebs schon frühzeitig erkennen.“

„Nur wenn wir die Ursachen kennen, können wir sie auch effektiv bekämpfen oder korrigieren. Daher ist es so wichtig, möglichst viele Mechanismen zu identifizieren, die Krebs auslösen können“, sagt Marsico.

„Bisher fokussierte sich die Forschung vor allem auf krankmachende Veränderungen in der Erbgutsequenz, also im Bauplan der Zelle“, sagt Roman Schulte-Sasse, Doktorand im Team von Marsico und Erstautor der Publikation. „Dabei hat sich in den letzten Jahren gezeigt, dass auch epigenetische Störungen oder fehlgesteuerte Genaktivität zu Krebs führen können.“

Aus diesem Grund führte das Forschungsteam Daten zusammen, die auch das Geschehen in der Zelle abbilden und nicht nur auf Fehler im Bauplan abzielen. Zunächst bestätigten die Wissenschaftlerinnen und Wissenschaftler: Veränderungen der DNA-Sequenz, also Mutationen bis hin zu Vervielfachung von Erbgutabschnitten, sind tatsächlich die Haupttreiber von Krebserkrankungen sind. In einem zweiten Schritt machten sie dann die Gen-Kandidaten ausfindig, die in einem größeren Kontext zum eigentlich krebsauslösenden Gen stehen.

„Wir haben zum Beispiel Gene gefunden, deren Sequenz bei Krebs meist unverändert bleibt, die jedoch trotzdem für den Tumor unverzichtbar sind, weil sie beispielsweise die Energiezufuhr regulieren“, sagt Schulte-Sasse. Diese Gene sind auf andere Weise außer Kontrolle geraten, etwa aufgrund von chemischen Erbgut-Modifikationen wie Methylierungen. Diese verändern die DNA-Informationen selbst nicht, bestimmen jedoch über deren Genaktivität. „Solche Gene sind vielversprechende Angriffspunkte für Medikamente – weil sie aber quasi im Schatten agieren, können wir sie nur mit komplexen Algorithmen finden“, sagt Schulte-Sasse.

Das neue Programm erweitert die Kandidatenliste der Krebsgene, die in den letzten Jahren auf 700 bis 1000 Einträge angewachsen ist, um ein beachtliches Stück. Den versteckten Genen sind die Forschenden erst durch die Kombination von bioinformatischen Analysemethoden und neuesten Algorithmen der künstlichen Intelligenz auf die Spur gekommen.

„Die Wechselwirkungen von Proteinen und Genen lassen sich als mathematisch als Netzwerk, als sogenannter Graph abbilden“, sagt Schulte-Sasse. „Es ist, als wollte man das Schienennetz der Eisenbahn erraten. Jeder Bahnhof entspricht einem Protein oder Gen und jede Wechselwirkung stellt eine Zugverbindung dar.“

Mit der Hilfe von Deep Learning – also jenen Algorithmen, die der künstlichen Intelligenz in den letzten Jahren zum Durchbruch verholfen haben – entdeckten die Forschenden auch jene Zugverbindungen, die bisher unentdeckt blieben. Schulte-Sasse ließ den Computer zehntausende verschiedener Netzkarten aus 16 unterschiedlichen Krebsarten analysieren, jede enthielt zwischen 12.000 und 19.000 Datenpunkte.

In den Daten sind zahlreiche weitere interessante Details versteckt. „Wir sehen Muster, die abhängig vom jeweiligen Krebs und Gewebe sind,“ sagt Marsico. „Wir sehen das als Hinweis, dass Tumoren je nach Organ durch unterschiedliche molekulare Mechanismen ausgelöst werden.“

Das EMOGI-Programm ist nicht auf Krebserkrankungen festgelegt, betonen die Forschenden. Theoretisch kann es vielfältige biologische Daten miteinander integrieren und dort Muster finden, erklärt die Forscherin. „Nützlich könnte das vor allem für komplexe Krankheiten sein, für die vielseitige Daten erhoben werden und bei denen die Gene eine wichtige Rolle spielen. Neben Krebs sind dies auch komplexe Stoffwechselerkrankungen wie zum Beispiel Diabetes.“

Wissenschaftliche Ansprechpartner:
Prof. Annalisa Marsico
Gruppenleiterin
Helmholtz Zentrum München
+49(0)89 3187-43073
annalisa.marsico@helmholtz-muenchen.de

Roman Schulte-Sasse
Wissenschaftler
Max-Planck-Institut für molekulare Genetik
+49 (30) 8413-1172
sasse@molgen.mpg.de

Originalpublikation:
Roman Schulte-Sasse, Stefan Budach, Denes Hnisz, and Annalisa Marsico (2021): „Integration of Multi-Omics Data with Graph Convolutional Networks to Identify New Cancer Genes and their Associated Molecular Mechanisms.“ Nature Machine Intelligence. DOI: 10.1038/s42256-021-00325-y

Weitere Informationen:
https://dx.doi.org/10.1038/s42256-021-00325-y – Link zur Publikation
https://www.molgen.mpg.de/4385741/ – Link zur Pressemitteilung

(nach oben)


Mehr Brot und Süßigkeiten im Lockdown

Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Während des Lockdowns im Frühjahr 2020 nahm die Bewegung unter jüngeren Menschen in Deutschland ab, zeigt eine Umfrage unter Studierenden, die während der Jahrestagung der Deutschen Gesellschaft für Kardiologie (DGK) präsentiert wurde. Gegessen wurde hingegen mehr, vor allem Brot und Süßigkeiten.

Düsseldorf, 8. April 2021 – Um die Effekte des Lockdowns auf die Sport- und Ernährungsgewohnheiten wichtigen Teil der kardiovaskulären Primärprävention zu untersuchen, hat eine Münchner Arbeitsgruppe um Dr. Julius Steffen und Prof. Dr. Stefan Brunner eine Online-Umfrage unter Studenten mehrerer großer bayerischer Universitäten durchgeführt. Abgefragt wurden unter anderem Angaben zu Art und Dauer von sportlicher Betätigung vor, während und nach dem Lockdown sowie Veränderungen bei der Ernährung. Außerdem wurden die per Smartwatch und Smartphone gesammelten Schrittzählerdaten der 1.940 Teilnehmenden ausgewertet.

In der subjektiven Wahrnehmung hatte die körperliche Aktivität bei 44,5 Prozent der Teilnehmenden seit Lockdown-Einführung abgenommen, 32,8 Prozent gaben an, ihre Aktivitäten gesteigert zu haben. Der Sport beschränkte sich zumeist auf Laufen, Radfahren und Muskeltraining sowie Yoga. Es ließ sich beobachten, dass sportlich aktivere Teilnehmer oftmals ihr Level hielten.
Die Schrittzählerdaten ließen dann einen objektiven Blickt auf die veränderten Bewegungsgewohnheiten zu. Vor dem Lockdown gingen die Teilnehmenden pro Tag durchschnittlich 6.777 Schritte durchschnittlich, während dem Lockdown hingegen im Schnitt nur noch 4.829.

Auch die Ernährungsgewohnheiten änderten sich: 31,2 Prozent der Studienteilnehmerinnen und -teilnehmer gaben an, mehr zu essen und 16,8 Prozent, weniger als vor dem Lockdown. Die größere Nahrungsmenge war vornehmlich durch den Konsum von Brot und Süßigkeiten getrieben.

Die Lockdown-Maßnahmen scheinen also – zumindest bei Studierenden – starken Einfluss auf die Sport- und Essgewohnheiten zu haben. „Direkte Effekte auf die kardiovaskuläre Gesundheit lassen sich nicht ableiten. Sie sollten aber in Zukunft bei der Verhängung von Restriktionen zur Pandemiebekämpfung bedacht werden“, so die Studienautoren.

Zum Weiterlesen:
Alteration of Physical Activity and Nutrition Behaviour during COVID-19 Pandemic Lockdown in Young Adults (COLA-Trial)

Quelle:
Clin Res Cardol., DOI https://doi.org/10.1007/s00392-021-01843-w

Medienkontakt:
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Pressesprecher: Prof. Dr. Michael Böhm
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13
presse@dgk.org

Die Deutsche Gesellschaft für Kardiologie –Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit fast 11.000 Mit-gliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter http://www.dgk.org

Weitere Informationen:
http://www.dgk.org/presse
https://dgk.org/pressemitteilungen/2021-jahrestagung-pressemitteilungen/2021-jt-…

Anhang
Mehr Brot und Süßigkeiten im Lockdown

(nach oben)


Trotz verbessertem Umweltmonitoring: Der ökologische Zustand von europäischen Gewässern verschlechtert sich

Kerstin Theilmann Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau
Auch nach mehr als 20 Jahren europäischer Wasserrahmenrichtlinie: Viele Oberflächengewässer in Europa werden nach wie vor regelmäßig durch organische Schadstoffe wie Pflanzenschutzmittel oder Industriechemikalien in Konzentrationen belastet, die für die Ökosysteme in Flüssen, Bächen und Seen schädlich sind. Das zeigt eine aktuelle Studie des Instituts für Umweltwissenschaften iES der Universität Koblenz-Landau, für die mehrere Millionen Datensätze ausgewertet und analysiert wurden. Verbesserte Schutzmaßnahmen für Oberflächengewässer sind dringend notwendig, wie die Landauer Umweltwissenschaftlerinnen und -wissenschaftler in dem Fachjournal „Environmental International“ aufzeigen.

„Wir haben mehrere Millionen Messungen der vergangenen 15 Jahre zum Vorkommen von organischen Schadstoffen in europäischen Gewässern ausgewertet und die damit verbundenen Umweltrisiken für diese Süßwassersysteme beurteilt“, erklärt Jakob Wolfram, Erstautor der Studie. „In unserer Auswertung konnten wir zeigen, dass immer mehr und bessere Umweltproben genommen werden, gleichzeitig mussten wir aber feststellen, dass Oberflächengewässer häufig durch organische Schadstoffe beeinträchtigt werden und sich für manche Organismengruppen diese Zustände sogar zunehmend verschlechtern.“

Die Wasserrahmenrichtlinie trat im Jahr 2000 in Kraft mit dem Ziel aquatische Ökosysteme in Europa zu schützen oder in einen „guten ökologischen Zustand“ zurückzuführen. Im Zuge dieser groß angelegten Wasserstrategie wurden über Jahre europaweit umfangreiche Wasserproben genommen, welche das Vorkommen von organischen Schadstoffen in mehreren tausend Oberflächengewässern dokumentieren. Zum ersten Mal wurde nun dieser umfangreiche, zentral von der europäischen Umweltbehörde (EEA) verwaltete Datensatz mit mehr als 8 Millionen Messungen zu 352 organischen Schadstoffen in 31 Ländern für die vergangenen 15 Jahre umfassend ausgewertet und analysiert. Die Forscher beurteilten sowohl den Status als auch die Entwicklung der Wasserqualität in Europa.

Das Ergebnis der umfassenden Analyse: Viele Typen von organischen Schadstoffen, beispielsweise Industriechemikalien wie Löse- oder Reinigungsmittel, Pestizide und Pharmazeutika, werden vermehrt in den Oberflächengewässern gefunden. In lediglich einem Drittel der Gewässer konnten keine Schadstoffe pro Jahr gefunden werden. Weitere Analysen zeigten, dass in diesen Fällen die Qualität der Probennahme signifikant schlechter war. „Dies kann dazu führen, dass Belastungen nicht gefunden werden, daher haben wir auch die Qualität der Probennahme umfassend beurteilt“, so Wolfram. Dabei haben die Forscher einen klaren Zusammenhang zwischen der Qualität der Probennahme und dem Auffinden von Schadstoffen herausgestellt. „In vielen Ländern Europas wird das wahre Risiko in Oberflächengewässer weiterhin unterschätzt“, fasst Wolfram das Ergebnis zusammen.

Hauptursächlich für die Beeinträchtigung der europäischen Gewässer sind laut der Landauer Forscher Pestizide. Sie waren für rund 85 Prozent der Grenzwertüberschreitungen verantwortlich. Gewässer in landwirtschaftlich geprägten Gebieten sind daher dem höchsten Risiko ausgesetzt. Die Funktionalität und Zusammensetzung ihrer Ökosysteme sind in besonderem Maße gefährdet. An 35 Prozent der Probestellen wurde ein ökologischer Grenzwert überschritten, rund 38 Prozent der Gewässer in Europa sind beeinträchtigt. Auch Pharmazeutika treten häufig in Oberflächengewässern auf. Für diese Substanzen haben die Forscher kein akutes Risiko festgestellt, allerdings sind durch sie ausgelöste Langzeiteffekte auf aquatische Ökosysteme noch unbekannt. Der Grund: Toxizitätsdaten zu Langzeitauswirkungen von Pharmazeutika existieren nur selten. „Pharmazeutika durchlaufen einen Zulassungsprozess mit geringeren Anforderungen an die Umweltrisikobewertung als Pestizide oder Industriechemikalien“, erklärt Wolfram. Die Ungewissheit, wie diese Substanzen auf die Umwelt oder Organismen wirken könnten, sei daher insbesondere bei den Langzeiteffekten größer als beispielsweise bei Pflanzenschutzmitteln.

Die Autorinnen und Autoren der Studie sehen Süßwasserökosysteme in Europa weiterhin einem ernsthaften Risiko ausgesetzt, welches sich besonders für Fische, aquatische Insekten und Krebstiere zeigt. „Unsere Ergebnisse zeigen, dass über die Wasserrahmenrichtlinie hinaus europaweit verstärkt Bemühungen notwendig sind, um die Belastung von Gewässern durch organische Schadstoffe weiter zu reduzieren.“ Aufgrund der Vielzahl an Substanzen und der zahlreichen Eintragspfade in die Umwelt sei die Frage nach den Ursachen der Schadstoffbelastung und den notwendigen Maßnahmen nicht einfach zu beantworten, so Wolfram. Dazu müssten zunächst die noch vorherrschenden Datenlücken geschlossen werden. Ein möglicher Schritt wären sicherlich Einschränkungen in der Anwendung, strengere Umweltauflagen besonders gefährlicher Umweltschadstoffe oder deren Verbot. „Bevor wir verlässliche und passgenaue Empfehlungen aussprechen können, muss die Datenlage verbessert werden“, unterstreicht Wolfram. Zusätzlich müsste auch die Datenqualität zwischen den europäischen Ländern verbessert werden, um wirkungsvolle und zielführende Managementstrategien zu entwickeln.

Wissenschaftliche Ansprechpartner:
Universität Koblenz-Landau
Institut für Umweltwissenschaften iES
Prof. Dr. Ralf Schulz
Fortstraße 7
D-76829 Landau
Tel.: +49 6341 280-31327
E-Mail: schulz@uni-landau.de

Originalpublikation:
“Water Quality and Ecological Risks in European Surface Waters – Monitoring Improves While Water Quality Decreases” by Jakob Wolfram, Sebastian Stehle, Sascha Bub, Lara L. Petschick, Ralf Schulz. Die Studie wurde online am 5. März 2021 in der Fachzeitschrift Environment International veröffentlicht und kann via folgenden Link abgerufen werden: https://doi.org/10.1016/j.envint.2021.106479

(nach oben)


Wirkung des Lockdowns auf Luftqualität an den Straßen und damit im Alltag zu spüren

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.
Leipzig. Im Zusammenhang mit den Auswirkungen der Coronavirus-Pandemie wurde viel darüber diskutiert, wie stark sich der Lockdown auf Luftqualität und Klima auswirkt. Eine Auswertung des Leibniz-Instituts für Troposphärenforschung (TROPOS) zeigt jetzt: Der erste Lockdown im Frühjahr 2020 hat deutlich zur Verbesserung der Luft beigetragen. So war an den Verkehrsstationen im Westen und Osten von Leipzig ein Rückgang von Stickoxid (NOx) sowie Ruß (BC) zu verzeichnen. An den großen Straßen und damit für viele Menschen wurde die Luft entsprechend der Verkehrsreduktion besser.

Die Auswertung beruht auf Messdaten verschiedener Stationen in Leipzig von TROPOS und Sächsischem Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG), bei denen der Einfluss des Wetters anschließend aufwendig korrigiert wurde. Die Analyse ist vorläufig, noch nicht wissenschaftlich begutachtet und soll 2021 bei einem Fachjournal eingereicht werden.

Zur Bekämpfung der Pandemie im Frühjahr 2020 hatten sich in Deutschland am 22. März Bund und Länder auf strenge Ausgangs- und Kontaktbeschränkungen geeinigt, die bis 5. Juni auch in Sachsen für eine reduzierte Mobilität sorgten. Diese Beschränkungen gingen als Lockdown in die Umgangssprache ein und wird seitdem kontrovers diskutiert. Aus wissenschaftlicher Sicht sind diese Maßnahmen ein Feldexperiment in bisher beispiellosen Dimensionen: Die Atmosphärenforschung interessiert zum Beispiel, welche Wirkung eine Reduktion des Verkehrs auf Luftverschmutzung und Klimaerwärmung haben kann. Weltweit haben daher Forschende Daten analysiert. Darunter auch eine europaweite Studie der EU-Forschungsinfrastruktur für kurzlebige atmosphärische Bestandteile wie Aerosol, Wolken und Spurengase (ACTRIS), deren deutscher Beitrag vom TROPOS koordiniert wird.

Um die Wirkung des Lockdowns auf die lokale Luftqualität zu untersuchen, hat TROPOS am Beispiel von Leipzig diverse Messungen ausgewertet. Dazu wurden zwei stationäre Messstationen vom TROPOS verwendet: Die Station in der Permoser Straße im Nordosten Leipzigs ist etwa 150 Meter von der B6 entfernt. Die Station in der Eisenbahnstraße nahe dem Stadtzentrum befindet sich in einer stark befahrenen Straßenschlucht. Außerdem wurde der Datensatz mit Messungen der LfULG-Station in der Lützner Straße im Westen Leipzigs sowie mit Verkehrszählungen der Stadt Leipzig ergänzt.

Schnell zeigte sich, dass die Wetterlage im Frühjahr großen Einfluss auf die Luftqualität hatte: Während kurz vor dem Lockdown eine Westwind-Wetterlage mit sauberer Luft vom Atlantik vorherrschte, änderte sich in der ersten Lockdown-Woche die Großwetterlage: Ostwind brachte kontinental geprägte und stärker verschmutzte Luft aus Osteuropa nach Mitteldeutschland. Die Phase des Lockdowns im April/Mai war zudem durch geringe Niederschläge und wenig Wind geprägt, was das Anreichern von Schadstoffen in der Luft begünstigt – wie Forschende des TROPOS bereits 2020 in einer Studie zum Luftschadstoff Stickstoffdioxid in Sachsen nachweisen konnten.

Im Frühjahr 2020 überlagerten sich also zwei Effekte: Auf der einen Seite sorgte weniger Straßenverkehr für weniger Schadstoffe. Auf der anderen Seite blieben die Schadstoffe aber durch das austauscharme Wetter länger vor Ort und konnten sich so stärker anreichern. Außerdem kamen zusätzlich Schadstoffe durch Ferntransport aus Osteuropa dazu, wo das trockene Frühjahr bereits für erste Waldbrände sorgte. Für eine fundierte Analyse war es deshalb nötig, beide Effekte auseinanderhalten zu können. Dr. Dominik van Pinxteren nutzte für die statistische Analyse eine Methode aus dem Bereich des maschinellen Lernens, deren Anwendung im Bereich Luftqualität erstmals 2009 von britischen Forschern veröffentlicht wurde und die sich bereits beim „Herausrechnen“ des Wettereinflusses auf Stickstoffdioxid-Werte in Sachsen bewährt hat.

Anhand von Datenreihen aus den Jahren 2016 bis 2019 und wichtigen Faktoren wie Tageszeit, Jahreszeit, Wetter, Höhe der Grenzschicht und Herkunft der Luftmassen wurde es so möglich, per Computermodell vorherzusagen, welche Schadstoffkonzentrationen 2020 theoretisch zu erwarten gewesen wären. Die Vorhersage verglich das Team dann mit den tatsächlichen gemessenen Schadstoffkonzentrationen. Die Differenz zwischen beiden Werten entspricht insbesondere an den Messstationen in Straßennähe der Luftqualitätsverbesserung, die auf den reduzierten Verkehr zurückzuführen ist.
Für Stickoxide (NOx) zeigte sich dabei an der LfULG-Station Lützner Straße im Westen von Leipzig im Durchschnitt ein Rückgang um 25 Mikrogramm pro Kubikmeter, was knapp einem Drittel der ohne Lockdown erwarteten Konzentrationen bei vergleichbarer Wetterlage entspricht. Diese Schadstoffreduktion ist in einer Größenordnung, die dem Rückgang des Verkehrs in diesem Zeitraum entspricht: In der Lützner Straße wurden zu Beginn des ersten Lockdowns etwa 35 Prozent weniger PKW, 15 Prozent weniger Kleintransporter und 10 Prozent weniger LKW gezählt.
Für Ruß (BC), den TROPOS an der Eisenbahnstraße östlich des Leipziger Zentrums misst, ergab die Analyse einen Rückgang von bis zu 0,6 Mikrogramm pro Kubikmeter, was etwa 40 Prozent der erwarteten Konzentrationen entspricht. Im Durchschnitt ging Ruß während der reichlich zwei Monate Lockdown im Frühjahr 2020 in der Leipziger Eisenbahnstraße um 0,4 Mikrogramm pro Kubikmeter zurück, was einen Rückgang um etwa 20 Prozent entspricht.
Zum Vergleich: Die Umweltzone Leipzig hatte den Ruß zwischen 2011 und 2017 um etwa 60 Prozent reduziert. Dieser Rückgang erfolgte aber über sechs Jahre, ausgehend von einem damals noch höheren Niveau, und war nachhaltiger angelegt, weil die Umweltzone die Modernisierung der Fahrzeugflotte beschleunigte. Nachgewiesen wurde dieser Rückgang 2017 an der LfULG-Station Leipzig-Mitte, die 2020 durch Baustellen im Umfeld für die aktuelle Lockdown-Analyse jedoch nicht genutzt werden konnte. Der Trend zu mehr Kaminen und Holzheizungen macht die Fortschritte für die Luftqualität, die in den letzten Jahren im Verkehrssektor erreicht wurden, zum Teil wieder zu Nichte, in dem er für ein Ansteigen von Feinstaub und Ruß während der Heizsaison auch in den Städten sorgt. „Im städtischen Hintergrund an unserer Station am Institut, die abseits des Verkehrs liegt, waren die Effekte dagegen kaum zu spüren. Grundsätzlich sind im städtischen Hintergrund die Verkehrseinflüsse nicht mehr so dominant und sowohl für Stickoxid als auch für Ruß spielen andere Quellen eine stärkere Rolle. Darin sehen wir einen Grund für diese Unterschiede“, erklärt Dominik van Pinxteren vom TROPOS.

Fazit: Der Lockdown im Frühjahr 2020 hat auch in Leipzig zur Verbesserung der Luftqualität beigetragen, insbesondere in Straßennähe. Für die Luftschadstoffe Stickoxid und Ruß konnte unter Berücksichtigung der Witterungseinflüsse ein deutlicher Rückgang statistisch nachgewiesen werden, der ungefähr dem Rückgang des Verkehrsaufkommens entspricht. Allerdings wurden die Auswirkungen von weniger Kfz durch die Auswirkungen des trockenen Frühjahrswetters überlagert und sind daher in den reinen Messdaten nicht direkt zu erkennen. Tilo Arnhold

Links:
Verkehrsdichte, Wind und Luftschichtung beeinflussen die Belastung mit dem Luftschadstoff Stickstoffdioxid (Pressemitteilung, 26.06.2020):
https://www.tropos.de/aktuelles/pressemitteilungen/details/verkehrsdichte-wind-u…
LfULG-Projekt „Meteorologische Einflüsse auf Stickstoffdioxid“:
https://www.luft.sachsen.de/Inhalt_FuE_Projekt_Witterung_NOx_Ozon.html
Umweltzone senkt Gesundheitsbelastung deutlich (Pressemitteilung, 14.12.2017):
https://www.tropos.de/aktuelles/pressemitteilungen/details/umweltzone-senkt-gesu…
Chemische Aerosolcharakterisierung und Prozessaufklärung am TROPOS:
https://www.tropos.de/institut/abteilungen/chemie-der-atmosphaere/feldexperiment…
COVID-19 campaigns by ACTRIS:
http://www.actris.eu/Outreach/News/ACTRISUpdates.aspx

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 96 selbständige Forschungseinrichtungen verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen.
Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit.
Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,9 Milliarden Euro.
http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Dominik van Pinxteren
Wissenschaftlicher Mitarbeiter, Abteilung Chemie der Atmosphäre
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717- 7029
https://www.tropos.de/institut/ueber-uns/mitarbeitende/dominik-van-pinxteren
und
Dr. Bernd Heinold
Abteilung Modellierung Atmosphärischer Prozesse
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717- 7052
https://www.tropos.de/institut/ueber-uns/mitarbeitende/bernd-heinold
oder
Tilo Arnhold
TROPOS-Öffentlichkeitsarbeit
Tel. +49-341-2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/

Weitere Informationen:
https://www.tropos.de/aktuelles/pressemitteilungen/details/wirkung-des-lockdowns…

(nach oben)


Die Pandemie für den Umweltschutz nutzen

Helga Epp M. A. Presse & Kommunikation
Pädagogische Hochschule Freiburg
Die Aktion #freiburgprotectstheplanet bietet die Möglichkeit, im Rahmen von Kleinprojekten gemeinsam, gleichberechtigt und aktiv die eigene Müllproduktion zu reduzieren und damit gleichzeitig andere zu ähnlichen Aktionen zu inspirieren: Die Aktion läuft innerhalb des EU-Projektes MOST, welches vom Internationalen Zentrum für MINT-Bildung der Pädagogischen Hochschule Freiburg (ICSE) koordiniert wird.

Medizinische Masken am Straßenrand, Mittagessen zum Mitnehmen aus der Plastikbox, Quarantäne und social distancing – alles ganz normal geworden. Doch wie kann man in Pandemiezeiten mit anderen in Kontakt kommen, sich vernetzen und gleichzeitig etwas gegen akute Umweltprobleme unternehmen? Die Aktion #freiburgprotectstheplanet bietet die Möglichkeit, im Rahmen von Kleinprojekten gemeinsam, gleichberechtigt und aktiv die eigene Müllproduktion zu reduzieren und damit gleichzeitig andere zu ähnlichen Aktionen zu inspirieren – und das geht auch per Videokonferenz!

Die Aktion läuft innerhalb des EU-Projektes MOST, welches vom Internationalen Zentrum für MINT-Bildung der PH Freiburg (ICSE) koordiniert wird und mit der Stadt Freiburg und der Walter-Rathenau Gewerbeschule vor Ort zwei weitere Projektpartner/-innen hat.

Dabei sollen Kleinprojekte von Schüler/-innen, Expert/-innen und Bürger/-innen gemeinsam initiiert, durchgeführt, dokumentiert und anschließend beispielsweise über Social Media, Plakate oder Flyer verbreitet werden.

Unterschiedlichste Methoden wie Untersuchungen zur eigenen Abfallvermeidung, Recherchearbeiten, Umfragen, Expert/-innenbefragungen usw. sind dabei möglich und die Veröffentlichung und Verbreitung der Ergebnisse mit dem Ziel, immer mehr Umweltschützer*innen zu gewinnen, sind essenziell. In Freiburg sind so bereits Projekte zur Reduzierung von Plastikmüll im Bad entstanden, aber auch ein Projekt zur Vermeidung von Abfällen im Zusammenhang mit dem Außer-Haus-Verzehr von Restaurants.

„Das Projekt schafft es, Schulen für die Zusammenarbeit mit externen Expertinnen und Experten zu öffnen. Diese Kooperation ermöglicht kreative und innovative Lösungen für Umweltprobleme zu schaffen, die uns alle betreffen. Eine Vernetzung mit unseren internationalen Projektpartnerinnen und -partnern ist ebenfalls möglich“, sagt Bildungsbürgermeisterin der Stadt Freiburg Gerda Stuchlik.

„Mich begeistert an #freiburgprotectstheplanet besonders die Kumulation verschiedenster Themenbereiche: Regionales Arbeiten innerhalb sinnvoller und kreativer Projekte, dynamisches und gemeinsames Lernen, das Anregen von Kooperationen und das Anstoßen nachhaltiger Veränderungen im Bereich Umweltschutz. Zusätzlich entstehen ganz nebenbei alltags- und berufsbezogene Einblicke in die Möglichkeiten und Grenzen von Naturwissenschaften und Mathematik – für mich eine zentrale Mission des MINT-Unterrichts!“ – Prof. Dr. Katja Maaß, Koordinatorin von MOST

Das EU-Projekt MOST (Meaningful Open Schooling connects schools To communities) wird vom Internationalen Zentrum für MINT-Bildung (ICSE) der PH Freiburg koordiniert. Projektbeginn war im September 2020 bei dreijähriger Projektlaufzeit; 20 weitere Projektpartner/-innen in neun europäischen Städten nehmen teil. Dabei stehen im Jahr 2021 der Bereich Abfall und im Jahr 2022 der Bereich Energie im Fokus.

Wissenschaftliche Ansprechpartner:
Direktorin ICSE
Prof. Dr. Katja Maaß
Tel. 0761/682-346
maass@ph-freiburg.de

(nach oben)


Aktuelle Auswertung von Lohnspiegel.de – Diese fünf Faktoren bestimmen Ihr Gehalt

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Eine solide berufliche Qualifikation macht sich für die Beschäftigten bezahlt: Wer nach einer zwei- bis dreijährigen Berufsausbildung noch eine Meister- oder Technikerausbildung absolviert, kann mit einem Gehaltsplus von etwa 14 Prozent rechnen. Wer in seinem Berufsfeld zu den Topverdienern gehören will, sollte jedoch zusätzlich ein Studium anschließen und etwa einen Ingenieursabschluss erwerben.

Dies ist die Voraussetzung für hoch komplexe Tätigkeiten und bringt innerhalb des gleichen Berufsfeldes einen Gehaltszuwachs von rund 41 Prozent. Solch ein Aufstieg ist in Deutschland in vielen Berufsfeldern – wie dem Maschinenbau oder der sozialen Arbeit – unter bestimmten Voraussetzungen auch ohne Abitur möglich und lohnt sich auch finanziell. Ohne Ausbildungsabschluss schlägt hingegen ein Malus von -7 Prozent zu Buche. Zu diesem Ergebnis kommt eine Auswertung von über 62.000 Datensätzen des Portals Lohnspiegel.de, das vom Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) der Hans-Böckler-Stiftung betreut wird.

Das Anforderungsniveau einer Tätigkeit ist einer von fünf wesentlichen Faktoren, die in Deutschland innerhalb der gleichen Berufsgruppe die Höhe der Gehälter bestimmen. Entscheidend sind außerdem das Geschlecht der oder des Beschäftigten, das Bundesland der Anstellung, die Betriebsgröße und ob der Arbeitgeber nach Tarifvertrag zahlt. „Auch hier können die Lohnunterschiede erheblich sein und sich im Jahr auf mehrere tausend Euro belaufen“, sagt Dr. Malte Lübker, Lohnexperte am WSI. So verdienen Frauen bei gleicher Berufserfahrung im gleichen oder einem engverwandten Beruf mit dem gleichen Anforderungsniveau unter auch sonst vergleichbaren Bedingungen etwa 8 Prozent weniger als Männer. In kleinen Betrieben mit weniger als 100 Beschäftigten liegen die Gehälter in etwa 6 Prozent unter denen in mittelständischen Betrieben mit 100 bis 500 Beschäftigten. Ein Job in einem Großunternehmen macht sich hingegen mit einem Plus von 9 Prozent bezahlt. Unabhängig von der Größe zahlen tarifgebundene Betriebe deutlich mehr: Hier liegt das Lohnplus im Durchschnitt bei 11 Prozent (siehe auch die Abbildung in der pdf-Version dieser PM; Link unten). „Es lohnt sich also für die Beschäftigten in tariflosen Betrieben, für einen Tarifvertrag zu kämpfen – auch wenn der Weg dahin nicht immer einfach ist“, so WSI-Lohnexperte Lübker.

Die Datenanalyse zeigt auch, wie groß die Entgeltunterschiede innerhalb Deutschlands noch immer sind. Am besten gezahlt wird in Baden-Württemberg und Hamburg, wo die Gehälter für vergleichbare Tätigkeiten um 7 bzw. 6 Prozent über dem Niveau Nordrhein-Westfalens liegen, das für die Berechnungen als Vergleichsmaßstab verwendet wurde. Am Tabellenende stehen die ostdeutschen Flächenländer Thüringen ( 15 Prozent), Sachsen und Sachsen-Anhalt (jeweils -14 Prozent). Durch die Nähe zu den Ballungsräumen Hamburg und Berlin haben Beschäftigte in Mecklenburg-Vorpommern ( 12 Prozent) und Brandenburg ( 11 Prozent) hingegen bessere Ausweichmöglichkeiten. Dies macht sich in beiden Ländern in einem verschärften Fachkräftemangel bemerkbar, der bisher aber nur zu moderaten Lohnanpassungen geführt hat. „Eine Niedriglohnpolitik kann keine sinnvolle Antwort auf fehlende Fachkräfte sein, wenn 60 Autominuten entfernt im gleichen Beruf deutlich mehr gezahlt wird“, gibt Lohnexperte Lübker zu bedenken.

Neben den fünf wesentlichen Bestimmungsfaktoren gibt es eine Reihe von weiteren Einflüssen auf die Höhe des Gehalts. Dazu zählen das Berufsfeld selbst, die Berufserfahrung und ob jemand im Job Leitungsverantwortung übernommen hat. Das Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) hat deswegen einen Lohn- und Gehaltscheck entwickelt, mit dem Beschäftigte auf Lohnspiegel.de für über 500 Berufe eine genaue Vergleichsberechnung durchführen können. Das Angebot ist kostenlos und ohne Eingabe einer E-Mail-Adresse nutzbar.

– Informationen zur Methode –
Die ausgewiesenen Entgeltunterschiede beruhen auf einer Lohn-regression, mit deren Hilfe der Einfluss einzelner Faktoren auf das Entgeltniveau statistisch errechnet werden kann. Der Vergleich bezieht sich auf Beschäftigte mit der gleichen Berufserfahrung in der gleichen Berufsuntergruppe (4-Steller der Klassifikation der Berufe von 2010).

Als Datengrundlage dient eine kontinuierlichen Online-Umfrage des WSI-Portals Lohnspiegel.de unter Erwerbstätigen in Deutschland. Für die Analyse wurden 62.758 Datensätze berücksichtigt, die zwischen Anfang 2020 und Ende Januar 2021 erhoben wurden. Die Umfrage ist nicht-repräsentativ, erlaubt aber aufgrund der hohen Fallzahlen detaillierte Einblicke in die tatsächlich gezahlten Entgelte. Lohnspiegel.de ist ein nicht-kommerzielles Angebot der Hans-Böckler-Stiftung.

Wissenschaftliche Ansprechpartner:
Dr. Malte Lübker
WSI, Experte für Tarif- und Einkommensanalysen
Tel.: 0211 / 77 78-574
E-Mail: Malte-Luebker@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Die PM mit Abbildung (pdf): https://www.boeckler.de/pdf/pm_ta_2021_03_30.pdf

Online Ressourcen:
Der Lohn- und Gehaltscheck des WSI-Portals Lohnspiegel.de bietet individualisierte Vergleichsberechnungen für über 500 Berufe: https://www.lohnspiegel.de/lohn-und-gehaltscheck-13814.htm

Einen Überblick der Tarifvergütungen in zahlreichen Berufen und Branchen findet sich auf den Seiten des WSI-Tarifarchivs: https://www.wsi.de/de/tarifverguetungen-15296.htm

Weitere Informationen:
Ausführliche berufskundliche Informationen finden Interessenten im BERUFENET der Bundesagentur für Arbeit unter: https://berufenet.arbeitsagentur.de/berufenet/faces/index?path=null

(nach oben)


Welche Rolle spielt das Grundwasser für die Küstenmeere?

Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Eine neue Studie in Nature Reviews Earth & Environment beleuchtet die große Bedeutung von Nährstoffeinträgen durch Grundwasser in die Küstenozeane. Solche Nährstoffe können weltweit eine entscheidende Rolle für die Funktion und die Anfälligkeit von Küstenökosystemen spielen.

Die Nährstoffbudgets im Ozean sind einer Vielzahl von Einflüssen ausgesetzt. Flüsse bringen industrielle Rückstände und Dünger aus der Landwirtschaft ins Küstenmeer ein, Abwässer aus Siedlungen oder Aquakulturanlagen werden in vielen Ländern direkt eingeleitet, und sogar der Wind bläst vor allem in Wüstenregionen beträchtliche Mengen an Nährstoffen ins Meer.

Aber auch durch das Grundwasser gelangen Nährstoffe in die Ozeane. Die Meeresforschung widmet sich erst seit einigen Jahren intensiver diesem Aspekt, und im Küstenmanagement ist er bisher kaum berücksichtigt worden. Denn die Quellen sind nahezu unsichtbar, sie liegen meist unterhalb der Wasseroberfläche und sind in ihrer Anzahl und Aktivität sehr variabel.

Ein neuer Artikel in Nature Reviews Earth & Environment wertet jetzt die Ergebnisse zahlreicher Studien aus. Sie wurden weltweit an mehr als 200 Orten in Küstenbereichen vorgenommen, die von den Polar- bis in die Tropenmeere reichen. Die Untersuchungen quantifizieren die Nährstoffflüsse aus Grundwassereinträgen und erklären deren Auswirkungen für die Meeresökosysteme. Dem internationalen Autorenkollektiv gehört auch der Hydrogeologe Prof. Dr. Nils Moosdorf vom Leibniz-Zentrum für Marine Tropenforschung (ZMT) an.

60% der Studien zeigen, dass an den untersuchten Orten Nährstoffe wie Stickstoff, Phosphor und Silizium über das Grundwasser in größeren Mengen ins Meer gelangen als etwa über Flüsse, den größten Nährstoffquellen der Ozeane. Damit ist Grundwasser an vielen Stellen im Meer der wichtigste Nährstofflieferant für Küstenökosysteme. Hochrechnungen ergaben, dass das Grundwasser weltweit um die 140 Millionen Tonnen Silizium, 40 Millionen Tonnen Stickstoff und 9 Millionen Tonnen Phosphor pro Jahr ins Meer entlässt.

Süßes Grundwasser bahnt sich durch Gesteins- oder Sandschichten einen Weg ins Meer und sickert dort im Küstenbereich heraus. Die Studien berücksichtigten aber auch Nährstoffeinträge aus dem Meeressediment. Dort lagert sich organischer Abfall ab und wird zersetzt. Er kann über Hunderte von Jahren begraben liegen, bis die Nährstoffe wieder aus dem Sand herausgespült werden.

Je nach Ort bedeuten solche Stoffeinträge Segen oder Fluch für die Küstenökosysteme. Beispielsweise fördert das Grundwasser manchmal das Wachstum von Korallenriffen.

Auch die lokale Fischerei kann einen Vorteil haben. Plankton gedeiht durch die Nährstoffe besonders gut, so dass reichlich Futter für Fische vorhanden ist. Die nährstoffreichen Grundwasserquellen der australischen „Wonky Holes“ etwa sind Hotspots für Fische wie Riesenbarsche und daher von Bedeutung für Fischerei und Tourismus.

Es gibt jedoch auch negative, teils sehr massive Auswirkungen der Grundwasserströme auf die Küstenökosysteme. Vielerorts führt ein Überschuss an Nährstoffen zu Überdüngung der Gewässer und zu Algenblüten. Über das Grundwasser können giftige Schadstoffe ins Meer gelangen. Auch hat das süße Grundwasser meist einen niedrigen pH-Wert und kann an manchen Orten zur Versauerung des Küstenwassers beitragen.

Solche negativen Effekte von Nährstoffen sieht man beispielweise vor der Küste von Hawaii, wo auch kürzlich der Oberste Gerichtshof der USA entschieden hat, dass das Grundwasser besser geschützt werden muss, um den Küstenozean vor Schaden zu bewahren,

„Die Studien machen deutlich, dass Grundwasser eine sehr wichtige Nährstoffquelle für die Meere ist und eine wesentliche Komponente für die Funktion und die Anfälligkeit von Küstenökosystemen darstellt, sowohl auf lokaler als auch auf globaler Ebene“, so Moosdorf.

In Forschung und Küstenmanagement sollten laut Moosdorf daher Grundwassereinträge stärker berücksichtigt werden. Es ist zu erwarten, dass die Klimaerwärmung und eine immer intensivere Landnutzung die chemische Zusammensetzung und das Volumen der Einträge verändern werden. Ein angemessenes Verständnis ihrer Rolle im ökologischen und wirtschaftlichen Kontext ist erforderlich, um effektive Strategien im Küstenmanagement zu entwickeln.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nils Moosdorf
Leiter AG Submariner Grundwasserabfluss am Leibniz-Zentrum für Marine Tropenforschung (ZMT)
Tel: 0421 / 23800-33
Mail: nils.moosdorf@leibniz-zmt.de

Originalpublikation:
Isaac R. Santos, Xiaogang Chen, Alanna L. Lecher, Audrey H. Sawyer, Nils Moosdorf, Valentí Rodellas, Joseph Tamborski, Hyung- Mi Cho, Natasha Dimova, Ryo Sugimoto, Stefano Bonaglia, Hailong Li, Mithra- Christin Hajati and Ling Li: Submarine groundwater discharge impacts on coastal nutrient biogeochemistry. Nature Reviews Earth & Environment. Link: https://www.nature.com/articles/s43017-021-00152-0

(nach oben)


Grüner Wasserstoff: Transport im Erdgasnetz

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Forschende der Fraunhofer-Gesellschaft haben eine Technologie entwickelt, mit der sich Wasserstoff und Erdgas kostengünstig und effizient voneinander trennen lassen. Die Membran-Technologie macht es damit möglich, die beiden Stoffe gemeinsam durch das bundesweite Erdgasnetz zu leiten und am Zielort voneinander zu trennen. Für den Transport und die Verteilung des Energieträgers Wasserstoff ist dies ein großer Fortschritt.

Das Fraunhofer-Institut für Keramische Technologien und Systeme IKTS erforscht neben Werkstoffen aus Keramik auch das Potenzial anderer Materialien, wie beispielsweise Kohlenstoff. Dieser könnte nun im Zusammenhang mit dem Trend zum Energieträger Wasserstoff eine wichtige Rolle spielen. Wasserstoff gilt als Hoffnungsträger beim Aufbau einer CO2-freien Energieversorgung. Wird er aus erneuerbaren Energien wie Wind und Sonne gewonnen, entstehen keine klimaschädlichen Emissionen. Doch wie bringt man diesen »grünen« Wasserstoff vom Erzeuger zum Verbraucher? Ein flächendeckendes Verteilernetz für Wasserstoff gibt es derzeit in Deutschland noch nicht.

An Lösungen für diese Problematik arbeitet die Projektinitiative HYPOS (Hydrogen Power Storage & Solutions East Germany). Ziel ist, eine intelligente Infrastruktur aus Verteilernetzen und Speicherstationen zu schaffen, die den sauberen Energieträger in allen Regionen zur Verfügung stellt.

Wasserstoff über das Erdgasnetz verteilen
Die Projektpartner in HYPOS verfolgen unter anderem den Ansatz, den Wasserstoff (H2) gemeinsam mit dem Erdgas (Hauptbestandteil Methan, CH4) zu transportieren. Schließlich verfügt Deutschland über ein 511 000 Kilometer langes Gasnetz und 33 Orte mit Gasspeichern. »Dieser Infrastrukturvorteil erlaubt es, ins Erdgasnetz zusätzlich Wasserstoff einzuspeisen. Beide Stoffe können gemeinsam in einer Leitung transportiert werden. Am Zielort lassen sie sich bedarfsgerecht wieder voneinander trennen«, erklärt Dr. Adrian Simon, Gruppenleiter am Fraunhofer IKTS.

Hier kommt der Kohlenstoff ins Spiel. Dieser befindet sich als hauchdünne Schicht auf einem porösen, keramischen Trägermaterial und dient als Membran, die Erdgas und Wasserstoff voneinander trennt. Die Membranherstellung umfasst mehrere Schritte, beginnend mit der maßgeschneiderten Polymersynthese. Polymere sind Stoffe, die aus verzweigten Ketten von Makromolekülen bestehen. Diese werden anschließend auf das poröse Trägermaterial aufgebracht. Durch Erhitzen unter gleichzeitigem Ausschluss von Sauerstoff bildet das Polymer an seiner Oberfläche eine Kohlenstoff-Schicht aus. Im Kohlenstoff haben die Poren einen Durchmesser von unter einem Nanometer, wodurch sie sich gut für die Gastrennung eignen. Das Trennverhalten der Membran lässt sich durch physikalische und chemische Prozesse noch weiter einstellen. Bei der Entwicklung der röhrenförmigen Kohlenstoff-Membranen hat das Fraunhofer IKTS mit dem Leipziger Unternehmen DBI Gas- und Umwelttechnik GmbH zusammengearbeitet.

Im Trennungsprozess werden Wasserstoff und Erdgas durch die röhrenförmigen Module getrieben. Dabei werden die kleineren Wasserstoffmoleküle durch die Poren der Membran gedrückt und gelangen als Gas nach außen, die größeren Methanmoleküle hingegen bleiben zurück. »Auf diese Weise erhalten wir Wasserstoff mit einer Reinheit von 80 Prozent. Die verbliebenen Erdgasreste filtern wir in einer zweiten Trennstufe aus. So erzielen wir eine Reinheit von über 90 Prozent«, erklärt Simon.

Emissionsfreie Strom- und Wärmeversorgung in Gebäuden
Wasserstoff mit diesem Reinheitsgrad lässt sich für verschiedene Anwendungen nutzen, beispielsweise in der Stahlproduktion. Hier ersetzt er im Hochtemperaturofen den Kohlenstoff bei der Reduktion von Eisenerz zu Eisen und liefert damit einen wichtigen Beitrag zur CO2-Reduktion. Auch bei der klimafreundlichen Energieversorgung von Gebäuden ist Wasserstoff eine attraktive Option. Bei der Verbrennung entstehen Strom und Wärme, als Nebenprodukt fällt lediglich Wasser an. So könnten beispielsweise Blockheizkraftwerke (BHKW) einzelne Gebäudekomplexe oder Stadtviertel mit sauberem Strom und Wärmeenergie beliefern. Auch der Einsatz in Gasthermen ist denkbar.

Derzeit arbeiten die Forschenden des Fraunhofer IKTS daran, die Technik so zu skalieren, dass auch größere Volumina Erdgas und Wasserstoff getrennt werden können. Hierfür ist der Bau von Prototypen bereits in Planung.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/april-2021/gruener-…

(nach oben)


Ein neuer Zustand des Lichts

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Ein einziges „Super-Photon“ aus vielen Tausend einzelnen Lichtteilchen – rund zehn Jahre ist es her, dass Forscher der Universität Bonn einen solchen extremen Aggregatzustand zum ersten Mal herstellten. Prof. Dr. Martin Weitz und Prof. Dr. Johann Kroha berichten von einem neuen, bisher unbekannten Phasenübergang in einem solchen optischen Bose-Einstein-Kondensat. Es handelt sich dabei um eine sogenannte überdämpfte Phase. Die Ergebnisse könnten langfristig für die verschlüsselte Quantenkommunikation relevant sein. Die Studie ist in der Fachzeitschrift Science erschienen. ACHTUNG SPERRFRIST: Nicht vor Donnerstag, 1. April, 20:00 Uhr veröffentlichen!

Das Bose-Einstein-Kondensat ist ein extremer Aggregatzustand, der üblicherweise nur bei sehr niedrigen Temperaturen stattfindet. Das Besondere: Die Teilchen in diesem System lassen sich nicht mehr unterscheiden und befinden sich überwiegend im selben quantenmechanischen Zustand, verhalten sich also wie ein einziges riesiges „Superteilchen“. Der Zustand kann daher durch eine einzige Wellenfunktion beschrieben werden.

2010 gelang es den Forschern um Martin Weitz zum ersten Mal, ein Bose-Einstein-Kondensat aus Lichtteilchen (Photonen) zu erzeugen. Bis heute hat sich ihr spezielles System bewährt: Die Physiker fangen Lichtteilchen in einem Resonator aus zwei gekrümmten Spiegeln ein, die in einem Abstand von nur etwas mehr als einem Mikrometer angeordnet sind und einen sich schnell hin- und herbewegenden Lichtstrahl reflektieren. Der Zwischenraum ist gefüllt mit einer flüssigen Farbstofflösung, die dazu dient, die Photonen abzukühlen. Dazu „verschlucken“ die Farbstoffmoleküle die Photonen und spucken sie anschließend wieder aus, wodurch die Lichtteilchen auf die Temperatur der Farbstofflösung – entspricht Raumtemperatur – gebracht werden. Hintergrund: Das System macht es überhaupt erst möglich, Lichtteilchen abzukühlen, denn ihre natürliche Eigenschaft ist es, sich bei Abkühlung aufzulösen.

Klare Trennung zweier Phasen
Phasenübergang – so nennen Physiker den Übergang zwischen Wasser und Eis beim Gefrieren. Aber wie kommt es zu dem besonderen Phasenübergang innerhalb des Systems der eingefangenen Lichtteilchen? Die Wissenschaftler erklären es so: Durch die etwas lichtdurchlässigen Spiegel gehen Photonen verloren und werden wieder ersetzt – ein Nichtgleichgewicht, das dazu führt, dass das System keine eindeutige Temperatur einnimmt und in eine Schwingung versetzt wird. Das lässt einen Übergang zwischen dieser oszillierenden Phase und einer gedämpften Phase entstehen. Gedämpft bedeutet, dass die Amplitude der Schwingung abnimmt.

„Die von uns beobachtete überdämpfte Phase entspricht sozusagen einem neuen Zustand des Lichtfelds“, sagt Erstautor Fahri Emre Öztürk, Doktorand am Institut für Angewandte Physik der Universität Bonn. Die Besonderheit ist, dass der Effekt des Lasers üblicherweise nicht von dem der Bose-Einstein-Kondensation durch einen Phasenübergang getrennt ist und es keine scharf definierte Grenze zwischen beiden Zuständen gibt. Das bedeutet, dass die Physiker kontinuierlich zwischen den Effekten hin- und herfahren können.

„In unserem Experiment ist hingegen der überdämpfte Zustand des optischen Bose-Einstein-Kondensats durch einen Phasenübergang von sowohl dem oszillierenden Zustand als auch einem üblichen Laser getrennt“, sagt Studienleiter Prof. Dr. Martin Weitz. „Das zeigt, dass es ein Bose-Einstein-Kondensat gibt, das wirklich ein anderer Zustand als der übliche Laser ist. Anders ausgedrückt, haben wir es mit zwei getrennten Phasen des optischen Bose-Einstein-Kondensats zu tun“, betont er.

Aufbauend auf den Ergebnissen wollen die Wissenschaftler in weiteren Studien nach neuen Zuständen des Lichtfelds in mehreren gekoppelten Lichtkondensaten suchen, die in dem System ebenfalls auftreten können. „Wenn in gekoppelten Lichtkondensaten geeignete quantenmechanisch verschränkte Zustände auftreten, kann das interessant sein, um quantenverschlüsselte Nachrichten zwischen mehreren Teilnehmern zu übertragen“, sagt Fahri Emre Öztürk.

Förderung:
Die Studie erhielt finanzielle Unterstützung durch den von der Deutschen Forschungsgemeinschaft geförderten Sonderforschungsbereich TR 185 „OSCAR – Kontrolle atomarer und photonischer Quantenmaterie durch maßgeschneiderte Kopplung an Reservoire“ der Universitäten Kaiserslautern und Bonn sowie den Exzellenzcluster ML4Q der Universitäten Köln, Aachen, Bonn sowie des Forschungszentrums Jülich. Der Exzellenzcluster ist eingebettet in den Transdisziplinären Forschungsbereich (TRA) „Bausteine der Materie und grundlegende Wechselwirkungen“ der Universität Bonn. Darüber hinaus wurde die Studie gefördert durch die Europäische Union im Rahmen des Projekts „PhoQuS – Photons for Quantum Simulation“ und das Deutsche Zentrum für Luft- und Raumfahrt mit Mitteln des Bundesministeriums für Wirtschaft und Energie.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martin Weitz
Institut für Angewandte Physik
Universität Bonn
Tel.: +49-(0)228-73-4837
E-Mail: weitz@uni-bonn.de

Dr. Julian Schmitt
Institut für Angewandte Physik
Universität Bonn
Tel.: +49-(0)228-73-60122
E-Mail: schmitt@iap.uni-bonn.de

Prof. Dr. Johann Kroha
Physikalisches Insitut
Universität Bonn
Tel.: +49-(0)228-73-2798
E-Mail: kroha@physik.uni-bonn.de

Originalpublikation:
Fahri Emre Öztürk, Tim Lappe, Göran Hellmann, Julian Schmitt, Jan Klaers, Frank Vewinger, Johann Kroha & Martin Weitz: Observation of a Non-Hermitian Phase Transition in an Optical Quantum Gas. Science, DOI: 10.1126/science.abe9869

Weitere Informationen:
http://Video: be/PHSNJIu2IVo

(nach oben)


Apokalyptische und Postapokalyptische Studien

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Mit dem kulturübergreifenden Phänomen von der Weissagung des Weltendes, insbesondere angesichts aktueller globaler Bedrohungen, beschäftigt sich eine neue transdisziplinäre Forschungseinrichtung an der Universität Heidelberg: Das Käte Hamburger Kolleg für Apokalyptische und Postapokalyptische Studien – das Centre for Apocalyptic and Post-Apocalytic Studies (CAPAS) – hat mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) seine Arbeit aufgenommen. Zur Bearbeitung seiner Themen lädt das CAPAS Wissenschaftlerinnen und Wissenschaftler aus aller Welt zu Forschungsaufenthalten nach Heidelberg ein. Neues Käte Hamburger Kolleg nimmt Arbeit an der Universität Heidelberg auf.

Mit dem kulturübergreifenden Phänomen von der Weissagung des Weltendes, insbesondere angesichts aktueller globaler Bedrohungen, beschäftigt sich eine neue transdisziplinäre Forschungseinrichtung an der Universität Heidelberg: Das Käte Hamburger Kolleg für Apokalyptische und Postapokalyptische Studien – das Centre for Apocalyptic and Post-Apocalytic Studies (CAPAS) – hat mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) seine Arbeit aufgenommen. Zur Bearbeitung seiner Themen lädt das CAPAS Wissenschaftlerinnen und Wissenschaftler aus aller Welt zu Forschungsaufenthalten nach Heidelberg ein. Das BMBF fördert das Kolleg über einen Zeitraum von zunächst vier Jahren mit rund neun Millionen Euro. CAPAS-Direktoren sind der Romanist Prof. Dr. Robert Folger sowie der Archäologe Prof. Dr. Thomas Meier.

Apokalypsen zeichnen sich durch radikale Veränderungen der Lebensbedingungen aus, die als zwingend für fundamentale Reformen des Lebenswandels begriffen werden. „Vor dem Hintergrund weltweiter Herausforderungen wie der Corona-Pandemie oder dem Klimawandel haben apokalyptische Erwartungen derzeit Hochkonjunktur. Dabei ist die Prophezeiung vom Ende der Welt ein wiederkehrendes Phänomen, das sich in ganz unterschiedlichen Kulturen und Zeiten zeigt“, so Prof. Folger. „Die Apokalypse ist aber nicht nur eine Denkfigur, sondern auch eine grundlegende Erfahrung der Menschheitsgeschichte. Als solche ist sie beobacht- und beschreibbar, während ihre kulturelle Formung kulturvergleichend und interpretierend erschlossen werden muss.“

Im Zentrum des Käte Hamburger Kollegs an der Universität Heidelberg steht die Frage, wie sich Katastrophen und Endzeit-Szenarien auf Gesellschaften ebenso wie auf Individuen und ihre unmittelbare Umwelt auswirken. „Ziel ist es, vergangene und gegenwärtige Systemumbrüche oder Systemzusammenbrüche auf der Grundlage eines transdisziplinären Forschungsansatzes zu beschreiben und voneinander abzugrenzen“, erläutert Prof. Meier. „Auch die Reaktionen auf apokalyptische Szenarien sowie Zukunftsentwürfe für die Zeit nach einer Katastrophe sollen vor dem Hintergrund ihrer jeweiligen historischen und kulturellen Rahmenbedingungen analysiert und hinterfragt werden.“

Mit Mitteln des BMBF wurden von 2008 an zehn Käte Hamburger Kollegs als Teil der Initiative „Freiraum für die Geisteswissenschaften“ an Universitäten eingerichtet. In einer neuen, im Jahr 2019 bekannt gegebenen Förderrunde werden nun auch transdisziplinäre Forschungsvorhaben finanziert, die eine international vergleichende geisteswissenschaftliche Fragestellung in Zusammenarbeit mit den Lebens-, den Natur-, den Technik- oder den Ingenieurwissenschaften verfolgen. CAPAS und ein weiteres Kolleg in Aachen sind die ersten vom Bundesministerium für Bildung und Forschung geförderten Käte Hamburger Kollegs mit einer solchen Ausrichtung. Nach einer vierjährigen Förderung kann das Kolleg in zwei weiteren Förderrunden nach jeweils erfolgreicher Evaluation um jeweils vier Jahre verlängert werden.

Das Centre for Apocalyptic and Post-Apocalytic Studies lädt international ausgewiesene Wissenschaftlerinnen und Wissenschaftler – sogenannte Fellows – an die Universität Heidelberg ein, die hier für eine Zeitdauer von bis zu einem Jahr zum Thema des Kollegs forschen. An der Ruperto Carola sind im Sommersemester 2021 vier Fellows zu Gast, vom Wintersemester 2021/2022 an kommen sechs weitere hinzu. Aus aktuellem Anlass untersucht die erste Fellow-Klasse apokalyptische Szenarien, die sich im Kontext der COVID-19-Pandemie in Asien, Europa und Lateinamerika entwickelt haben. Darüber hinaus analysieren die Fellows die jeweiligen Visionen der Postapokalypse.

Die Wissenschaftlerinnen und Wissenschaftler werden in den kommenden Wochen gemeinsam mit dem Team des CAPAS den Kollegbetrieb in wöchentlichen Arbeitstreffen, Diskussionskreisen und Vorträgen aufnehmen. Darüber hinaus sind Veranstaltungen mit deutschen und internationalen Kooperationspartnern sowie anderen disziplinenübergreifenden Zentren der Universität wie dem Heidelberg Center for the Environment und dem Heidelberg Centre for Transcultural Studies oder dem Marsilius-Kolleg als Brücke zwischen den Wissenschaftskulturen geplant.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
http://www.capas.uni-heidelberg.de

(nach oben)


Röntgenlichtquelle PETRA III identifiziert vielversprechende Kandidaten für Coronamedikamente

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
An DESYs hochbrillanter Röntgenlichtquelle PETRA III hat ein Forschungsteam mehrere Kandidaten für Wirkstoffe gegen das Coronavirus SARS-CoV-2 identifiziert. Sie binden an ein wichtiges Protein des Virus und könnten damit die Basis für ein Medikament gegen Covid-19 sein. In einem sogenannten Röntgenscreening testeten die Forscherinnen und Forscher unter Federführung von DESY in kurzer Zeit fast 6000 bereits für die Behandlung anderer Krankheiten existierende Wirkstoffe. Nach der Messung von rund 7000 Proben konnte das Team insgesamt 37 Stoffe identifizieren, die an die Hauptprotease (Mpro) des SARS-CoV-2-Virus binden, wie die Gruppe im renommierten Fachmagazin „Science“ online berichtet.

Sieben dieser Stoffe hemmen die Tätigkeit des Proteins und bremsen so die Vermehrung des Virus. Zwei von ihnen tun das so vielversprechend, dass sie zurzeit in präklinischen Studien weiter untersucht werden. Das vermutlich größte Wirkstoffscreening dieser Art brachte zudem eine neue Bindungsstelle an der Hauptprotease des Virus zu Tage, an der Medikamente ankoppeln können.

Im Gegensatz zu Impfstoffen, die gesunden Menschen helfen, sich gegen das Virus wehren zu können, werden in der Wirkstoffforschung Medikamente gesucht, die bei erkrankten Personen die Vermehrung des Virus im Körper bremsen oder zum Erliegen bringen. Viren können sich allein nicht vermehren. Sie schleusen stattdessen ihr eigenes Erbgut in die Zellen ihres Wirts ein und bringen diese dazu, neue Viren herzustellen. Dabei spielen Proteine wie die Hauptprotease des Virus eine wichtige Rolle. Sie zerschneidet Proteinketten, die nach dem Bauplan des Viruserbguts von der Wirtszelle hergestellt wurden, in kleinere Teile, die für die Vermehrung des Virus notwendig sind. Gelingt es, die Hauptprotease zu blockieren, lässt sich der Zyklus unter Umständen unterbrechen; das Virus kann sich nicht mehr vermehren, und die Infektion ist besiegt.

Die Strahlführung P11 von DESYs Forschungslichtquelle PETRA III ist auf strukturbiologische Untersuchungen spezialisiert. Hier lässt sich die dreidimensionale räumliche Struktur von Proteinen atomgenau darstellen. Das nutzte das Forschungsteam um DESY-Physiker Alke Meents, um mehrere tausend bekannte Wirkstoffe aus einer Bibliothek des Fraunhofer-Instituts für Translationale Medizin und Pharmakologie und einer weiteren der italienischen Firma Dompé Farmaceutici SpA darauf zu untersuchen, ob und wie sie an die Hauptprotease „andocken“ – der erste wichtige Schritt, um sie zu blockieren. Wie der Schlüssel in ein Schloss passt dabei das Wirkstoffmolekül in ein Bindungszentrum der Protease. Der Vorteil der Wirkstoffbibliothek: Es handelt sich um bereits für die Behandlung von Menschen zugelassene Wirkstoffe oder solche, die sich zurzeit in verschiedenen Erprobungsphasen befinden. Geeignete Kandidaten zur Bekämpfung von SARS-CoV-2 könnten daher erheblich schneller in klinischen Studien eingesetzt werden und so Monate oder Jahre der Wirkstoffentwicklung sparen.

Die technische Spezialausrüstung an der PETRA III-Station P11 beinhaltet einen vollautomatischen Probenwechsel mit einem Roboterarm, so dass jede der über 7000 Messungen nur etwa drei Minuten dauerte. Mit Hilfe einer automatisierten Datenanalyse konnte das Team schnell die Spreu vom Weizen trennen. „Mit Hilfe eines Hochdurchsatzverfahrens haben wir insgesamt 37 Wirkstoffe finden können, die eine Bindung mit der Hauptprotease eingehen“, sagt Meents, der die Experimente initiierte.

In einem nächsten Schritt untersuchten die Forscherinnen und Forscher am Bernhard-Nocht-Institut für Tropenmedizin, ob diese Wirkstoffe in Zellkulturen die Virusvermehrung hemmen oder gar verhindern, und wie verträglich sie für die Wirtszellen sind. Hierbei reduzierte sich die Zahl der geeigneten Wirkstoffe auf sieben, von denen zwei besonders hervorstachen. „Die Wirkstoffe Calpeptin und Pelitinib zeigten die deutlich höchste Antiviralität bei guter Zellverträglichkeit. Unsere Kooperationspartner haben daher bereits präklinische Untersuchungen mit diesen beiden Wirkstoffen begonnen“, erklärt DESY-Forscher Sebastian Günther, Erstautor der Science-Veröffentlichung.

In ihrem Wirkstoffscreening mit Hilfe der Proteinkristallographie untersuchten die Forschenden nicht wie üblich Fragmente potenzieller Wirkstoffe, sondern vollständige Wirkstoffmoleküle. Dabei entdeckte das Team aus mehr als 100 Wissenschaftlerinnnen und Wissenschaftlern aber auch etwas komplett Unerwartetes: Es fand eine Bindungsstelle an der Hauptprotease, die bis dahin noch völlig unbekannt war. „Es war nicht nur eine positive Überraschung, dass wir eine neue Bindestelle für Medikamente an der Hauptprotease entdecken konnten – ein Ergebnis, das man wirklich nur an einer Synchrotronlichtquelle wie PETRA III erzielen kann –, sondern dass sogar einer der beiden heißen Wirkstoffkandidaten genau an diese Stelle bindet“, sagt Christian Betzel vom Exzellenzcluster CUI der Universität Hamburg, Mitinitiator der Studie.

„Eine besondere Stärke unserer Methode des Röntgenscreenings im Vergleich zu anderen Screeningmethoden ist, dass wir als Ergebnis die dreidimensionale Struktur der Protein-Wirkstoff-Komplexe erhalten und damit die Bindung der Wirkstoffe an das Protein auf atomarer Ebene bestimmen können. Selbst wenn die beiden aussichtsreichsten Kandidaten es nicht in klinische Studien schaffen sollten, so bilden die 37 Stoffe, die an die Hauptprotease binden, eine wertvolle Datenbasis für darauf aufbauende Medikametenentwicklungen,“ erläutert Patrick Reinke, DESY-Forscher und Koautor der Veröffentlichung.

„Die Untersuchungen an PETRA III zeigen eindrucksvoll, wie relevant hochbrillante Synchrotronlichtquellen für die Entwicklung zukünftiger Medikamente und die Gesundheitsforschung insgesamt sind“, unterstreicht Helmut Dosch, Vorsitzender des DESY-Direktoriums. „Wir müssen und wollen unsere Infrastrukturen künftig noch stärker zur Bewältigung von derartigen Gesundheitskrisen ausbauen.“

An den Arbeiten sind neben DESY-Wissenschaftlerinnen und -Wissenschaftlern auch Forscherinnen und Forscher der Universitäten Hamburg und Lübeck, des Bernhard-Nocht-Instituts für Tropenmedizin, des Fraunhofer-Instituts für Translationale Medizin und Pharmakologie, des Heinrich-Pette-Instituts, des European XFEL, des Europäischen Laboratoriums für Molekularbiologie EMBL, der Max-Planck-Gesellschaft, des Helmholtz-Zentrums Berlin und weiteren Institutionen beteiligt. Zusätzlich zu den Experimenten an der Messstation P11 wurden auch Messungen an den EMBL-Messstationen P13 und P14 an PETRA III durchgeführt.

DESY zählt zu den weltweit führenden Teilchenbeschleuniger-Zentren und erforscht die Struktur und Funktion von Materie – vom Wechselspiel kleinster Elementarteilchen, dem Verhalten neuartiger Nanowerkstoffe und lebenswichtiger Biomoleküle bis hin zu den großen Rätseln des Universums. Die Teilchenbeschleuniger und die Nachweisinstrumente, die DESY an seinen Standorten in Hamburg und Zeuthen entwickelt und baut, sind einzigartige Werkzeuge für die Forschung: Sie erzeugen das stärkste Röntgenlicht der Welt, bringen Teilchen auf Rekordenergien und öffnen neue Fenster ins Universum. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Günther, DESY, sebastian.guenther@desy.de, +49 40 8998 6115
Dr. Alke Meents, alke.meents@desy.de, +49 171 5676551

Originalpublikation:
X-ray screening identifies active site and allosteric inhibitors of SARS-CoV-2 main protease; Sebastian Günther, Patrick Y. A. Reinke, et al.; „Science“, 2021; DOI: https://science.sciencemag.org/lookup/doi/10.1126/science.abf7945

Weitere Informationen:
https://desycloud.desy.de/index.php/s/eqFG93bGDcPjE6F
Fotos, Bilder und Animationen zum Wirkstoffscreening für die redaktionelle Verwendung

(nach oben)


Covid-19 und der öffentliche Raum in der Krise

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Die Corona-Krise hat große Teile des privaten und öffentlichen Lebens in den Städten auf den Kopf gestellt. Wie hat sich die Nutzung der Straßen, Parks und Bahnhöfe in den Städten verändert? Welche langfristigen Effekte gibt es? Wie lassen sich öffentliche Räume planen und gestalten, damit sie trotz der Krise funktionsfähig und attraktiv bleiben? Im Auftrag des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) und des Bundesministeriums des Innern, für Bau und Heimat erforscht ein Team der Universität Bonn unter Leitung von Professor Theo Kötter gemeinsam mit der empirica ag die Auswirkungen der Pandemie. Das Projekt wird mit rund einer Viertelmillion Euro gefördert.

“Ziel des Projektes ist es, Erkenntnisse zur Stärkung der Resilienz von Städten und Gemeinden gegenüber Pandemien zu gewinnen”, sagt Prof. Dr. Theo Kötter vom Institut für Geodäsie und Geoinformation der Universität Bonn. “Dazu gehört auch, die Bedeutung und die erforderlichen Anpassungsmaßnahmen für die öffentlichen Räume aufzuzeigen, damit diese auch weiterhin einen wichtigen Beitrag zur Lebens-, Aufenthalts- und Standortqualität in unseren Städten leisten können.” Es sind ausgewählte Fallstudien geplant, in denen es auch um halböffentliche Räume wie etwa Innenhöfe, Schulhöfe und Kirchen geht. In den nächsten Wochen starten Befragungen. Neben den Planungsverwaltungen der Städte werden auch Vereine, örtliche Initiativen, Sozialverbände und Unternehmen einbezogen.

Parks erfreuen sich wachsender Beliebtheit
Berücksichtigt werden auch weitergehende Anforderungen wie die Klimaanpassung, die ökologische Aufwertung und die multifunktionale ökonomische Nutzung der öffentlichen Räume. “Die Auswirkungen der Pandemie auf die verschiedenen Typen öffentlicher Räume unterscheiden sich ganz erheblich”, sagt Kötter. Während sich Einkaufsstraßen und Bahnhöfe leeren, erfreuen sich Parks und andere Grünflächen wachsender Beliebtheit.

Aus diesem Grund soll mit einem lokalen Schwerpunkt auf hochverdichtete Stadtviertel die Hypothese überprüft werden, ob beispielsweise die Siedlungsstruktur, die bauliche Dichte und die Sozialstruktur eines Quartiers entscheidende Rollen bei den Auswirkungen der Pandemie spielen. Zugleich werden die Anpassungsmaßnahmen der Städte und Gemeinden systematisch erfasst und hinsichtlich ihrer Wirkungen analysiert. Dabei stellt sich die Frage, wie beispielsweise das Bund-Länder-Programm der Städtebauförderung zur Bewältigung der Krise modifiziert und eingesetzt werden kann.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Theo Kötter
Institut für Geodäsie und Geoinformation
Universität Bonn
Tel. 0228/732612
E-Mail: koetter@uni-bonn.de

Weitere Informationen:
https://www.bbsr.bund.de/BBSR/DE/forschung/programme/refo/staedtebau/2020/covid-…

(nach oben)


Neuer Schwung für die Elektromobilität: Entwicklung von effizienteren Lithium-Ionen-Batterien

Fraunhofer IFAM Dresden Kommunikation
Fraunhofer-Gesellschaft
Mit dem neuen Projekt „RoSiLIB“ leistet das Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM in Dresden einen entscheidenden Beitrag hin zu einer CO2-neutralen Energieversorgung in der Mobilität. Dafür werden gemeinsam mit den Partnern des Instituts für Ionenstrahlphysik und Materialforschung am Helmholtz-Zentrum Dresden Rossendorf e. V., der E-Lyte Innovations GmbH, der NANOVAL GmbH & Co. KG, der VON ARDENNE GmbH und der Custom Cells Itzehoe GmbH neue hochenergetische Anoden für Lithium-Ionen-Batterien entwickelt.

Der von der Bundesregierung geforderte und geförderte vollständige Umstieg auf die Elektromobilität wird nur mit solchen Lösungen möglich, die den Umstieg von fossilen auf elektrochemische Energieträger befördern. Die Verbesserung von Lithium-Ionen-Batterien hinsichtlich Kosten, Rohstoff- und Energieeffizienz ist dabei ein wichtiger Schritt.

Die anvisierte innovative Anode wird im Projekt entlang der gesamten Wertschöpfungskette entwickelt, um den notwendigen Verbesserungen der Batteriezellen für die Elektromobilität gerecht zu werden. Entscheidend ist dabei die Weiterentwicklung einer neuen kostengünstigen Herstellungsroute für nanoporöse Silizium-Mikroteilchen. Diese sollen genutzt werden, um großformatige Hochenergiebatteriezellen aufzubauen, die mit den bisherigen Anodenmaterialien mit hoher Energiedichte nicht herstellbar sind.

Das Projekt geht die bisher ungelösten Herausforderungen großformatiger Zellen gleich auf mehreren Ebenen an: sowohl für den Volumensprung des Aktivmaterials als auch das Ausgasen des Elektrolyten werden Lösungen entwickelt.

Die Forschenden am Fraunhofer IFAM in Dresden beschäftigen sich innerhalb von „RoSiLIB“ hauptsächlich mit der Weiterentwicklung des nanoporösen Siliziums und passen die innere Struktur der Teilchen weiter an die Anforderungen der Batterie an. Dazu muss die Entstehung der Struktur bei der Pulververdüsung von Siliziumlegierungen besser verstanden werden. In diesem Teilvorhaben werden dazu die Ergebnisse von Verdüsungsexperimenten und Simulationsrechnungen zusammengeführt. Gleichzeitig wird die chemische Aufarbeitung der Pulver weiterentwickelt und skaliert, so dass bis zu 500 g nanoporöses Silizium pro Tag hergestellt werden können.

Innerhalb des Projekts kann das Fraunhofer IFAM Dresden seine umfassende Kompetenz in den Bereichen der Rascherstarrung, der chemischen Synthese und der Entwicklung von Hochleistungsbatterien eindrucksvoll einsetzen und weiteres Know-how für zukünftige Fragestellungen aufbauen.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Olaf Andersen

Weitere Informationen:
https://www.ifam.fraunhofer.de/de/Institutsprofil/Standorte/Dresden/pressemittei…

(nach oben)


Neue Methode für die Speicherung erneuerbarer Energien

Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm
TH Nürnberg forscht an Verfahren zur Analyse der Photoaktivität von Halbleitern

Eine schnelle Umstellung auf erneuerbare Energien ist mit Blick auf den Klimawandel dringend notwendig, wofür auch die chemische Energiespeicherung benötigt wird. Prof. Dr. Maik Eichelbaum von der Fakultät Angewandte Chemie der TH Nürnberg forscht an einer elektrochemischen Methode zur Analytik der Photoaktivität von Halbleitern. Das Projekt wird von der STAEDTLER Stiftung gefördert.

Die Erde erwärmt sich. Um die Erderwärmung auf unter 1,5 Grad bis zum Ende des Jahrhunderts zu begrenzen, wurde 2015 das Pariser Klimaabkommen beschlossen. Einen großen Abschnitt nimmt dort die Energiespeicherung ein. Als Schlüsseltechnologie gilt dabei die Wasserelektrolyse, die kontrollierte Spaltung von Wasser in Wasserstoff und Sauerstoff. Mit ihr kann die Energie der Sonne oder der Windkraft chemisch im Wasserstoff gespeichert werden und mithilfe von Brennstoffzellen zurück in elektrische Energie gewandelt werden. Für ein nachhaltiges und kosteneffizientes Energiesystem kann das Wasser auch direkt mit Sonnenlicht und mit Hilfe eines Photokatalysators gespalten werden, ohne den Umweg über einen Elektrolyseur.
Prof. Dr. Maik Eichelbaum von der Fakultät Angewandte Chemie der TH Nürnberg erforscht deshalb eine neue Methode zur Analyse der Photoaktivität von halbleitenden Photokatalysatoren. Die Photoaktivität beschreibt, wie gut ein Stoff durch die Bestrahlung mit Licht eine chemische Reaktion wie zum Beispiel die Spaltung von Wasser zu Wasserstoff und Sauerstoff beschleunigt („katalysiert“). Im Projekt „Entwicklung einer neuen Standardmethode zur Analyse der Photoaktivität von Halbleitern für umwelt- und energierelevante Anwendungen – TiO2-Photoanalytik“ beschäftigt sich Prof. Dr. Maik Eichelbaum im Speziellen mit Titandioxid TiO2 als Photokatalysator. Das ist das weißeste und hellste überhaupt bekannte Pigment mit reflektierenden Eigenschaften. Durch die ultraweiße Farbe kann Titandioxid UV-Strahlen streuen oder diese sogar absorbieren. Deshalb wird es unter anderem auch in Sonnenschutzmitteln und in Wandfarben verwendet.
Prof. Dr. Maik Eichelbaum und sein Team gehen konkret der Frage nach, wie man TiO2 besser analysieren kann, da die bisherigen Methoden für viele Anwendungen nicht geeignet, zu unempfindlich oder nicht robust genug sind. „Eine aussagekräftige Analytik ist jedoch unabdingbar, um die Verbesserung, Entwicklung und Kommerzialisierung von photokatalytisch aktiven Substanzen vorantreiben zu können“, erklärt Prof. Dr. Maik Eichelbaum. Einen besonderen Fokus legt das Projektteam auf die photokatalytische Wasserspaltung, selbstreinigende Oberflächen und die Aufbereitung von Wasser. Titandioxid kann auch als Photokatalysator in Farben oder zur Beschichtung von Fensterscheiben genutzt werden, um Umweltschadstoffe unwirksam zu machen. Auch zur Reduktion von Stickoxiden in der Luft gilt TiO2, verwendet in photoaktiven Baustoffen wie Pflastersteinen, als vielversprechend.
Durch ihre Forschung entwickeln Prof. Dr. Maik Eichelbaum und sein Team ein elektrochemisches Standardverfahren für die empfindliche Analyse der Photoaktivität von Halbleitern, wodurch auch die Suche nach besseren Photokatalysatoren für die Energiespeicherung vereinfacht wird. Im Rahmen der Forschung an Photokatalysatoren in der Fakultät Angewandte Chemie findet eine interdisziplinäre Vernetzung innerhalb der TH Nürnberg mit der Fakultät Werkstoffwissenschaften, dem Nuremberg Campus of Technology (NCT) und dem Kompetenzzentrum Energietechnik statt. Die Ergebnisse aus der Forschung sollen auch in die Lehre übernommen werden, beispielsweise in einem neuen Lehrmodul „Sensorik und Elektroanalytik“ des Masterstudiengangs Angewandte Chemie.
Die STAEDTLER Stiftung fördert das Projekt erfreulicherweise mit 40.000 Euro.

Kontakt:
Hochschulkommunikation, Tel. 0911/5880-4101, E-Mail: presse@th-nuernberg.de

(nach oben)


Arbeitszeit von Männern und Frauen: Wunsch und Wirklichkeit klaffen auseinander

Stefan Schelp Pressestelle
Bertelsmann Stiftung
Männer arbeiten im Durchschnitt neun Stunden pro Woche mehr als Frauen. Dabei möchten mehr Männer als Frauen ihre Arbeitszeit reduzieren und andererseits mehr Frauen als Männer ihre Arbeitszeit ausweiten. Damit besteht Potenzial zur Angleichung der Arbeitszeiten zwischen den Geschlechtern.

In Deutschland arbeiten erwerbstätige Männer im Durchschnitt 41 Stunden und erwerbstätige Frauen 32 Stunden pro Woche. Allerdings wünschen sich Männer mit 37 und Frauen mit 30 Stunden pro Woche eine kürzere Arbeitszeit. Insgesamt arbeiten 50 Prozent der männlichen und 41 Prozent der weiblichen Beschäftigten mehr, als sie gerne würden, und sind damit überbeschäftigt. Dieses Bild dreht sich beim Blick auf jene Beschäftigte, die ihre Arbeitszeit gerne ausweiten würden, die also unterbeschäftigt sind: Mehr Frauen als Männer möchten ihre Stundenzahl ausweiten. So ist der Anteil unterbeschäftigter Frauen mit 17 Prozent fast doppelt so hoch wie bei Männern – von ihnen arbeiten nur neun Prozent weniger als gewünscht.

„Unterschiedliche Arbeitszeiten sind einer der Hauptgründe für die unterschiedlichen Erwerbseinkommen von Männern und Frauen. Unsere Analysen zeigen: Das Potenzial für die Angleichung von Arbeitszeiten ist da. Und es ist auch gesellschaftlich geboten“, kommentiert Jörg Dräger, Vorstand der Bertelsmann Stiftung. Im Mittelpunkt der neuen Studie, die ein Forscher:innen-Team um Andreas Peichl vom ifo Institut im Auftrag der Stiftung erstellt hat, stehen die Entwicklung der tatsächlichen und gewünschten Arbeitszeiten seit 1985 sowie die Gründe für die Kluft zwischen Wunsch und Wirklichkeit.

Müttern fällt es schwerer als Vätern, ihre Arbeitszeitwünsche umzusetzen
Teilzeit- und Vollzeitbeschäftigte können ihre Arbeitszeitwünsche nicht gleich gut umsetzen. Während Vollzeitbeschäftigte im Durchschnitt gerne rund sechs Stunden weniger pro Woche arbeiten würden, besteht bei in Teilzeit beschäftigten Frauen und Männern zwischen gewünschter und tatsächlicher Arbeitszeit nahezu kein Unterschied.

Insbesondere Müttern fällt es schwer, ihre Arbeitszeitwünsche zu realisieren. Die Berechnungen zeigen, dass dies nicht auf Kinder an sich, sondern auf den Mangel an Betreuungsmöglichkeiten oder die zu hohen Kosten dafür zurückzuführen ist. Lassen sich Familie und Beruf gut miteinander vereinbaren, können auch Arbeitszeitwünsche besser verwirklicht werden.

Auf die Arbeitszeitwünsche von Männern haben Kinder und die Betreuungssituation hingegen so gut wie keinen Einfluss. Dies deutet darauf hin, dass die traditionelle Rollenaufteilung nach wie vor dominiert. „Fehlende oder zu teure Kinderbetreuung führt immer noch dazu, dass insbesondere Mütter ihre Arbeitszeitwünsche nicht realisieren können“, kommentiert Dräger. „Auch acht Jahre nach Einführung des Rechtsanspruchs auf einen Krippenplatz müssen die Angebote ausgeweitet werden.“

Verfügbarkeit von Betreuungsmöglichkeiten ist ein zentraler Hebel
Die Corona-Pandemie verschärft die Situation – erste Untersuchungen zeigen, dass sich die Kita- und Schulschließungen negativ auf die Arbeitszeitwünsche von Müttern auswirken. Ohne funktionierende Kinderbetreuung ziehen sie sich weiter aus der Erwerbsarbeit zurück. „Die Pandemie verdeutlicht: Gute Kitas und ein gutes Ganztagsangebot in den Schulen sind zentral, damit Mütter ihre Arbeitszeitwünsche umsetzen können“, sagt Dräger.

Darüber hinaus müssten Fehlanreize im Steuer-, Abgaben- und Transfersystem abgebaut werden, weil sie die Mehrarbeit für Frauen und Mütter häufig unattraktiv machen. Die Kombination aus Ehegattensplitting und Minijobs führt beispielsweise dazu, dass es sich für Zweitverdiener:innen häufig nicht lohnt, eine substanzielle Beschäftigung aufzunehmen. Die Verwirklichung von Arbeitszeitwünschen von Männern und Frauen ist aber eine wesentliche Voraussetzung für eine gleichere Aufteilung der Erwerbs- und Fürsorgearbeit.

Zusatzinformationen: Die Studie „Zwischen Wunsch und Wirklichkeit. Unter- und Überbeschäftigung auf dem deutschen Arbeitsmarkt“ wurde von Maximilian Blömer, Johanna Garnitz, Laura Gärtner, Andreas Peichl und Helene Strandt vom ifo Institut im Auftrag der Bertelsmann Stiftung erstellt. Um die Entwicklung der tatsächlichen und gewünschten Arbeitszeiten differenziert nach Geschlecht, Beschäftigungstyp und Alterskohorte von 1985 bis einschließlich 2017 nachzuzeichnen, nutzten sie das Sozio-oekonomische Panel (SOEP) sowie das Panel Arbeitsmarkt und Soziale Sicherung (PASS). Dabei beziehen sich die Werte vor der Wiedervereinigung nur auf Westdeutschland. Beide Datensätze ermöglichen neben der deskriptiven Beschreibung der Arbeitszeitdiskrepanzen auch die Beantwortung der Frage, welche Faktoren eine Arbeitszeitdiskrepanz vergrößern oder verringern.

Unsere Expertinnen:
Manuela Barišić, Telefon: 030 27 57 88-1 31
E-Mail: manuela.barisic@bertelsmann-stiftung.de

Valentina Consiglio, Telefon: 030 27 57 88-1 30
E-Mail: valentina.consiglio@bertelsmann-stiftung.de

Originalpublikation:
https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/zwischen-wu…

Weitere Informationen:
http://www.bertelsmann-stiftung.de

(nach oben)


IAB-Arbeitsmarktbarometer legt weiter zu, dennoch bleiben Risiken

Marie-Christine Nedoma, Jana Bart, Pia Kastl und Inna Felde Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das IAB-Arbeitsmarktbarometer legt zum zweiten Mal in Folge zu und ist im März gegenüber dem Vormonat um 0,7 Punkte auf 101,7 Punkte gestiegen. Der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) zeigt damit positive Aussichten für die Arbeitsmarktentwicklung im zweiten Quartal. Zuletzt stand das Arbeitsmarkbarometer so günstig vor der Corona-Krise im Februar 2020.

„Am Arbeitsmarkt stehen die Zeichen auf Erholung“, sagt Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“. Sowohl bei der Beschäftigungsentwicklung als auch der Arbeitslosigkeit zeigten sich positive Signale. Die Verlängerung des Lockdowns sei allerdings erst nach Ende des Befragungszeitraums bis Mitte des Monats beschlossen worden. „Die Risiken der Pandemie bleiben immens. Die Krise ist in den nächsten Monaten noch nicht vorbei“, erklärt Weber.

Die Beschäftigungskomponente des IAB-Arbeitsmarktbarometers legte im März um 0,6 Punkte zu und liegt nun bei 101,1. Damit wird ein leichter Beschäftigungsaufbau erwartet. Die Komponente des IAB-Arbeitsmarktbarometers zur Vorhersage der saisonbereinigten Arbeitslosigkeit liegt mit 102,3 Punkten deutlich im positiven Bereich und lässt eine sinkende Arbeitslosigkeit erwarten. Sie stieg gegenüber dem Februar um 0,8 Punkte.

Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert. Während Komponente A des Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert des IAB-Arbeitsmarktbarometers. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

Zum Download stehen bereit:
– eine Zeitreihe des IAB-Arbeitsmarktbarometers einschließlich seiner Einzelkomponenten „Arbeitslosigkeit“ und „Beschäftigung“ unter http://www.iab.de/presse/abzeitreihe.
– eine Grafik mit den aktuellen Werten des IAB-Arbeitsmarktbarometers und seiner Komponenten sowie eine Zeitreihengrafik unter http://www.iab.de/presse/abgrafik.

(nach oben)


Die beständige Gefahr nach Landschaftsbränden: Verkohlte Pflanzen enthalten schädliche freie Radikale

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Jedes Jahr verbrennen weltweit schätzungsweise vier Prozent der Landoberfläche. Zurück bleiben mehr als 250 Megatonnen verkohlter Pflanzen. Eine Studie der Universität Wien hat in diesen Kohlen nun erstmals erhöhte Konzentrationen umweltbeständiger freier Radikale nachgewiesen – und das teilweise noch fünf Jahre nach dem Brand. Diese können reaktive Substanzen generieren, welche wiederum Pflanzen und Lebewesen schaden. Die Forscher*innen um Gabriel Sigmund und Thilo Hofmann haben Kohleproben aus den Rückständen von Wald-, Gras- und Buschbränden in unterschiedlichen klimatischen Zonen analysiert. Die Studie erscheint in Nature Communications Earth & Environment.

Reaktive Sauerstoffspezies verursachen oxidativen Stress auf Zellebene. Bisherige Forschung zeigt, dass sie auf diese Weise beispielsweise die Keimfähigkeit von Pflanzen hemmen, Zellgifte produzieren oder toxisch auf wirbellose Wasserbewohner wirken. Umweltbeständige freie Radikale sind potenzielle Vorläufer reaktiver Sauerstoffspezies, da sie mit Wasser zu diesen Sauerstoffradikalen reagieren können. „Daher bringt man umweltbeständige freie Radikale mit schädlichen Effekten für das Ökosystem und die menschliche Gesundheit in Verbindung“, erklärt Studienleiter Gabriel Sigmund.

„Unsere Studie zeigt, dass eben diese umweltbeständigen freien Radikale in großen Mengen und langfristig in Brandkohlen gefunden werden können“, berichtet der Umweltgeowissenschafter am Zentrum für Mikrobiologie und Umweltsystemwissenschaft (CMESS) der Universität Wien. In allen 60 Kohleproben aus zehn unterschiedlichen Bränden haben die Forscher*innen umweltbeständige freie Radikale in einer Konzentration nachgewiesen, die jene, die üblicherweise in Böden vorkommt, um das Zehn- bis Tausendfache übersteigt. Anders als erwartet blieb diese Konzentration über mindestens fünf Jahre stabil. Dies ergab eine Analyse von Kohleproben, die über mehrere Jahre hinweg nach einem Waldbrand am gleichen Ort gesammelt wurden. „Je beständiger die umweltpersistenten freien Radikale sind, desto wahrscheinlich ist es, dass sie über längere Zeiträume einen Einfluss auf Ökosys-teme haben“, erklärt Thilo Hofmann, Co-Autor der Studie und Leiter der Arbeitsgruppe.

Proben von Gras-, Wald- und Buschbränden in unterschiedlichen Klimazonen
Die Forscher*innen sammelten Proben von Brandkohlen unterschiedlich intensiver Feuer in borealen, gemäßigten, subtropischen und tropischen Klimazonen. Sie berücksichtigten Wald-, Busch- und Grasbrände und damit auch unterschiedliche Ausgangsmaterialien (Hölzer und Gräser) der Kohle. Das Ausgangsmaterial und die Feuerbedingungen bedingen den Verkohlungsgrad und beeinflussen damit mittelbar, in welchem Ausmaß umweltbeständige freie Radikale entstehen und wie beständig sie sind. „Die Analysen zeigen, dass die Konzentration umweltbeständiger freier Radikale mit dem Verkoh-lungsgrad anstieg“, berichtet Sigmund. Holzige Brennstoffe begünstigten dabei höhere Konzentrationen. Für diese konnten die Forscher*innen zudem die mehrjährige Stabilität umweltbeständiger freier Radikale nachweisen. „Gerade Waldbrandholzkohlen sind unserer Vermutung nach eine global sehr bedeutsame Quelle für umweltpersistente freie Radikale und damit potenziell auch für schädliche reaktive Sauerstoffspezies“, ergänzt Hofmann.

Internationale Zusammenarbeit über Disziplinen hinweg
„Dass wir so differenzierte Aussagen treffen können, ist der Zusammenarbeit mit Kolleg*innen der Swansea University in Großbritannien zu verdanken“, erklärt Sigmund. Die Expert*innen für Landschaftsbrände erforschen global, welche Auswirkungen Feuer auf Umweltprozesse wie den Kohlenstoffkreislauf und Erosion haben. Weltweit haben sie Proben von Brandkohlen zusammengetragen und zusammen mit Informationen zu Zeitpunkt, Dauer und Intensität der Brände zur Analyse nach Wien geschickt. Die Forscher*innen des CMESS analysierten die Proben in Zusammenarbeit mit Marc Pignitter von der Fakultät für Chemie mittels Elektronenspinresonanzspektroskopie (ESR-Spektroskopie). Die ESR-Spektroskopie ermöglichte es, die umweltbeständigen freien Radikale im untersuchten Material zu quantifizieren und die benachbarten chemischen Strukturen zu erfassen.

Fragen nach Konsequenzen für das Ökosystem
Die Untersuchung hat Erkenntnisse geliefert, aber auch neue Fragen aufgeworfen: Dass umweltbeständige freie Radikale in so hoher Konzentration vorkommen und dabei über mehrere Jahre beständig bleiben, habe überrascht. Der zukünftige Blick der Forscher*innen richtet sich nun auch auf die Folgen, die das für die Umwelt hat. „Inwieweit ist das ein Stressfaktor für Mikroorganismen nach einem Waldbrand? Wie wird ein Ökosystem davon beeinflusst? Die Studie ist ein Anstoß für weitere Untersuchungen“, berichtet Sigmund.

Publikation in Communications Earth & Environment:
G. Sigmund, C. Santín, M. Pignitter, N. Tepe, S. H. Doerr, T. Hofmann, Environmentally persistent free radicals are ubiquitous in wildfire charcoals and remain stable for years. Communications Earth & Environment (2021), DOI: 10.1038/s43247-021-00138-2

Wissenschaftliche Ansprechpartner:
Dr. Gabriel Sigmund
Zentrum für Mikrobiologie und Umweltsystemwissenschaft
1090 – Wien, Althanstraße 14
+43-1-4277-53392
gabriel.sigmund@univie.ac.at

Originalpublikation:
G. Sigmund, C. Santín, M. Pignitter, N. Tepe, S. H. Doerr, T. Hofmann, Environmentally persistent free radicals are ubiquitous in wildfire charcoals and remain stable for years. Communications Earth & Environment (2021), DOI: 10.1038/s43247-021-00138-2

Weitere Informationen:
https://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/…

(nach oben)


Neuartige, haltbare biologisch abbaubare Flaschen aus Biokunststoffen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT forscht zusammen mit vier weiteren Partnern an biobasierten und rezyklierbaren Kunststoffen. Ziel des Verbundvorhabens »Bio2Bottle« ist es, biobasierte Flaschen zu entwickeln, die sich für die Aufbewahrung von Reinigungsmitteln und landwirtschaftlichen Bodenhilfsstoffen eignen, hohe Standards erfüllen und gleichzeitig biologisch abbaubar und wiederverwertbar sind. Heute verfügbare Kunststoffe aus nachwachsenden Rohstoffen weisen für diesen Einsatzzweck eine zu hohe Durchlässigkeit auf und genügen nicht allen Anforderungen.

Laut dem Umweltbundesamt fallen derzeit allein in Deutschland rund 6,28 Millionen Tonnen Kunststoffabfälle an. Längst haben kritische Diskussionen in Gesellschaft und Politik dazu geführt, dass neue Ziele bei der Kunststoffentwicklung zu berücksichtigen sind. Das entstandene Umweltbewusstsein bei Endverbrauchern wie auch bei Industrieunternehmen führt zu einer in der Zukunft noch weiter steigenden Nachfrage nach nachhaltigen Produkten. Bei ihrer Verkaufsstrategie legen Unternehmen ihren Schwerpunkt mehr und mehr auf die Vermeidung kritischer Produkte und großen Wert auf Recyclingfähigkeit und Bioabbaubarkeit. Das Projekt »Bio2Bottle«, das unter der Koordination des Fraunhofer UMSICHT umgesetzt wird, setzt genau hier an und hat sich zum Ziel gesetzt, einen biobasierten und rezyklierbaren Kunststoff zur Herstellung von Flaschen zu entwickeln.

Anforderungen an biologisch abbaubare Flaschen
Flaschen aus biobasierten Kunstoffen wie Polymilchsäure (PLA) sind zum Teil bereits in marktfähigen Produkten zu finden. PLA ist ein biobasierter Polyester auf Basis der Milchsäure mit einer hohen mechanischen Belastbarkeit, ähnlich wie Polyethylenterephthalat (PET). Das Material eignet sich jedoch wegen einer zu geringen Wasserdampfbarriere nicht für die angestrebten Anwendungen.

Im Mittelpunkt des Projekts »Bio2Bottle« steht die Entwicklung eines biobasierten Kunststoffs, der sich gleichzeitig für die Lagerung und den Transport von Reinigungsmitteln und landwirtschaftlichen Bodenhilfsstoffen eignet, rezyklierbar und biologisch abbaubar ist. Um die Anforderungen dafür zu erfüllen, muss das Material eine hohe Wasserdampfbarriere, Stabilität und Schmelzviskosität aufweisen. In der Entwicklung werden außerdem die CO2- und Sauerstoffdurchlässigkeit sowie die Gammasterilisation berücksichtigt. Zusätzlich zu diesen hohen Anforderungen müssen die Materialien wiederverwertbar und biologisch abbaubar sein – auch außerhalb industrieller Kompostieranlagen. »Im Verbundprojekt werden biobasierte Polymere ausgewählt und deren Eigenschaften durch die Compoundierung mit weiteren Komponenten so verändert, dass diese hohen Anforderungen erfüllt werden«, erläutert Inna Bretz, Abteilung Zirkuläre und Biobasierte Kunststoffe des Fraunhofer UMSICHT. »Das Ziel des Projektes ist es, biobasierte Materialien und Recyclingfähigkeit miteinander zu verbinden«, führt Inna Bretz weiter aus.

Zukunftsforschung für weniger Kunststoffabfälle
Das Fraunhofer UMSICHT hat bereits langjährige Erfahrungen in der Entwicklung marktfähiger Kunststoffmaterialien auf der Basis von nachwachsenden Rohstoffen. Mit dem »Bio2Bottle« Projekt stellt das Institut sicher, dass die zukünftige Materialentwicklung für Unternehmen den besonderen Anforderungen an das Produkt genügt. Weiterhin soll im Rahmen des Verbundprojekts gezeigt werden, dass das Flaschenmaterial in einem technisch effizienten Verwertungsprozess wiederaufgearbeitet werden kann, was es konkurrenzfähiger macht. Die langfristige Nutzung der Flaschen sowie ihre Wiederverwendung soll zu weniger Kunststoffabfällen und einem reduzierten Verbrauch fossiler Rohstoffe für Kurzzeitprodukte führen. Zusätzlich dazu wird die gute Bioabbaubarkeit der bio-basierten Flaschen unter der Koordination von Fraunhofer UMSICHT untersucht und weiterentwickelt.

Erfolgreiche Projektzusammenarbeit mit Unternehmen
Das Verbundvorhaben »Bio2Bottle« ist ein Kooperationsprojekt zwischen vier Industrieunternehmen und des Fraunhofer UMSICHT. Zu den Kooperationspartnern gehören:
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, Oberhausen
cleaneroo GmbH, Berlin
UnaveraChemLab GmbH (Unavera), Mittenwald
FKuR Kunststoff GmbH (FKuR), Willich
Fritzmeier Umwelttechnik GmbH & Co. KG (FMU), Großhelfendorf –assoziierter Partner

Förderhinweis
Fachagentur Nachwachsende Rohstoffe e.V. (FNR)
Förderprogramm »Nachwachsende Rohstoffe« des BMEL

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/kompetenzen/zirkulaere-biobasierte-kunststo… (Abteilung Zirkuläre und biobasierte Kunststoffe)
https://www.umsicht.fraunhofer.de/de/forschung-fuer-den-markt/biokunststoffe.htm… (Biokunststoffe)

(nach oben)


DBFZ präsentiert umfangreich erweiterte Onlinedatenbank zu biogenen Rohstoffen

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Systematisch aufbereitete und leicht zugängliche Forschungsdaten können eine wesentliche Entscheidungsgrundlage für eine Vielzahl von Akteuren aus Politik, Wissenschaft und Wirtschaft darstellen. Die vom DBFZ entwickelte Ressourcendatenbank mit zahlreichen Informationen zu verschiedenen Biomassepotenzialen und deren aktueller Nutzung wurde umfangreich erweitert und steht mit einer Vielzahl von neuen Funktionalitäten ab sofort auch zweisprachig (DE/EN) zur Verfügung. Das neue Informationsangebot kam bereits u.a. bei der Deutschen Gesellschaft für Abfallwirtschaft (DGAW) zum Einsatz und ist unter der Portaladresse webapp.dbfz.de kostenfrei erreichbar.

Die Ressourcendatenbank des DBFZ enthält detaillierte Informationen zu derzeit 77 biogenen Reststoffen, Nebenprodukten und Abfällen aus der Land-, Forst- und Abfallwirtschaft. Durch die Integration von neuen Forschungsergebnissen aus weiteren Projekten (BEniVer, FKZ: 03EIV241C / Pilot-SBG, Inhouse BMVI) können die Daten nun für insgesamt elf biobasierte Produkte wie bspw. Biomethan, Bio-CNG, Bio-LNG, Bio-SNG und andere interpretiert werden. Die Biomassepotenziale (Tonnen) werden im Hintergrund automatisch in Energie (PJ) umgerechnet. In Verbindung mit dem Bedarf eines Zielmarktes (z.B. Verkehrssektor) können auf diese Weise zukünftige Substitutionspotenziale unkompliziert abgeschätzt werden. Die etablierten Funktionen erlauben unzählige Kombinations- und Interpretationsmöglichkeiten der Forschungsdaten und stellen dabei deren Vergleichbarkeit jederzeit sicher.

Überabeitetes User-Interface mit erweiterten Filterfunktionen
Zu den wesentlichen Neuerungen der Datenbank zählen weiterhin ein überarbeitetes User-Interface mit erweiterten Filterfunktionen, der direkte Zugriff auf Hintergrundinformationen und die Integration einer maschinenlesbaren Datenschnittstelle (API). Über die neuen Filterfunktionen im User-Interface kann die Rohstoffauswahl nun auch auf Basis von Rohstoffeigenschaften (z.B. lignozellulosehaltig) oder der sektoralen Herkunft getroffen werden. Die Filter können frei miteinander kombiniert werden und ermöglichen eine verbesserte und individuelle Rohstoffauswahl. Um die umfangreichen Hinter-grundberechnungen bedarfsgerecht und vollständig nachvollziehen zu können, stehen im neu etablierten Menü Direktlinks zu den relevanten Dokumentationen zur Verfügung. Hierzu zählen mehrere wissenschaftliche Publikationen (peer-reviewed Paper), zwei Datenpublikationen (OpenAgrar), Flowcharts zur Visualisierung der Berechnungen und der Ergebnis-Download als Datentabelle. Für den automatisierten Datenzugriff wurde darüber hinaus eine maschinenlesbare Datenschnittstelle auf Basis von GraphiQL integriert. Über diesen Weg können die Daten von externen Computersystemen direkt ausgelesen und individuell weiterverarbeitet werden.

Die Berechnung von Biomassepotenzialen ist ein kontinuierlicher Verbesserungsprozess. In der Entwicklungs-Pipeline befinden sich daher zahlreiche weitere Funktionen (z.B. weitere biobasierte Produkte, Zielmärkte, Länder sowie Zeitreihen, Methodenverbesserungen, dynamische Abbildungen u.v.m.). Die DBFZ-Ressourcendatenbank ist unter einer CC BY 4.0 Lizenz kostenfrei verwendbar und über die Landingpage für alle DBFZ-Webapps erreichbar: http://webapp.dbfz.de / Screencast: https://youtu.be/uepGMPacXlw

Wissenschaftliche Ansprechpartner:
André Brosowski
Tel.: +49 (0)341 2434-718
E-Mail: andre.brosowski@dbfz.de

Weitere Informationen:
https://www.dbfz.de/pressemediathek/presse/pressemitteilungen/dbfz-praesentiert-…
https://webapp.dbfz.de

(nach oben)


Emissionsrückgang aufgrund der Corona-Lockdowns hat das globale Klima nicht wesentlich beeinflusst

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Aufgrund der Corona-Lockdowns ist der weltweite Ausstoß von Treibhausgasen und Aerosolen im Jahr 2020 deutlich gesunken / Die Veränderung war wahrscheinlich nicht nachhaltig genug, um einen spürbaren Einfluss auf das Klima zu haben

Der Rückgang der Emissionen durch die weltweiten Covid-19-Lockdowns war sowohl vom Ausmaß als auch von der Dauer her zu gering, um einen signifikanten Einfluss auf das globale Klima zu haben. Das ist das Ergebnis einer neuen Studie, die unter der Leitung von Chris D. Jones vom Met Office Hadley Centre in Exeter (Vereinigtes Königreich) von einer Gruppe von 49 Forschern von verschiedenen internationalen Institutionen durchgeführt wurde, darunter auch Professor Stephanie Fiedler vom Institut für Geophysik und Meteorologie der Universität Köln. Die Wissenschaftler und Wissenschaftlerinnen versuchten die Frage zu beantworten, ob der durch die Lockdowns verursachte Rückgang der Emissionen Auswirkungen auf das globale Klima hat, indem sie die Ergebnisse von einem Dutzend Erdsystemmodellen verglichen. Solche Multi-Earth-System-Model-Intercomparison-Projekte (MIPs), deren Planung und Durchführung in der Regel Jahre dauert, können Klimasignale identifizieren. Die ersten Ergebnisse des aktuellen Projekts, bekannt als CovidMIP, konzentrierten sich auf die unmittelbaren Auswirkungen des Covid-19-bedingten Emissionsrückgangs und gingen davon aus, dass die globalen Emissionen bis 2022 wieder auf das Ausgangsniveau ansteigen werden. Der Artikel „The Climate Response to Emissions Reductions due to Covid-19: Initial Results from CovidMIP“ ist im Journal Geophysical Research Letters zu finden.

Professorin Stephanie Fiedler vom Institut für Geophysik und Meteorologie der Universität zu Köln erstellte die optischen Daten des von Menschen verursachten Aerosols, die die die Streuung und Absorption von Sonnenlicht beschreiben. Die Daten werden von beitragenden Modellen benötigt, um die Computersimulationen durchzuführen, z.B. das Erdsystemmodell MPI-ESM1.2 des Max-Planck-Instituts für Meteorologie.
Als die sozialen und wirtschaftlichen Aktivitäten angesichts der Covid-19-Pandemie weltweit zum Erliegen kamen, sank auch der Ausstoß von Treibhausgasen. Zum Beispiel hielten die Einschränkungen viele Menschen von den Straßen fern, so dass die CO2-Emissionen um einige Prozent sanken. Es wird jedoch erwartet, dass die Emissionen wieder ansteigen werden, wenn sich die Volkswirtschaften auf der ganzen Welt wieder öffnen. Das wirft die Frage auf, welche Auswirkungen der kurzfristige Rückgang der Emissionen auf das Klima hat.

Die von den Forschern erstellten Modellsimulationen zeigten eine Abnahme der optischen Dicke der Aerosole und eine Zunahme der Sonneneinstrahlung, die die Oberfläche des Planeten erreicht, wobei die größten Auswirkungen über Indien und China simuliert wurden. Die Autorinnen und Autoren untersuchten dann, wie sich die Veränderungen in der atmosphärischen Zusammensetzung auf Temperatur und Niederschlagsmuster auswirken können. Während sie einen leichten Anstieg der Sonneneinstrahlung, die die Planetenoberfläche erreicht, aufgrund von weniger Aerosolen sahen, gab es nur geringe Auswirkungen auf die globale Temperatur. Dort, wo die Aerosole regional am stärksten reduziert wurden, zeigten die meisten Modelle eine leichte Erwärmung, die aber meist weniger als 0,1 Grad Celsius im Vergleich zu einer Simulation ohne die pandemischen Einflüsse beträgt. Die Studie fand keine signifikanten Änderungen für die Niederschlagsmuster aufgrund der Covid-19-Pandemie.
Die Forscherinnen und Forscher kommen zu dem Schluss, dass der Rückgang der Emissionen aufgrund des Covid-19-Einflusses auf sozioökonomische Aktivitäten sowohl in der Größenordnung als auch in der Dauer zu gering war, um einen signifikanten Einfluss auf das globale Klima zu haben. Dennoch können die Ergebnisse Prioritäten für zukünftige Arbeiten setzen. Die Autoren identifizieren mehrere Bereiche, in denen zukünftige Analysen gerechtfertigt sein könnten, einschließlich der längerfristigen Auswirkungen der Emissionsreduzierungen und der Entscheidungen zur wirtschaftlichen Erholung. Professorin Stephanie Fiedler von der Uni Köln erklärt dazu: „CovidMIP liefert Klimamodell-Output für neue Erholungsszenarien für die Zeit nach der Pandemie bis zur Mitte des 21. Jahrhunderts. Dazu gehören Entwicklungsszenarien, die eine Zukunft mit mehr grünen Technologien beschreiben, sowie Szenarien, in denen wir zu einem ähnlichen Verhalten wie vor der Pandemie zurückkehren.“ Solche Daten sind nützlich, um zu untersuchen, wie sich das Klima in Abhängigkeit von verschiedenen menschengemachten Emissionsszenarien nach Ende der Pandemie weiter verändern würde.

Inhaltlicher Kontakt:
Professorin Dr. Stephanie Fiedler
Institut für Geophysik und Meteorologie
+49 (0)221 470- 3693
stephanie.fiedler@uni-koeln.de
Presse und Kommunikation:
Robert Hahn
+49 (0)221 470- 2396
r.hahn@verw.uni-koeln.de

Publikation:
Jones, C. D., Hickman, J. E., Rumbold, S. T., Walton, J., Lamboll, R. D., Skeie, R. B., Fiedler, S., Forster, P., Rogelj, J., et al. (2021). The Climate Response to Emissions Reductions due to COVID‐19: Initial Results from CovidMIP. Geophysical Research Letters, 48, e2020GL091883. https://doi.org/10.1029/2020GL091883
https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2020GL091883

(nach oben)


Grundsteuer belastet vor allem ärmere Haushalte in Mietwohnungen

Sabine Elbert Presse und Redaktion
Zentrum für Europäische Wirtschaftsforschung GmbH (ZEW)
Am Einkommen gemessen ärmere Mieter werden bis zu vier Mal stärker durch Grundsteuererhöhungen belastet als reichere. Vermieter tragen nur in den ersten zwei Jahren nach einer Erhöhung einen Teil der Steuerlast. Spätestens nach drei Jahren geben sie die höhere Grundsteuer vollständig an ihre Mieter/innen weiter. Verkaufspreise hingegen reagieren nicht auf Steueränderungen. Das belegt eine aktuelle Studie des ZEW Mannheim in Kooperation mit der Universität Maastricht. Die Grundsteuer ist somit eine regressive Steuer: Sie belastet geringere Einkommen relativ gesehen stärker als Haushalte mit höherer Finanzkraft.

Wie sich die Steuerlast von Grundsteuererhöhungen auf verschiedene Einkommensgruppen verteilt, untersuchten die Wissenschaftler anhand eines ökonomischen Modells, das sie mit Daten der Vermittlungsplattform Immobilienscout24 sowie des Statistischen Bundesamtes und des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) fundierten. Dabei zeigte sich, dass eine Erhöhung der Grundsteuer um einen Prozentpunkt die Wohlfahrt ärmerer Haushalte stärker belastet als die von reicheren. Jene Haushalte, die die untersten zehn Prozent der Einkommen erwirtschaften, erfahren dabei einen relativen Wohlfahrtsverlust von 1,14 Prozent, während der relative Verlust bei den obersten zehn Prozent der Einkommensskala nur 0,27 Prozent beträgt. Dieser relative Wohlfahrtsverlust berechnet sich als der Konsum, auf den diese verzichten müssen, um die Kosten für eine höhere Steuer aufzubringen. „Einkommensarme Haushalte erleiden einen bis zu viermal höheren Wohlfahrtsverlust als reichere Haushalte, wenn eine Kommune ihre Grundsteuer erhöht“, sagt Sebastian Siegloch, Wissenschaftler am ZEW Mannheim und Ko-Autor der Studie.

Bedeutung der Grundsteuer
Kommunale Gewerbe- und Grundsteuern machen gemeinsam rund 25 Prozent der Einnahmen von Städten und Gemeinden aus. Der Anteil der Grundsteuer an den kommunalen Steuern beläuft sich auf etwas über 20 Prozent. Das Grundsteueraufkommen belief sich damit im Jahr 2015 auf durchschnittlich 155 Euro pro Einwohner/in. Im Vergleich zu den USA, wo sich die vergleichbare Steuer auf etwa 850 Dollar pro Kopf beläuft, spielt die Grundsteuer in Deutschland eine geringere Rolle, obwohl sie seit Jahren vielerorts stetig erhöht wird. Im Durchschnitt hat sich die örtliche Grundsteuer zwischen 1990 und 2018 von 0,9 auf 1,4 Prozent erhöht. Rund 90 Prozent aller Städte und Gemeinden haben die Hebesätze und damit die Grundsteuer im gleichen Zeitraum geändert, bei 95 Prozent der Änderungen war dies eine Erhöhung.

Die Anpassungen der Grundsteuer verglichen die ZEW-Wissenschaftler mit konjunkturellen und anderen sozioökonomischen Daten. Dabei zeigt sich, dass die Verantwortlichen in Rathäusern und Gemeinderäten ihre Entscheidung, die Grundsteuer zu erhöhen, selten von der lokalen Wirtschaft abhängig machen. „Wir sehen einen starken Zusammenhang zwischen der Haushaltslage der Kommune und der Erhöhung der Grundsteuer. Kommt die schwarze Null ins Wackeln, erhöht die Gemeinde gerne mal die Steuer auf Grundbesitz“, erklärt ZEW-Wissenschaftler Siegloch.

Implikationen für die deutsche Grundsteuerdebatte
Die deutsche Grundsteuer wird aktuell reformiert. Ab 2025 sorgt das vom Bundesfinanzministerium eingebrachte Bundesmodell dafür, dass sich die Grundsteuer stärker am tatsächlichen Wert des Grundstücks und der Immobilie orientiert. Dies ist aktuell nicht der Fall und wurde vom Bundesverfassungsgericht beanstandet. Allerdings haben die Länder die Möglichkeit, vom Bundesmodell abzuweichen und eigene Systeme zur Bewertung von Haus und Grund einzuführen. So will sich Bayern rein an der Grundstücksfläche orientieren, andere Länder wie Baden-Württemberg wollen nur auf den Wert des Bodens schauen.

„Die neuen Modelle sollten die Verteilungswirkungen der Grundsteuer berücksichtigen – die Grundsteuer in aktueller Form und auch im Flächenmodell ist schlicht ungerecht“, kommentiert Siegloch. Es spräche viel dafür, die Grundsteuer progressiver zu gestalten. Dies könnte durch großzügigere Freibeträge geschehen, so dass kleinere Mietwohnungen für ärmere Haushalte deutlich weniger belastet würden. Gleichzeitig wäre es sinnvoll, teurere Immobilien stärker zu besteuern. „Um dies umzusetzen, ist es wichtig den Wert von Grundstück und Immobilie möglichst genau zu kennen“, so Siegloch weiter. „Das spricht eindeutig für die Umsetzung des Bundesmodells.“ Ein vertretbarer Kompromiss sei das Bodenwert-Modell: Aktuelle Analysen zeigten, dass der Wert des Bodens ein guter Indikator für den Wert der darauf stehenden Immobilie sei.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sebastian Siegloch
Leiter der ZEW-Forschungsbereich
„Soziale Sicherung und Verteilung“
Tel: +49 (0)621 1235-140
sebastian.siegloch@zew.de

Originalpublikation:
http://ftp.zew.de/pub/zew-docs/dp/dp21026.pdf

(nach oben)


Wenn Salz, dann Jodsalz

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Trotz erheblicher Fortschritte nehmen viele Erwachsene und Jugendliche noch immer zu wenig Jod zu sich. Eine der wenigen Quellen, die reich daran sind, ist jodiertes Speisesalz.

Seit Mitte der 1980er-Jahre hat sich die Jodversorgung in Deutschland durch den Einsatz von Jodsalz verbessert. Aktuelle Daten des Robert Koch-Instituts (RKI) zeigen jedoch, dass die Jodzufuhr der Bevölkerung immer noch nicht optimal ist. Bei knapp 30 Prozent der Erwachsenen und 44 Prozent der Kinder und Jugendlichen besteht das Risiko einer zu geringen Jodaufnahme. Ein wesentlicher Grund dafür könnte sein, dass in der Lebensmittelindustrie zu wenig jodiertes Speisesalz verwendet wird. Dies legen Modellrechnungen des Bundesinstituts für Risikobewertung (BfR) nahe. „Weniger Salz tut gut, auf Jodsalz verzichten aber nicht“, sagt Professor Dr. Dr. Andreas Hensel, Präsident des BfR. „Dieser Grundsatz sollte sowohl in der eigenen Küche als auch in der Lebensmittelproduktion gelten.“

Link zur Stellungnahme:
https://www.bfr.bund.de/cm/343/ruecklaeufige-jodzufuhr-in-der-bevoelkerung-model…

Link zu Fragen und Antworten:
https://www.bfr.bund.de/cm/343/jodversorgung-in-deutschland-wieder-ruecklaeufig-…

Link zum BfR2GO, dem BfR-Wissenschaftsmagazin (S. 2 und 11):
https://www.bfr.bund.de/cm/350/bfr-2-go-ausgabe-2-2020.pdf

Laut aktueller Daten aus den nationalen Gesundheitssurveys des RKI ist die Jodversorgung der deutschen Bevölkerung noch verbesserungswürdig. Bei Kindern und Jugendlichen zeichnet sich hier sogar ein rückläufiger Trend ab. Für Frauen im gebärfähigen Alter ist das Risiko einer unzureichenden Jodzufuhr besonders hoch. Dabei ist eine gute Versorgung gerade für Schwangere und Stillende bedeutsam, weil das Spurenelement für die körperliche und geistige Entwicklung des Kindes wichtig ist – auch schon vor der Geburt.

In Deutschland können Hersteller selbst entscheiden, ob sie jodiertes Speisesalz für ihre Produkte nutzen. Eine Studie der Justus-Liebig-Universität Gießen weist darauf hin, dass in den letzten Jahren deutlich weniger Jodsalz für verarbeitete Lebensmittel verwendet wurde, insbesondere für Brot und Backwaren. Zudem zeigen die Ergebnisse, dass nur etwa 30 Prozent der industriell und handwerklich hergestellten Produkte Jodsalz enthalten. Modellrechnungen des BfR zufolge ist eine gute Jodversorgung aber nur dann möglich, wenn etwa 40 Prozent dieser Lebensmittel mit Jodsalz produziert werden.

Jod ist lebenswichtig und für den Aufbau von Schilddrüsenhormonen unentbehrlich. Die Schilddrüsenhormone haben eine zentrale Funktion bei der Steuerung des Stoffwechsels und sind für normales Wachstum, die Knochenbildung und die Entwicklung des Nervensystems notwendig. Wird über längere Zeit zu wenig des Elements aufgenommen, kann es zu einer Schilddrüsenunterfunktion kommen. Symptome wie Müdigkeit, Gewichtszunahme und eine vergrößerte Schilddrüse (Struma) können auftreten.

Jod muss mit der Nahrung aufgenommen werden. Da der Boden hierzulande aber nur wenig von dem Spurenelement enthält, sind die natürlichen Jodgehalte der pflanzlichen landwirtschaftlichen Erzeugnisse entsprechend gering. In relevanten Mengen kommt das Element nur in wenigen Speisen vor. Dazu gehören Meeresfisch und -früchte, aber auch mit Jodsalz angereicherte Speisen. Wer bewusst zu jodhaltigen Lebensmitteln greift, ist in der Regel ausreichend versorgt.

Tipps für eine gute Jodversorgung:
– Jodsalz zum Kochen und Nachsalzen nutzen.
– Abgepackte Lebensmittel und Fertiggerichte bevorzugen, in deren Zutatenliste „Jodsalz“ oder „jodiertes Salz“ steht.
– Bei loser Ware wie Brot, Käse und Wurst nachfragen, ob Jodsalz enthalten ist.
– Milch- und Milchprodukte täglich,
– Meeresfisch ein- bis zweimal pro Woche verzehren.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Mit „innovatION“ nationale und internationale Wasserressourcen sichern

Katrin Presberger Pressestelle
Technische Universität Dresden
Forschungsprojekt entwickelt nachhaltiges, membranbasiertes Wasser-Entsalzungsverfahren

Auf Grund des global ansteigenden Wasserbedarfs und der sinkenden zur Verfügung stehenden Süßwasserressourcen, besteht ein weltweites Interesse an effizienten Entsalzungsverfahren. Süßwasser, das vom Meer oder von geogenen, also natürlichen, im Untergrund vorkommenden Salzvorkommen beeinflusst wird, weist u. a. oft erhöhte Konzentrationen an Natrium und Chlorid auf. Hohe Nitrat- und Sulfatkonzentrationen resultieren hingegen meist aus landwirtschaftlichem Einfluss. „Herkömmliche Entsalzungsverfahren entsalzen Wässer weitestgehend vollständig und unterscheiden meist nicht, welche Salze zurückgehalten werden“, erklärt Prof. Dr.-Ing. André Lerch, Inhaber der TUD-Professur für Verfahrenstechnik in Hydrosystemen, die Partner des Verbundprojekts innovatION ist. „Eine vollständige Entsalzung der Wässer ist aber oft nicht sinnvoll, sondern lediglich eine Verminderung der monovalenten, einfach geladenen Ionen.“
Ziel des Forschungsvorhabens innovatION ist die Entwicklung eines energieeffizienten, selektiven, membranbasierten Entsalzungsverfahrens zur gezielten Entfernung monovalenter Ionen aus salzhaltigem Grund- und Oberflächenwasser sowie die Überprüfung potenzieller Anwendungen und Einsatzgebiete unter Berücksichtigung wasserchemischer, ökonomischer und ökologischer Aspekte.

innovatION steht für Selektive Entfernung monovalenter Ionen aus salzhaltigen Wässern für die Grundwasseranreicherung und Trinkwasseraufbereitung. Das Verbundprojekt wird in den kommenden drei Jahren vom Bundesministerium für Bildung und Forschung BMBF innerhalb der Fördermaßnahme „Wassertechnologien: Wasserwiederverwendung“ gefördert. innovatION vereint dabei neun nationale Partner aus der Praxis und Wissenschaft sowie auch zwei internationale assoziierte Partner. Die Projektkoordination liegt bei der TUD-Professur für Verfahrenstechnik in Hydrosystemen. Von Seiten der TU Dresden ist zusätzlich die Professur für BWL, insb. Nachhaltigkeitsmanagement und Betriebliche Umweltökonomie (Vertreter: Prof. Dr. Remmer Sassen) beteiligt.

Im Rahmen von innovatION werden selektive Membranen für einen spezifischen Rückhalt monovalenter Salze entwickelt und in neukonstruierten Modulen für den Einsatz in einem elektrochemischen Verfahren in Labor- und Pilotanlagen verbaut. Mit den Anlagen werden Untersuchungen zur Identifikation optimierter Prozess- und Anlagenparameter in Abhängigkeit unterschiedlicher Rohwasserqualitäten und Aufbereitungsziele durchgeführt. Es wird geprüft, welche resultierenden Effekte und Herausforderungen bei den unterschiedlichen Rohwässern gegeben sind. Die entwickelte Technologie wird anhand einer ganzheitlichen ökonomisch-ökologischen Nachhaltigkeitsbewertung internationalen Zielgrößen wie den Nachhaltigkeitszielen gegenübergestellt, um Handlungsempfehlungen abzuleiten.
Durch die Wahl der Partner aus Industrie, Wissenschaft und Praxis ist das Konsortium in der Lage, Anlagen zu bauen und die innovative Technologie bei Praxispartnern vor Ort zu testen und zu bewerten. Der wissenschaftliche Nachwuchs kann frühzeitig in Kooperationen und den Austausch mit internationalen Wissenschaftlerinnen und Wissenschaftlern eingebunden werden. Die Ergebnisse tragen somit maßgeblich zur Sicherung der Wasserressourcen und Weiterbildung, national wie international, bei.

Wissenschaftliche Ansprechpartner:
Technische Universität Dresden
Prof. Dr.-Ing. André Lerch
Professur für Verfahrenstechnik in Hydrosystemen
Tel.: +49 351 463-37537
E-Mail: andre.lerch@tu-dresden.de

(nach oben)


Risiken von Wasserknappheit begrenzen: Bewässerungsmanagement entscheidend für Bioenergie-Anbau zum Klimaschutz

Mareike Schodder Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

– Klimawandel und Bevölkerungswachstum lassen einen Anstieg von Wasserknappheit erwarten, daher muss jede zusätzliche Entnahme von Wasser minimiert werden.
– Bewässerte Bioenergie-Plantagen, die zu einer Begrenzung des Klimawandels beitragen sollen, können den Wasserstress erhöhen.
– Nachhaltiges Wassermanagement kann den zusätzlichen Wasserstress reduzieren.

Damit Wasser nicht noch knapper wird, als es ohnehin vielerorts ist, ist bei Biomasseplantagen nachhaltiges Wassermanagement nötig. Dies zeigt eine neue Studie. Wenn der Anbau von Pflanzen für die Energiegewinnung in Kraftwerken mit unterirdischer Speicherung des CO2 aus den Abgasen kombiniert wird, gilt er oft als eine der Möglichkeiten, Treibhausgasemissionen zu reduzieren und die Pariser Klimaziele zu erreichen. Doch der Anbau von Bioenergieplantagen im großen Stil benötigt weltweit nicht nur viel Land, sondern auch erhebliche Mengen an Wasser für die Bewässerung – was im Widerspruch mit der Einhaltung der Planetaren Belastungsgrenzen stehen kann. Wissenschaftler berechneten nun in den bisher detailliertesten Computersimulationen, wie viel zusätzlicher Wasserstress für die Bevölkerung weltweit in einem Szenario mit konventioneller Bewässerung und einem mit nachhaltiger Wassernutzung entstehen könnte.

„Ohne nachhaltiges Wassermanagement könnte die Bewässerung von Biomasseplantagen nach unseren Berechnungen zusammen mit dem Bevölkerungswachstum bis Ende des Jahrhunderts sowohl die Fläche als auch die Zahl der Menschen verdoppeln, die unter starkem Wasserstress leiden“, sagt Hauptautor Fabian Stenzel vom Potsdam-Institut für Klimafolgenforschung (PIK), der die Forschungsidee im Sommerprogramm für junge Wissenschaftlerinnen und Wissenschaftler am International Institute for Applied Systems Analysis (IIASA) entwickelte. „Umgekehrt könnten wir mit einem nachhaltigen Wassermanagement der Biomasseplantagen den zusätzlichen Wasserstress für die Menschen fast halbieren, im Vergleich zu einem Szenario mit starkem Klimawandels und ohne Bioenergieproduktion.“

Sowohl politische Regulierung als auch Verbesserungen in den Betrieben erforderlich
„Nachhaltiges Wassermanagement bedeutet sowohl politische Regulierung wie Bepreisung oder Wasserzuteilungssysteme, um die aus Flüssen entnommenen Wassermengen zu reduzieren, als auch Verbesserungen in den Betrieben, um das Wasser effizienter zu nutzen“, sagt Ko-Autorin Sylvia Tramberend vom IIASA. Dazu könnten Zisternen zum Sammeln von Regenwasser oder Mulchen zur Reduzierung der Verdunstung gehören. „Außerdem gehört zu einem nachhaltigen Wassermanagement der Erhalt von dauerhaft hinreichenden Wassermengen in den Flüssen, um die Ökosysteme dort gesund zu erhalten. Die Bewirtschaftung flussaufwärts und flussabwärts kann dabei zur Folge haben, dass mehr grenzüberschreitende Flussbewirtschaftung sowie eine Zusammenarbeit zwischen verschiedenen Wassernutzern nötig wird – eine zukünftige Herausforderung für ein integriertes Wasserressourcenmanagement.“

Eine weitgehend ungebremste globale Erwärmung zusammen mit dem Bevölkerungswachstum würde in den Simulationen die Zahl der Menschen unter Wasserstress um etwa 80% erhöhen. Eine verstärkte Nutzung von Bioenergie mit Kohlenstoffabscheidung und -speicherung könnte helfen, den Klimawandel begrenzen: Wenn Pflanzen wachsen, nehmen sie CO2 aus der Luft auf und bauen es in ihre Stämme, Zweige und Blätter ein. Wird diese Biomasse in Kraftwerken verbrannt und das CO2 aus den Abgasen abgetrennt und unterirdisch gespeichert (Carbon Capture and Storage, kurz CCS), kann dies letztlich dazu beitragen, die Menge an Treibhausgasen in unserer Atmosphäre zu reduzieren – Wissenschaftler nennen dies „negative Emissionen“.

In vielen Szenarien werden diese als notwendig erachtet, um ehrgeizige Klimaschutzziele zu erreichen, wenn die direkten Emissionsreduktionen zu langsam voranschreiten. Negative Emissionen werden auch betrachtet, um verbleibende Treibhausgasemissionen auszugleichen, die nur schwer oder gar nicht zu reduzieren sind, zum Beispiel im Flugverkehr, in bestimmten Industriezweigen oder in der Viehhaltung.

Wasserknappheit bleibt eine große Herausforderung
„Nach den vorliegenden Szenarien könnten die Biomasseplantagen um bis zu 6 Millionen Quadratkilometer zunehmen, wenn die globale Erwärmung bis zum Ende des Jahrhunderts auf 1,5 Grad Celsius begrenzt werden soll, also gemäß dem ehrgeizigeren der beiden Temperaturziele des Pariser Abkommens“, sagt Ko-Autor Dieter Gerten vom PIK. „Wir verwenden diese Szenarien als Grundlage für Simulationen in unserem hochauflösenden globalen Vegetations- und Wasserhaushaltsmodell, um die Auswirkungen auf das Wasser zu untersuchen. Während die erhebliche Bewässerung in einem Bioenergie-plus-CCS-Szenario mit Bevölkerungswachstum einen Anstieg der Zahl der Menschen, die mit Wasserstress konfrontiert sind, um 100 % nahelegt, sinkt die Zahl in Kombination mit nachhaltigem Wassermanagement auf 60 %. Das ist natürlich immer noch ein Anstieg, so dass schwere Kompromisse gefunden werden müssen.“

Regionen, die bereits heute unter Wasserstress leiden, wären im Klimawandel-Szenario am stärksten betroffen, wie der Mittelmeerraum, der Nahe Osten, der Nordosten Chinas, Südost- und das südliche Westafrika. Im Bioenergie-plus-CCS-Szenario ohne nachhaltiges Wassermanagement erstreckt sich der hohe Wasserstress auch auf einige sonst nicht betroffenen Regionen, wie den Osten Brasiliens und große Teile von Afrika südlich der Sahara. Hier werden im untersuchten Szenario große Biomasse-Plantagenflächen angenommen, die bewässert werden müssen.

„Die Zahlen zeigen, dass nachhaltiges Wassermanagement in jedem Fall eine Herausforderung ist, der wir uns umgehend stellen müssen“, sagt Ko-Autor Wolfgang Lucht, Leiter der Forschungsabteilung Erdsystemanalyse am PIK. „Unsere neue Studie bestätigt, dass derzeit diskutierte Maßnahmen zur Stabilisierung des Klimas, hier die Erzeugung von Bioenergie mit CCS, eine Reihe zusätzlicher Dimensionen unseres Erdsystems berücksichtigen sollte -– der Wasserkreislauf gehört dazu. Risiken und Zielkonflikte müssen sorgfältig durchdacht werden, bevor größere Schritte zur Etablierung von Märkten und Infrastrukturen für Biomasse eingeleitet werden. Das Konzept der Planetaren Belastungsgrenzen betrachtet das gesamte Erdsystem, nicht nur das Klima. Um einen sicheren Handlungsraum für die Menschheit zu bewahren, muss vor allem auch die Integrität der Biosphäre beachtet werden.“

Artikel: Fabian Stenzel, Peter Greve, Wolfgang Lucht, Sylvia Tramberend, Yoshihide Wada, Dieter Gerten (2021): Irrigation of biomass plantations may globally increase water stress more than climate change. Nature Climate Change [DOI: 10.1038/s41467-021-21640-3]

Weblink zum Artikel, sobald er veröffentlicht ist: http://dx.doi.org/10.1038/s41467-021-21640-3

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung PIK, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
http://www.pik-potsdam.de

Wer wir sind:
Das Potsdam-Institut für Klimafolgenforschung (PIK) ist eines der weltweit führenden Institute in der Forschung zu globalem Wandel, Klimawirkung und nachhaltiger Entwicklung. Natur- und Sozialwissenschaftler erarbeiten hier interdisziplinäre Einsichten, welche wiederum eine robuste Grundlage für Entscheidungen in Politik, Wirtschaft und Zivilgesellschaft darstellen. Das PIK ist ein Mitglied der Leibniz-Gemeinschaft.

Originalpublikation:
Fabian Stenzel, Peter Greve, Wolfgang Lucht, Sylvia Tramberend, Yoshihide Wada, Dieter Gerten (2021): Irrigation of biomass plantations may globally increase water stress more than climate change. Nature Climate Change [DOI: 10.1038/s41467-021-21640-3]

(nach oben)


Auf der Suche nach Lösungen für Klimawandelfolgen in Nord- und Ostsee: Küstenforschungsverbund KüNO geht in dritte Runde

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Nord- und Ostsee sind durch Klimakrise und wachsenden Nutzungsdruck, auch im Einzugsgebiet, massiven Umweltveränderungen ausgesetzt. Die negativen Folgen– etwa für Gewässerqualität, Küstenschutz und Fischerei – stehen im Fokus des Verbundes „Küstenforschung Nordsee-Ostsee“ (kurz KüNO), der 24 Einrichtungen vereint und seit 2013 wissenschaftliche Grundlagen für nachhaltiges Küstenmanagement erarbeitet. Am 15. und 16. März treffen sich rund 100 Wissenschaftler:innen zu einem virtuellen Auftakt der KüNO-Förderphase III. Geplant ist ein intensiver Austausch zu den neuen Forschungsvorhaben, die das Bundesministerium für Bildung und Forschung (BMBF) bis 2023 mit rund 10,5 Mio. Euro fördert.

Neben Expert:innen der großen deutschen Meeresforschungseinrichtungen in Bremerhaven, Geesthacht, Hamburg, Kiel, Rostock und Wilhemshaven, werden auch Forschende aus verschiedenen Universitäten, Behörden, Wirtschafts- und Umweltinstituten teilnehmen. Auf der vom Leibniz-Institut für Ostseefor-schung Warnemünde (IOW) koordinierten Online-Tagung stellen sich die sieben neuen Forschungsprojekte der dritten KüNO-Förderphase dem Forschernetzwerk vor. Der Fokus der Projekte liegt auch hier, wie in den beiden vorherigen Förderphasen, auf der Erarbeitung von praxisnahen Lösungsansätzen für Fischerei, Wirtschaft, Tourismus sowie Politik und Verwaltung, die zunehmend mit den Folgen von Klimawandel, sich verändernden Nährstoffeinträgen, Schadstoffbelastung und weiteren Facetten der Intensivnutzung von Nord- und Ostsee zu kämpfen haben. Die Probleme sind vielfältig; dazu gehören etwa der drastische Rückgang verschiedener Fischbestände, die zunehmende Gefahr von Sturmfluten oder massive Algenblüten, die die Attraktivität der touristisch genutzten Küstenbereiche beeinträchtigen.

„Wir wollen bei diesem Treffen den Austausch im Verbund voranbringen – pandemiebedingt ist dies wich-tiger denn je“, erläutert Prof. Ulrich Bathmann, IOW-Direktor und Sprecher des KüNO-Verbundes das An-liegen der Tagung. „Die Wissenschaftlerinnen und Wissenschaftler sollen sich vernetzen und diejenigen kennenlernen, die in anderen Projekten mit ähnlichen Methoden oder an verwandten Themen arbeiten.“ Außerdem ist ein Austausch mit Akteuren aus Wirtschaft, Politikberatung und Forschungsförderung zu gelungenen Beispielen der Zusammenarbeit von Forschenden und Anwender:innen geplant. Diese sollen den Wissenschaftlerinnen und Wissenschaftlern Ideen und Anregungen für ihre Arbeit mitgeben. „In den Forschungsprojekten werden die jeweiligen ‚Endnutzer‘ der Ergebnisse, wie z.B. Behörden, Verbände und Kommunen, schon frühzeitig eng in die Forschung eingebunden, damit auch wirklich nützliche, umsetzbare Werkzeuge und Handlungsempfehlungen für nachhaltiges Management entstehen. Eine solche Zusammenarbeit bietet große Chancen für alle Seiten“, so Bathmann weiter.

*Verbund „Küstenforschung Nordsee-Ostsee“ (KüNO)
Der KüNO-Verbund geht mit den aktuell gestarteten Projekten in seine dritte Runde. Das Bundesministeri-um für Bildung und Forschung (BMBF) fördert die Forschung in diesem Verbund seit 2013 im Rahmen der Forschungsstrategie „Forschung für Nachhaltigkeit“ (FONA). Daraus entstanden mehrere Werkzeuge, die Behörden zur Planung von Maßnahmen zum Gewässer- und Küstenschutz bereits verwenden – beispiels-weise digitale Atlanten, die Habitate und die dort lebenden Organismen-Gemeinschaften kartieren, und deren Informationen kostenfrei im Internet abgerufen werden können. Eine Übersicht über die sieben Projekte der im November 2020 gestarteten dritten KüNO-Förderphase sowie weiterführende Informationen gibt es auf der KüNO-Webseite unter https://deutsche-kuestenforschung.de/projekte.html.

Bei Presseanfragen:
Dr. Kristin Beck | Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Tel.: 0381 – 5197 135 | Mail: kristin.beck@io-warnemuende.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ulrich Bathmann | Sprecher Verbund „Küstenforschung Nordsee-Ostsee“ (KüNO)
Direktor, Leibniz-Institut für Ostseeforschung Warnemünde (IOW)
Tel.: 0381 – 5197 100 | Mail: ulrich.bathmann@io-warnemuende.de

Dr. Franziska Schmacka | KüNO-Koordinationsbüro Küste
Leibniz-Institut für Ostseeforschung Warnemünde
Tel.: 0381 – 5197 133 | Mail: franziska.schmacka@io-warnemuende.de

(nach oben)


Lachsdetektor zur Erfolgskontrolle am Rhein

Dr.rer.nat. Arne Claussen Stabsstelle Presse und Kommunikation
Heinrich-Heine-Universität Düsseldorf
HHU-Studierende untersuchen die Lachsausbreitung

In verschiedenen deutschen Gewässern werden Lachse angesiedelt. Um den Erfolg solcher Maßnahmen zu untersuchen, hat ein deutsches Forschungskonsortium unter Beteiligung von Studierenden der Heinrich-Heine-Universität Düsseldorf (HHU) ein Diagnoseverfahren entwickelt, das nach Lachs-DNA in Flüssen sucht.

Der Atlantische Lachs (Salmo salar) hat seine Kinderstube an den Oberläufen von Flüssen. Junglachse leben zwischen einem und drei Jahren in den Flüssen, bevor sie sich physiologische verändern und ins Meer ziehen. Nach einigen Jahren schwimmen sie im Spätherbst flussaufwärts zurück in ihre Heimatgewässer, wo sie laichen und viele nach der Fortpflanzung sterben.

Noch zu Beginn des 20. Jahrhunderts war der Atlantische Lachs ein alltägliches Bild in Europas Flüssen, insbesondere im Rhein und seinen Zuflüssen. Doch durch Überfischung, Denaturierung, Flussbegradigung und die zunehmende Verschmutzung der Flüsse ging für die Fische immer mehr Lebensräume verloren. Der Lachs verschwand aus unseren Gewässern.

Seit zehn Jahren wird versucht, Lachse wieder in den ursprünglichen Gewässern heimisch zu machen. Dazu werden Lachse im Flusssystem des Rheins, vor allem in den Oberläufen der Zuflüsse, ausgesetzt. Um den Erfolg der Maßnahmen beurteilen zu können – ob also die neu eingesetzten Lachse nach einer Zeit noch vorhanden sind oder ob eventuell natürliche Lachse im Gewässer leben –, muss der Fischbestand quantitativ beurteilt werden. Ziel des Konsortiums GeMoLaR (Genetisches Monitoring zur Wiederansiedlung des Atlantischen Lachses im Rheingebiet), in dem die HHU mit Forschungsgruppen aus Belgien, den Niederlanden und der Schweiz zusammenarbeitet, ist es, den Erfolg dieser Maßnahmen zu untersuchen.

Dazu entwickelte ein Team um HHU-Professor Dr. Christopher Bridges zusammen mit dem aus der HHU ausgegründeten Unternehmen Tunatech und dem Lachszentrum Hasper Talsperre ein schnelles Lachs-Nachweisverfahren („Salmon Detection Test“, kurz SDT). Dieses verknüpft ein bereits in den USA und Irland genutztes Verfahren mit neuen Diagnosetechniken. Die HHU-Biologin Lydia Schmidt und Dr. Florian Borutta von Tunatech suchen dazu nach DNA-Spuren – sogenannte eDNA – im Gewässer.

Das Lachszentrum Hasper Talsperre bei Hagen liegt am Hasper Bach, der über die Ennepe in die Ruhr und dann in den Rhein fließt. An verschiedenen Stellen des Bachs in unterschiedlicher Entfernung zum Lachszentrum entnahmen die Forscherinnen und Forscher Wasser, aus dem sie anschließend eDNA extrahierten.

Das Verfahren kann die Lachs-DNA vom Erbgut anderer in den Gewässern lebender Fische wie Bachforelle, Regenbogenforelle, Meerforelle und Äsche unterscheiden. Bereits nach 15 bis 30 Minuten liefert der unaufwändige Test eindeutige Ergebnisse.

Dazu Prof. Bridges: „Unser Test, an dessen Entwicklung Studierende der HHU beteiligt waren, hat sich in Feldversuchen in NRW bewährt. Er eignet sich damit zur Erfolgskontrolle von Wiederbesiedlungsmaßnahmen; dies wollen wir nun auch mit anderen Kollegen in Europa und darüber hinaus erproben.“

Das Projekt GeMoLaR wird vom Bundesministerium für Ernährung und Landwirtschaft gefördert.

(nach oben)


Mikroplastik in der Elbe

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung
Ein Team aus Wissenschaftlern unter der Federführung des Helmholtz-Zentrums Geesthacht – Zentrum für Material und Küstenforschung (HZG) hat zahlreiche Mikroplastikpartikel im Elbewasser bei Cuxhaven nachgewiesen. Das Ergebnis: 200 bis 2.100 Mikroplastikpartikel fanden die Forscher pro Kubikmeter Wasser. Um die Ergebnisse ihrer Messungen und deren große Spanne besser interpretieren und mit zukünftigen Studien vergleichen zu können, hat das Team erstmalig für den Bereich der Mikroplastikforschung dargestellt, wie man den Leitfaden des Internationales Büros für Maß und Gewicht (BIPM) zur Erfassung der Messunsicherheit für solche Untersuchungen einsetzen kann.

Die Studie, die heute im Journal of Hazardous Materials veröffentlicht wurde, und deren Methodik zur Darstellung und Berechnung der Ergebnisse auch auf viele andere Studien übertragbar sind, zeigt: Die bisher bekannten Mikroplastik-Konzentrationen weisen vermutlich eine sehr hohe Unsicherheit auf.

Jeden Tag transportiert die Elbe Schätzungen zufolge zwischen 300 Kilogramm und 1,2 Tonnen Kunststoffmüll in die Nordsee (Schöneich-Argent et al., 2020), wobei die Dunkelziffer noch deutlich höher liegen wird. Wissenschaftler des neu gegründeten Instituts für Umweltchemie des Küstenraumes am Helmholtz-Zentrum Geesthacht (HZG), des Alfred-Wegener-Instituts – Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) auf Helgoland und des Leibniz-Instituts für Polymerforschung Dresden (IPF) haben Oberflächenwasser an der HZG-Messstation Cuxhaven untersucht, um verschiedene Verfahren zu vergleichen und die Menge der Mikroplastikpartikel zu bestimmen, die über die Elbe in die Nordsee gelangen.

Die Verfahren, die bislang zur Beprobung von Partikeln eingesetzt wurden, bringen oft das Problem mit sich, dass die eingesetzten Filter zu schnell verstopfen und nur geringe Wasservolumina beprobt werden können. Dadurch wird die Repräsentativität der Ergebnisse beeinträchtigt. Deshalb wurden die Proben in der aktuellen Studie – zusätzlich zu den genommenen Schöpfproben – erstmals mit zwei alternativen Techniken gewonnen: Durchflusszentrifugen und Hydrozyklonen. Beides sind in anderen Bereichen gut etablierte Instrumente zur kontinuierlichen Partikeltrennung aus großen Flüssigkeitsvolumen. „Durch die Gezeiten an der Nordseeküste haben wir relativ viele Schwebstoffe im Wasser. Deshalb mussten wir die Wasserproben zunächst von organischem Material und Sedimentpartikeln bereinigen. Anschließend haben wir einige der Proben mit spektroskopischen Mikroskopieverfahren am IPF und am AWI analysiert. Durch das systematische Vorgehen wollten wir möglichst vergleichbare Ergebnisse erhalten“, erklärt Lars Hildebrandt, Umweltchemiker und Erstautor der Studie.

Die Ergebnisse: „Zwischen 200 und 2.100 Partikel Mikroplastik haben wir pro Kubikmeter Wasser gefunden. Etwa 95 Prozent davon sind kleiner als hundert Mikrometer, was in etwa dem Durchmesser eines Haares entspricht “, so Lars Hildebrandt. „Das sind relativ hohe Konzentrationen im Vergleich zur offenen Nordsee.“ Bei den am häufigsten identifizierten Partikeln handelt es sich um Polypropylen, Acrylate, Polyvinylchlorid und Polyethylen. Grundsätzlich stecken die verschiedenen Kunststofftypen in ganz unterschiedlichen Produkten, was eine eindeutige Zuordnung gefundener Partikel schwierig macht. Polypropylen und Polyethylen sind typische Verpackungsmaterialien. 40 Prozent der gesamten Kunststoffproduktion fließen in Verpackungen mit kurzer Produktlebensdauer. PVC (Polyvinylchlorid) wird in großen Mengen im Bauwesen eingesetzt, zum Beispiel in Form von Fußbodenbelag oder Leitungen. Acrylate findet man in Lacken und Farben, aber auch in vielen Kosmetikprodukten.

Wie sicher sind solche Ergebnisse?
In dieser Studie haben die Wissenschaftler erstmals den wichtigsten Leitfaden zur Erhebung von Messunsicherheiten für die Auswertung der Untersuchungen angewendet: den Guide to the Expression of Uncertainty in Measurement des Internationalen Büros für Maß und Gewicht, der weltweit wichtigsten Behörde für „Maß und Gewicht“. Sie dient als Wächter über das Internationale Einheitensystem und alle Arten von Messungen. Lars Hildebrandt erklärt: „Jede Art von Messung ist mit einer Unsicherheit behaftet, die zusammen mit dem gemessenen Wert als sogenannte Messunsicherheit angegeben wird. Viele bereits veröffentlichte Studien zu Mikroplastikpartikeln wenden die einschlägigen Leitfäden jedoch nicht an, wodurch in der Öffentlichkeit der Eindruck einer falschen Genauigkeit entstehen kann: ‚So sind die Konzentrationen und nicht anders.‘ Dem ist aber nicht so. Man stößt auf dieses Problem aber auch in anderen Bereichen des Alltags: Wenn man sich zum Beispiel die Nährwertangabe auf einer Käsepackung ansieht oder versucht, exakt zwei Kilogramm Kartoffeln auf dem Wochenmarkt zu kaufen.“

Auf die Ergebnisse aus der Elbe angewendet, zeigt sich in der sogenannten Unsicherheitsbetrachtung: Die Messwerte sind teilweise mit extrem hohen Unsicherheiten (von etwa 25 Prozent bis zu 200 Prozent) behaftet. „Die Hauptquelle dafür ist bei uns und auch bei allen anderen Studien: Die Verteilung der Mikroplastikpartikel im Elbwasser ist nicht gleichmäßig – die Partikel verhalten sich fundamental anders als gelöste Substanzen. Deshalb müssen Forscher die Messunsicherheit, die sich natürlich über die Inhomogenität hinaus auch aus dem verwendeten Probenahme- und Analyseverfahren ergibt, adäquat berechnen und bei der Veröffentlichung der Endergebnisse berücksichtigen. Oftmals zeigt sich, dass sich die gefundenen Muster im Transport und in der Verteilung von Mikroplastik im Wasser innerhalb der Messunsicherheiten nicht signifikant voneinander unterscheiden“, sagt Dr. Daniel Pröfrock, Leiter der Abteilung Anorganische Umweltchemie am HZG.

Optimieren und Standardisieren
„Das Thema Mikroplastikpartikel in unseren Gewässern steckt wissenschaftlich gesehen in den Kinderschuhen“, so Umweltchemiker Dr. Tristan Zimmermann, Co-Autor der Studie. „Wir brauchen repräsentative Techniken zur Probenahme, um den Umweltzustand valide abzubilden. Diese Techniken müssen analytisch akkurat, nachvollziehbar und robust sein, einen hohen Automatisierungsgrad aufweisen sowie zeit- und kosteneffizient sein.“ Zukünftig sollten auch entsprechende Unsicherheitsbetrachtungen standardmäßig im Rahmen von Mikroplastik-Studien durchgeführt werden, um die Vergleichbarkeit von Daten zu verbessern und eine solidere Datengrundlage für daraus abgeleitete Entscheidungen zur Verfügung stellen zu können. Mit ihren neuen Methoden haben Forschende des HZG bei einer Fahrt mit dem Forschungsschiff SONNE im vergangenen Dezember Proben im Atlantik genommen, um sich auch ein Bild über die Situation in anderen Teilen des Ozeans machen zu können. Diese werden aktuell in den Laboren des Instituts für Umweltchemie des Küstenraumes am HZG analysiert.

Wissenschaftliche Ansprechpartner:
Lars Hildebrandt
Doktorand Anorganische Umweltchemie
Helmholtz-Zentrum Geesthacht
Tel: +49 (0)4152 87-1813
lars.hildebrandt@hzg.de

Originalpublikation:
Lars Hildebrandt, Tristan Zimmermann, Sebastian Primpke, Dieter Fischer, Gunnar Gerdts, Daniel Pröfrock,
Comparison and uncertainty evaluation of two centrifugal separators for microplastic sampling,
Journal of Hazardous Materials,
Volume 414,
2021,
125482,
ISSN 0304-3894,
https://doi.org/10.1016/j.jhazmat.2021.125482

(nach oben)


Arbeitsbedingungen in sozialen Berufen verschlechtern sich weiter

Dr. Antje Mohr Pressestelle
Hochschule Fulda
Eine Online-Befragung unter mehr als 3.000 Beschäftigten in der Sozialen Arbeit zeigt: Ihre Arbeitssituation hat sich im zweiten Lockdown verschärft – durch steigende Nachfrage, zunehmende Arbeitsverdichtung, veränderte Beziehungen zu den Adressat*innen. „Die Folgen werden wir auch als Gesellschaft insgesamt spüren“, sagt Studienleiter Professor Dr. Nikolaus Meyer, Professor für Profession und Professionalisierung Sozialer Arbeit an der Hochschule Fulda. Auf einer digitalen Konferenz der Dienstleistungsgewerkschaft ver.di zum heutigen Internationalen Tag der Sozialen Arbeit hat er die Ergebnisse der Studie vorgestellt.

Im Forschungsprojekt „Soziale Arbeit macht Gesellschaft“ befragte er während des zweiten Lockdowns in Kooperation mit der Gewerkschaft ver.di Beschäftigte aus unterschiedlichen Handlungsfeldern der Sozialen Arbeit. 3.064 Personen beteiligten sich zwischen dem 9. November und 6. Dezember 2020 an der Online-Erhebung. Da bis heute kein Überblick über die genaue Zahl der Beschäftigten in der Sozialen Arbeit vorhanden ist, kann die Studie zwar nicht als repräsentativ gelten. Doch die Verteilung der Teilnehmenden entspricht in etwa den bisher bekannten wissenschaftlichen Annahmen zur Personalverteilung über die verschiedenen Handlungsfelder. Daher kann die Befragung Tendenzen zur aktuellen Situation in der Sozialen Arbeit und erste Hinweise auf mögliche langfristige Änderungen in diesem Arbeitsfeld liefern.

„Die Berufsgruppe der Sozialen Arbeit ist diejenige, die für die Bewältigung der Krise und deren soziale Folgen eine Schlüsselrolle einnimmt. Doch sie ist selbst stark von der Krise betroffen“, betont Professor Meyer. „Die Arbeitsbedingungen in der Sozialen Arbeit waren schon vor der Pandemie nicht optimal. Die Corona-Pandemie wirkt nun wie ein Brennglas.“

Nachdenken über Stellenwechsel
Die Online-Befragung zeigt: Einrichtungen sind im zweiten Lockdown sowohl häufiger geöffnet als auch von Beschränkungen der Angebote betroffen. Beschäftigte müssen daher mehr Angebote möglich machen oder mehr Adressat*innen parallel begleiten (24,8 Prozent), auch weil Kolleg*innen als Angehörige einer Risikogruppe ausfallen (18,3 Prozent) oder selbst erkrankt sind (47,2 Prozent). In der Folge verdichtet sich die eigene Arbeit und verändert sich nahezu vollständig (88,6 Prozent). 62,1 Prozent der Beschäftigten fühlen sich belastet oder sogar extrem belastet. Aus Sicht jeder zweiten befragten Person verschlechtern sich die Arbeitsbedingungen. 29,9 Prozent denken über einen Stellenwechsel nach, 16,2 Prozent sogar über einen Berufswechsel.

Tendenzen zur Deprofessionalisierung
Aus Sicht jeder zweiten befragten Person verändern sich auch die fachlichen Strukturen wie etwa die Zusammenarbeit zwischen den Fachkräften negativ. Der veränderte Austausch mit Vorgesetzten, Kolleg*innen sowie Kooperationspartner*innen wirkt sich negativ auf die eigenwahrgenommene Arbeitsqualität aus. Mit den sich verschlechternden Arbeitsbedingungen verbunden zeigen sich darüber hinaus auch grundsätzlichere Mechanismen der Deprofessionalisierung. So werden etwa Hilfen bei 13,3 Prozent der Befragten früher als üblich beendet.

Mehr Probleme der Adressat*innen, weniger professionelle Interventionen
Die Beschäftigten geben an, dass das Leben der Adressat*innen in der Corona-Pandemie herausfordernder und prekärer geworden ist. Gleichzeitig sagen Adressat*innen häufiger geplante Termine ab, wodurch sich die Möglichkeiten zur professionellen Intervention verringern. Die Kontaktzahl zu Adressat*innen über alle Handlungsfelder hinweg nimmt bei mehr als jeder zweiten befragten Person ab. „Eine gefährliche Entwicklung, und das nehmen die Befragten auch so wahr“, sagt Professor Meyer. Hinzu kommt: Die Schutzmaßnahmen verschlechtern die Interaktion. Fast drei Viertel der Befragten bewerten diese für das Arbeitsbündnis mit den Adressat*innen negativ. In den offenen Antworten geben sie an, dass die Adressat*innen durch die Schutzmaßnahmen verunsichert oder überhaupt nicht mehr erreicht würden.

Zerrieben zwischen Anspruch und Wirklichkeit
„Die Beschäftigten werden in der Pandemie zerrieben zwischen Vorgaben von außen, die weitgehend nicht den beruflichen Standards entsprechen und den hohen professionellen Ansprüchen an die Qualität der eigenen Arbeit. Diese Diskrepanz gleichen sie nur durch hohen persönlichen Einsatz aus, um die Adressat*innen individuell angemessen begleiten zu können“, analysiert Professor Meyer die Ergebnisse der Umfrage. Da könne es nicht verwundern, dass die Befragten zu Beginn des zweiten Lockdowns nur eine geringe Anerkennung der eigenen Arbeit durch die Gesellschaft wahrgenommen hätten.

Auswirkungen auf Adressat*innen und Gesellschaft
„Wir haben in der Studie zwar nicht untersucht, wie sich die Situation der über eine Million Beschäftigten in der Sozialen Arbeit auf die mindestens fünf Millionen Adressat*innen auswirkt. Aber: Die Arbeitsbedingungen der Beschäftigten in der Sozialen Arbeit haben letzten Endes auch Einfluss auf die Adressat*innen“, betont Professor Meyer und fordert: „Wir müssen anerkennen, dass Soziale Arbeit und die in ihr Beschäftigten für unsere Gesellschaft extrem wichtig sind. Diese Berufsgruppe organisiert Prävention, Erziehung und Bildung ebenso wie Hilfe und Unterstützung in den verschiedensten problembelasteten Lebenslagen. Das ist für die Aufarbeitung der durch die Corona-Pandemie entstehenden sozialen Probleme ungeheuer wichtig.“

HINTERGRUNDINFORMATIONEN
Finanzierung der Studie:
Die gesamte Studie wurde von der Hochschule Fulda finanziert.

Methodik:
Die Studie „SOZIALE ARBEIT MACHT GESELLSCHAFT“ baut auf einer Online-Befragung von 1.867 Beschäftigten in der Sozialen Arbeit im ersten Lockdown auf. Die quantitativen Daten zeigten, dass sich die professionellen Handlungsweisen verändern und Arbeitsbedingungen verschärfen (Buschle & Meyer 2020). Die Befragung im zweiten Lockdown fragte darüber hinaus, welche Veränderungen im professionellen Handeln sich dauerhaft etablieren. Zu diesem Zweck wurde ein Online-Fragebogen zwischen dem 9. November sowie dem 6. Dezember 2020 freigeschaltet. Der Link wurde an die ver.di-Mitglieder in diesem Bereich, alle Studierenden sowie Kooperationspartner der Hochschule Fulda sowie an die Studiengangskoordinator*innen aus dem Verbund „Bachelor Soziale Arbeit Online“ (BASA-Online), hier arbeiten sieben Hochschulen aus dem gesamten Bundesgebiet zusammen, weitergegeben. Außerdem erhielten den Link alle Landesverbände der Berufsgruppenvertretungen Gilde Soziale Arbeit sowie Deutscher Berufsverband Soziale Arbeit (DBSH) und die wissenschaftliche Fachgesellschaft Deutsche Gesellschaft für Soziale Arbeit (DGSA). Ebenso wurden Interessenvertretungen wie die Arbeitsgemeinschaft Kinder- und Jugendhilfe (AGJ) und die Deutsche Vereinigung für Soziale Arbeit im Gesundheitswesen (DVSG) mit der Bitte um Weitergabe kontaktiert. Alle angeschriebenen Institutionen nahmen den Link in ihre Verteiler auf. Auf diese Weise wurden 3.064 Teilnehmende aus den verschiedenen Handlungsfeldern der Sozialen Arbeit gewonnen.

Wissenschaftliche Ansprechpartner:
Professor Dr. Nikolaus Meyer
Hochschule Fulda, Fachbereich Sozialwesen
E-Mail: nikolaus.meyer@sw.hs-fulda.de
Mobil: 0176 240 918 50

Originalpublikation:
Meyer, N. & Alsago, E. (2021). Soziale Arbeit in der Corona-Pandemie: Arbeiten am Limit? Ein empirischer Beitrag zur Lage der Beschäftigten aus professionstheoretischer Perspektive. Sozial Extra, in Begutachtung/peer review.

Weitere Informationen:
https://www.verdi.de/presse/downloads/pressemappen Profis am Limit – digitale Konferenz der Dienstleistungsgewerkschaft ver.di am 16. März 2021 – Presseinformation mit Statements

(nach oben)


Internetnutzung von Menschen in der zweiten Lebenshälfte während der Pandemie: Soziale Ungleichheiten bleiben bestehen

Stefanie Hartmann Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen
Die Corona-Pandemie und die damit verbundenen Maßnahmen zur Eindämmung haben den Alltag der meisten Menschen stark verändert. Sie sollen nur in Ausnahmefällen die eigene Wohnung verlassen. Soziale Kontakte zu pflegen und an Veranstaltungen teilzunehmen, ist kaum noch oder nur digital möglich. Verändert sich deshalb das Nutzungsverhalten rund um das Internet? Doch zuallererst ist ein Internetzugang erst einmal notwendig.

Im Rahmen des Deutschen Alterssurveys (DEAS) wurde untersucht, wie sich im Juni/Juli 2020 der Zugang zum Internet und seine Nutzung im Vergleich zu 2017 verändert haben. Befragt wurden Personen im Alter von 46 bis 90 Jahren. Circa ein Fünftel der Befragten gab an, das Internet seit Beginn der Corona Pandemie im März häufiger für private Zwecke zu nutzen als vor Beginn der Pandemie.

Besonders häufig suchten die Befragten im Jahr 2020 im Internet nach Informationen. Darunter fallen Nachrichten und Service-Angebote, beispielsweise um sich über das aktuelle Pandemiegeschehen zu informieren. Ebenfalls zeigen die DEAS-Daten, dass bestehende soziale Kontakte stärker über das Internet gepflegt wurden als noch im Jahr 2017. Vielfach ersetzen offenbar Videochats Zusammenkünfte innerhalb der Familie, z. B. von Großeltern und ihren Enkelkindern. Auch Angebote zur Unterhaltung und Kultur im Netz wurden stärker nachgefragt als 2017.

Um auf solche digitalen Möglichkeiten auszuweichen, ist zunächst ein Internetzugang erforderlich. Zwar ist zu erkennen, dass mehr Menschen darüber verfügen als noch im Jahr 2017 – aber die Unterschiede zwischen verschiedenen Bevölkerungsgruppen sind immer noch deutlich. Auch im Jahr 2020 sind es weniger Frauen als Männer, die einen Zugang hatten. Noch entscheidender sind aber der Bildungsstatus und – das Alter. Insbesondere unter den 76- bis 90-Jährigen hat nur etwas mehr als jeder Zweite Zugang zum Internet – und damit zu wichtigen Ressourcen gerade in Pandemiezeiten.

Diese Unterschiede beim Zugang spiegeln sich auch bei der Art der Internetnutzung wider. Selbst unter denjenigen, die die Möglichkeit haben, im Internet zu surfen, nutzen Personen in der ältesten Altersgruppe seltener die damit verbundenen Möglichkeiten. Beispielsweise scheinen die über 76-Jährigen dem Online-Einkauf noch immer kritisch gegenüber zu stehen.

Die Corona-Pandemie hat noch einmal deutlich gezeigt, welche Handlungsmöglichkeiten das Internet eröffnen kann. Daher ist es wichtig, dass der Zugang zum Internet möglichst niedrigschwellig und kostengünstig gestaltet wird, sodass allen die Möglichkeit offen steht, das Internet zu nutzen. Dazu gehört auch die gezielte Vermittlung und Stärkung von Kompetenzen der Internetnutzung.

Der Deutsche Alterssurvey (DEAS) ist eine repräsentative Quer- und Längsschnittbefragung von Personen in der zweiten Lebenshälfte. Im Rahmen der Studie werden seit mehr als zwei Jahrzehnten Menschen auf ihrem Weg ins höhere und hohe Alter regelmäßig befragt. An der schriftlich-postalischen Befragung im Juni und Juli 2020 haben 4.762 Personen im Alter von 46 bis 90 Jahren teilgenommen. Der Deutsche Alterssurvey wird gefördert vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ).

Originalpublikation:
Lisa Kortmann, Christine Hagen, Cordula Endter, Julia Riesch und Clemens Tesch-Römer: Internetnutzung von Menschen in der zweiten Lebenshälfte während der Corona-Pandemie: Soziale Ungleichheiten bleiben bestehen [DZA-Aktuell 05/2021]. Berlin: Deutsches Zentrum für Altersfragen.
https://www.dza.de/fileadmin/dza/Dokumente/DZA_Aktuell/DZA-Aktuell_05_2021_Inter…

(nach oben)


TU Berlin: Weniger Behandlungsfälle trotz Pandemie

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Die Analyse von Krankenhausdaten durch TU-Wissenschaftler zeigt zudem eine niedrige Bettenauslastung / Online-Vortrag zur Situation deutscher Kliniken im Covid-19-Jahr 2020 am 15. März 2021

Im Jahr 2020 sind in deutschen Krankenhäusern 13 Prozent weniger abgerechnete Behandlungsfälle registriert worden als im Jahr 2019. In der Zeit vom 9. März bis 24. Mai 2020, das ist die Zeit des ersten Lockdowns, sanken die Fallzahlen sogar um 30 Prozent gegenüber dem Vorjahr. Das ist das Ergebnis einer Analyse von Krankenhausdaten, die Prof. Dr. Reinhard Busse und Dr. Ulrike Nimptsch, vorgenommen haben. Reinhard Busse leitet an der TU Berlin das Fachgebiet Management im Gesundheitswesen. Ulrike Nimptsch ist am Fachgebiet wissenschaftliche Mitarbeiterin. Die Auswertung wurde für den Beirat zur Überprüfung der Auswirkungen der Regelungen des COVID-19-Krankenhausentlastungsgesetzes vorgenommen, dessen Mitglied Prof. Dr. Reinhard Busse ist. Das Gesetz war im März 2020 verabschiedet worden, um die im Zusammenhang mit der Pandemie befürchtete Kapazitätenknappheit in deutschen Krankenhäusern abzuwenden.

Historisches Tief
Der Rückgang der Behandlungsfälle führte trotz einer kleinen Zunahme der Verweildauer pro Patient auch zu einem Rückgang der Verweildauertage um zwölf Prozent. Dadurch sank die Bettenauslastung der Krankenhäuser: „Lag die Bettenauslastung 2019 noch bei 75,1 Prozent, erreichte sie 2020 ein historisches Allzeittief von 67,3 Prozent“, sagt Prof. Dr. Reinhard Busse. Besonders niedrig war sie mit 62,1 Prozent bei den kleineren Krankenhäusern mit bis zu 299 Betten.

Die Zahl der gemeldeten Intensivbetten erhöhte sich im vergangenen Jahr um 206 Betten von 26.581 im Jahr 2019 auf 26787 im Jahr 2020. Dabei konstatieren Busse und Nimptsch jedoch Unterschiede hinsichtlich der Größe der Krankenhäuser. Sank die Anzahl der Intensivbetten in den kleinen Krankenhäusern (bis zu 299 Betten) um sieben Prozent, stieg sie in den großen Krankenhäusern (ab 600 Betten) um fünf Prozent. Dass kleine Krankenhäuser in der Pandemie Intensivbetten abbauten, war ein überraschender Befund, ist jedoch ein weiterer Beleg für die Leistungskonzentration bei den größeren Häusern.

172.248 Behandlungsfälle, bei denen das Coronavirus SARS-CoV-2 nachgewiesen worden war, wurden 2020 in deutschen Krankenhäusern gezählt und an das Institut für das Entgeltsystem im Krankenhaus übermittelt. „Dabei ist es wichtig zu beachten, dass es sich um Fälle handelt und nicht um Personen. Wenn also eine Person von einem Krankenhaus in ein anderes verlegt wurde, sind das zwei Fälle“, erklärt Dr. Ulrike Nimptsch. Von den 172.248 Fällen wurden 36.305 Fälle, also über ein Fünftel, intensivmedizinisch behandelt. „Die durchschnittliche Verweildauer dieser Patienten auf Intensivstation betrug 9,1 Tage, eine im Vergleich mit anderen Diagnosen sehr lange Zeit“, so Dr. Ulrike Nimptsch. 60 Prozent der intensivmedizinisch versorgten Covid-19-Patienten wurden in den 330 größten (ab 400 Betten) der insgesamt über 1400 Krankenhäuser versorgt. Laut Robert-Koch-Institut starben 2020 etwa 40.000 Menschen an oder mit Covid-19. Die Analysen der TU-Wissenschaftler zeigen, dass 75 Prozent davon, also 30.307 Patienten, im Krankenhaus starben.

Weniger Hüfte, weniger Knie
Besonderes Augenmerk lag auf der Absage beziehungsweise Verschiebung von elektiven, also planbaren Operationen. „Bei den eingesetzten künstlichen Hüftgelenken verringerten sich die Fallzahlen um neun Prozent im Vergleich zu 2019 und bei den künstlichen Kniegelenken um elf Prozent“, sagt Prof. Dr. Reinhard Busse. Deutlich stärker waren allerdings die Rückgänge von Krankenhausfällen mit den Hauptdiagnosen Diabetes, Bluthochdruck, Herzinsuffizienz, Chronisch-Obstruktive Lungenerkrankung (COPD) und Asthma, die die OECD als potenziell vermeidbare Krankenhausfälle einstuft. Bei der Hauptdiagnose Asthma gingen die Krankenhausfälle um 29 Prozent zurück, bei COPD um 26 Prozent, bei Bluthochdruck um 18 Prozent, bei Diabetes um 17 Prozent und bei Herzinsuffizienz um zwölf Prozent im Vergleich zu 2019. „Das verdeutlicht, dass das Inanspruchnahmeverhalten der Patienten eine deutlich größere Rolle als die Absage von elektiven Operationen durch die Krankenhäuser gespielt hat. Dass sich diese Entwicklung verstetigt, ist somit zumindest nicht unwahrscheinlich“, resümieren die beiden Wissenschaftler.

Am Montag, dem 15. März 2021, 18.15 Uhr, wird Prof. Dr. Reinhard Busse im Rahmen des Spreestadtforums den Vortrag „Wie erging es den Krankenhäusern im Covid-19-Jahr 2020? Analyse der Fallzahlen, Belegung und Sterblichkeit nach Indikationen und Krankenhausgröße“ via Zoom halten.

Link zur Auswertung der Krankenhaus-Daten: https://www.aerzteblatt.de/archiv/218200/COVID-19-Pandemie-Historisch-niedrige-B….

Weitere Informationen erteilen Ihnen gern:
Prof. Dr. med. Reinhard Busse
TU Berlin
Fachgebiet Management im Gesundheitswesen
Tel.: 030 314-28420
E-Mail: mig@tu-berlin.de oder rbusse@tu-berlin.de

Dr. Ulrike Nimptsch
TU Berlin
Fachgebiet Management im Gesundheitswesen
E-Mail: ulrike.nimptsch@tu-berlin.de

(nach oben)


Erste Lausitzer Wasserkonferenz in Cottbus startet durch

Ralf-Peter Witzmann Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg
Den großen Herausforderungen bei der Bewältigung der mit dem Strukturwandel in der Lausitz einhergehenden wasserwirtschaftlichen Aufgaben Rechnung tragend, sind drei Fachministerien der Einladung des Wasser-Cluster-Lausitz e.V. zur Teilnahme an der Wasserkonferenz gefolgt.

Die Veranstaltung wurde am 12. März 2021 an der Brandenburgischen Technischen Universität (BTU) als Hybridveranstaltung mit mehr als 450 Online-Teilnehmenden aus dem In- und Ausland sowie einem sehr begrenzten Personenkreis in Präsenz durchgeführt.

Die Präsidentin der BTU Cottbus–Senftenberg Prof. Gesine Grande unterstreicht in ihrer Eröffnungsrede die Rolle der Universität als Plattform für den fachlichen Austausch und den Diskurs: „Die Weichen, die wir heute für eine verantwortungsvolle und nachhaltige Nutzung unserer überaus wichtigen Ressource Wasser stellen, haben unmittelbare Auswirkungen auf unsere Zukunft und die unserer Region. Über meine Funktion im Nachhaltigkeitsbeirat des Landes Brandenburg werde ich die Brisanz des Themas, die Ergebnisse der Konferenz und das Know-how der BTU hinsichtlich der wasserwirtschaftlich zu lösenden Aufgaben einbringen.“

In ihrer Videobotschaft sagt die zuständige Senatorin für Umwelt, Verkehr und Klimaschutz in Berlin Regine Günther: „Die jahrzehntelangen massiven Eingriffe in den Wasserhaushalt durch die Braunkohleförderung sowie der beschleunigte Klimawandel stellen die Hauptstadtregion zukünftig vor enorme Herausforderungen bei der sicheren Wasserversorgung. Wir benötigen ein kluges und vorausschauendes Wassermanagement unter Berücksichtigung der Gewässerökologie. Dabei gilt es jetzt gemeinsam einer möglichen Wasserknappheit entgegen zu steuern. Die Wasserkonferenz ist hier ein wichtiger Beitrag.“

Auf die Rolle des Landes Brandenburg geht Umweltminister Axel Vogel ein: „Der Ausstieg aus der Braunkohle ist alleine schon aus Gründen des Klimaschutzes unvermeidlich und zwingend erforderlich. Die gravierenden Folgen des Kohleabbaus für den Wasserhaushalt werden uns noch lange begleiten und können nicht von einer Generation bewältigt werden. Für die dafür notwendigen Maßnahmen sind zuallererst die Bergbauunternehmen nach dem Verursacherprinzip in der Pflicht. Gleichzeitig arbeiten Brandenburg, Sachsen und Berlin länderübergreifend an Lösungen zur Stabilisierung des Wasserhaushalts. Zur Absicherung aller ökologischen und wasserwirtschaftlichen Interessen, vor allem in niederschlagsarmen Zeiten, braucht es ein gemeinsames und zielgerichtetes Handeln auf allen Ebenen. Das gilt für das Einzugsgebiet von Spree und der Schwarzen Elster gleichermaßen. In Abstimmung mit Sachsen wird aktuell die Nutzung der Tagebaurestseen sowohl für den Wasserrückhalt in Hochwassersituationen als auch für die Niedrigwasseraufhöhung untersucht. Wir brauchen zur Bewältigung dieser Aufgaben, die dazu noch durch den fortschreitenden Klimawandel erschwert wird, zukunftsorientierte Anpassungsstrategien und weiterhin die gemeinsame Anstrengung von Unternehmen, Landnutzern, Politik, Wissenschaft und allen beteiligten Akteuren.“

Wie ein roter Faden durchzieht es alle Vorträge: Die Bewältigung der wasserwirtschaftlichen Folgen des Braunkohlebergbaues in Verbindung mit den zeitgleich wirkenden Einflüssen des Klimawandels sind als Mehrgenerationsaufgaben zu sehen. Dafür gibt es weltweit keine Beispiele. Hier hat das Bundesunternehmen Lausitzer und Mitteldeutsche Bergbau-VerwaltungsgesellschaftmbH (LMBV) in den vergangenen 25 Jahren auf vorbildliche Weise gezeigt, wie trotz häufiger Trockenwetterperioden Bergbaufolgeseen aufgefüllt und zu erlebnisreichen Landschaften entwickelt werden können.

Dass auch in den niederschlagsarmen Jahren 2018 bis 2020 keiner der Spreeanrainer bis Berlin einen größeren Schaden genommen hat, liegt nach Ansicht von Sachsens Umweltminister Wolfram Günther am engen Schulterschluss zwischen Berlin, Brandenburg und Sachsen. Günther: „Mit unseren Speichern im Oberen Spreegebiet sorgt die sächsische Landestalsperrenverwaltung kontinuierlich für eine angemessene Wasserführung der Spree. Wir stimmen uns bereits seit vielen Jahren länderübergreifend ab, um das Wasser in den Einzugsgebieten von Spree und Schwarzer Elster zu bewirtschaften. Auf diese Zusammenarbeit werden wir bei der Bewältigung des Struktur- und Klimawandels aufbauen.“ Dazu sei auch ein besserer Wasserrückhalt in der Fläche, im Siedlungsraum und im unbebauten Offenland notwendig. „Die Folgen des Braunkohleabbaus für den Wasserhaushalt in der Lausitz werden uns noch Jahrzehnte begleiten und viel Geld kosten. Selbstverständlich müssen die Kohleunternehmen ihre gesetzlichen Verpflichtungen erfüllen. Die darüber hinausgehenden Langzeitkosten können die Länder nicht allein stemmen. Hier ist der Bund gefragt, denn die jahrzehntelange Kohlenutzung war ein Teil der nationalen Energieversorgung“, so der Minister weiter.

Im Schlusswort der Wasserkonferenz betonte Sprembergs Bürgermeisterin und ehemaliges Mitglied der Kommission Wachstum, Strukturwandel und Beschäftigung, die so genannte „Kohlekommission“ Christine Herntier: „Ich fahre heute etwas beruhigter nach Hause und wünsche mir vor allem, dass neben künftigen regelmäßigen Wasserkonferenzen vor allem die noch bestehende Denkhindernisse an den Ländergrenzen zum Wohle der Lausitz aber auch der Hauptstadtmetropole noch schneller überwunden werden“.

Pressekontakt:
Susett Tanneberger
Stabsstelle Kommunikation und Marketing
T +49 (0) 355 69-3126
susett.tanneberger@b-tu.de

Wissenschaftliche Ansprechpartner:
Dipl.- Ing. Ingolf Arnold
Vorsitzender des Wasser-Cluster-Lausitz e.V.
Tel.: 0173 576 0134
Ingolf.arnold@wasser-cluster-lausitz.de

Dr.-Ing. Volker Preuß
BTU Cottbus – Senftenberg
Wassertechnik
T +49 (0) 355 69-4312
Volker.Preuss@B-TU.De

Weitere Informationen:
https://www.wasser-cluster-lausitz.de/ – zum Wasser Cluster Lausitz e.V.
https://www.b-tu.de/news/artikel/18238-erste-lausitzer-wasserkonferenz-in-cottbu… – mehr zur Lausitzer Wasserkonferenz

(nach oben)


Europäisches Forschungsnetzwerk untersucht die Mikroplastikbelastung von Ackerböden

Michael Hallermayer Stabsstelle Kommunikation und Marketing
Universität Augsburg
Unter Leitung des Augsburger Geographen Prof. Dr. Peter Fiener ist ein europaweites „EU Innovative Training Network“ gestartet, dass die Belastung landwirtschaftlich genutzter Böden mit Makro- und Mikroplastik untersucht. Insgesamt 14 Doktorandinnen und Doktoranden an elf europäischen Forschungseinrichtungen arbeiten an dem Thema.

Mit dem Programm der „Innovative Training Networks“ möchte die EU eine neue Generation von innovativen Nachwuchswissenschaftlerinnen und -wissenschaftlern fördern, die sich mit den bestehenden und wachsenden Herausforderungen unserer Zeit auseinandersetzen. Ihre aus der Forschung gewonnene Expertise soll Einfluss in innovative Produkte, Dienstleistungen und Ideen für Wirtschaft und Gesellschaft finden.

Das Ziel des SOPLAS-Forschungsnetzwerks (Macro and Microplastic in Agricultural Soil Systems) ist es, bestehende Wissenslücken im Kontext „Plasticulture“ und Bodensysteme zu schließen. Des Weiteren soll der Austausch zwischen Forschung, Industrie und Landwirtschaft verbessert und letztendlich einen Beitrag zu einer nachhaltigeren Nutzung von Plastik in der Landwirtschaft in Europa zu leisten.

Die Wissenschaftlerinnen und Wissenschaftler aus den Bereichen Geographie, Agronomie, Bodenkunde, Biologie, Mikrobiologie, Hydrologie, Chemie, Ökonomie und Lebenswissenschaften arbeiten mit weiteren Partnern aus Industrie und Umweltverwaltung an folgenden Forschungsaspekten:

• Anpassung und Optimierung bestehender Methoden zur Quantifizierung von Makro- und Mikroplastik im Boden,
• Verbesserung des Verständnisses von Zersetzungsprozessen von Plastik in Bodenökosystemen,
• Untersuchung der Auswirkungen von Mikroplastik auf Bodenorganismen,
• Analyse der Austragspfade von Mikroplastik aus landwirtschaftlichen Flächen,
• und Untersuchung der Bereitschaft von Landwirten und Konsumenten die Verwendung von Plastikmaterialien im Kontext landwirtschaftlicher Produktion zu verringern.

„Erste Abschätzungen legen nahe, dass global in Böden mehr Mikroplastik zu finden ist als in den Ozeanen. Wie groß die konkrete Belastung ist und welche ökologischen bzw. ökotoxikologischen Auswirkungen dies hat, ist aber weitestgehend unbekannt. Das europäische Doktorandennetzwerk SOPLAS bietet Nachwuchswissenschaftlern eine fantastische Möglichkeit, in einem noch jungen und zugleich hoch relevanten Feld der Umweltforschung Neues zu entdecken“, sagt Prof. Dr. Peter Fiener.

Kern des Netzwerks sind die Doktorandenprojekte, welche thematisch verzahnt sind, um sich den Fragestellungen des Themenkomplexes aus verschiedenen Blickwinkeln zu nähern. Ein Austauschprogramm ermöglicht für jeden Doktoranden und jede Doktorandin einen vier bis sechs monatigen Forschungsaufenthalt an einer der Partnerinstitutionen für einen wechselseitigen Wissenstransfer. Zudem erlernen die Promovierenden in sechs einwöchigen Trainingsmodulen wissenschaftliche und methodische Kompetenzen. Die Trainingsprogramme werden von den Institutionen des Netzwerkes gelehrt und ausgerichtet, was wiederum den Wissenstransfer innerhalb des Netzwerks sicherstellt.

Das EU Innovative Training Network SOPLAS wird von Januar 2021 bis Dezember 2024 von der EU mit ca.3,7 Mio. Euro gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Fiener, Wasser- und Bodenressourcenforschung
peter.fiener@geo.uni-augsburg.de
+49 821 598 2665

Dr. Florian Wilken, Wasser- und Bodenressourcenforschung
florian.wilken@geo.uni-augsburg.de
+49 821 598 2753

(nach oben)


Klimawandel verändert Abflussmenge von Flüssen

Hochschulkommunikation Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Die Wassermengen in Flüssen haben sich in den letzten Jahrzehnten weltweit stark verändert. Ein internationales Forschungsteam unter Leitung der ETH Zürich konnte nun belegen, dass der Klimawandel dafür auf globaler Ebene eine entscheidende Rolle spielt, nicht aber Gewässermanagement und Landnutzung.

Der Klimawandel beeinflusst den Wasserhaushalt der Erde: Je nach Region und Jahreszeit kann er zu mehr Überschwemmungen oder Dürren führen und sich auch auf die Wassermengen in Flüssen auswirken. Die Abflussmengen sind ein wichtiger Indikator für die Wasserressourcen, die Mensch und Umwelt zur Verfügung stehen. Wieviel Wasser regional verfügbar ist, hängt auch von weiteren Faktoren wie direkten Eingriffen in den Wasserhaushalt oder der Landnutzung ab: Wird beispielsweise Wasser zur Bewässerung abgezweigt, über Stauseen reguliert, oder werden Wälder abgeholzt und stattdessen Monokulturen angebaut, kann dies ebenfalls die Wassermenge in Flüssen verändern.

Wie stark sich die Abflussmengen in verschiedenen Weltregionen während der letzten Jahrzehnte verändert haben, wurde bisher aber auf globaler Ebene noch nicht anhand von konkreten Messdaten untersucht. Ebenso war die Frage, ob global sichtbare Veränderungen auf den Klimawandel oder auf direkte menschliche Eingriffe in den Wasserhaushalt und die Landnutzung zurückzuführen sind, bislang nicht geklärt.

Nun ist es einem internationalen Forschungsteam unter Leitung der ETH Zürich gelungen, den Einfluss dieser Faktoren aufzuschlüsseln. Dazu analysierten die Wissenschaftlerinnen und Wissenschaftler Daten von 7250 Abfluss-Messstationen weltweit. Die Studie, die nun in der renommierten Fachzeitschrift Science erschienen ist, belegt: Wie viel Wasser Flüsse führen, hat sich zwischen 1971 und 2010 stark verändert. Es zeigen sich komplexe Muster: Manche Regionen sind trockener geworden, etwa der Mittelmeerraum oder der Nordosten Brasiliens, während anderswo die Wassermengen zunahmen, zum Beispiel in Skandinavien.

Suche nach den Ursachen
«Die eigentliche Frage war jedoch, was die Ursache für diese Veränderungen ist», sagt Lukas Gudmundsson, Erstautor der Studie und Oberassistent in der Gruppe von Sonia Seneviratne, Professorin am Institut für Atmosphäre und Klima der ETH.

Um das herauszufinden, führten die Forschenden mehrere Computersimulationen durch. Sie verwendeten globale hydrologische Modelle, die sie mit beobachteten Klimadaten aus dem untersuchten Zeitraum fütterten (1971 bis 2010). Die Ergebnisse der Modellrechnungen stimmten gut mit der Analyse der Flussmessdaten überein. «Das heisst, dass die klimatischen Bedingungen die beobachteten Trends bei den Abflussmengen erklären können», sagt Gudmundsson.

In einem zweiten Durchgang schlossen die Forschenden in ihre Simulationen zusätzlich direkte menschliche Veränderungen ein, um den Einfluss dieser Faktoren zu untersuchen. Das Ergebnis änderte sich dadurch jedoch nicht. «Veränderungen im Wasser- und Landmanagement sind offenbar nicht die Ursache für die globalen Veränderungen in Flüssen», sagt Gudmundsson.

Gewässermanagement und Landnutzung können zwar lokal zu grossen Schwankungen der Abflüsse führen. «Uns ging es aber nicht um lokale, sondern um globale Trends, die über längere Zeiträume sichtbar werden», sagt Gudmundsson. Deshalb betrachteten die Forschenden nicht isoliert die Daten einzelner Messstationen, sondern fassten diese für die Analyse zu grösseren, subkontinentalen Regionen zusammen. Dadurch wurde es möglich, den Einfluss des Klimawandels in den Daten zu erkennen.

Einfluss der Treibhausgase
Die Rolle des Klimawandels konnten die Forschenden mit der sogenannten Attributions-Methode untermauern: Sie verglichen ihre Messdaten mit Simulationen von Klimamodellen, die einmal mit den menschengemachten Treibhausgasen berechnet wurden und einmal ohne diese. Im ersten Fall stimmte die Simulation mit den tatsächlichen Daten überein, im zweiten Fall jedoch nicht. «Daraus lässt sich ableiten, dass die beobachteten Veränderungen ohne den Klimawandel sehr unwahrscheinlich sind», sagt Gudmundsson.

Die Studie ist die erste, welche mit Messdaten nachweist, dass der Klimawandel einen global sichtbaren Einfluss auf die Fliessgewässer hat. «Dies war nur durch die gute Zusammenarbeit der beteiligten Forschenden und Institutionen aus zwölf verschiedenen Ländern möglich», betont Gudmundsson. Auch die gesammelten Daten von den 7250 Messstationen weltweit waren ein Gemeinschaftswerk: Die Forschenden trugen sie mit australischen Kollaborationspartnern in einer Vorgängerstudie zusammen. Sie bilden den grössten weltumspannenden Datensatz zur Wassermenge in Flüssen, der heute verfügbar ist. «Dank dieser Daten konnten wir die Modelle validieren und zeigen, dass sie die Realität gut abbilden», sagt Gudmundsson.

Das heisst, dass die Modelle auch verlässliche Szenarien liefern können, wie sich Flüsse künftig weiter verändern werden. Solche Projektionen stellen für betroffene Regionen eine wichtige Planungsgrundlage dar, um die Wasserversorgung sicherzustellen und sich an den Klimawandel anzupassen.

Wissenschaftliche Ansprechpartner:
Lukas Gudmundsson, lukas.gudmundsson@env.ethz.ch

Originalpublikation:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2021/03/klimawandel-be…

(nach oben)


Erholung an europäischen Gewässern bringt Volkswirtschaft 800 Milliarden Euro

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin

Europäerinnen und Europäer geben jährlich über 800 Milliarden Euro für die Erholung an Küsten und Gewässern aus. Das belegt eine EU-weite Studie unter Leitung der Hochschule für Wirtschaft und Recht Berlin.

• Zum ersten Mal hat ein Forscherteam den ökonomischen Wert von Erholung an und in Gewässern in Europa ermittelt
• Ökologisch intakte Gewässer und Grünflächen für das physische und psychische Wohlbefinden von Menschen enorm wichtig
• Wasserqualität für die Nutzung zu Erholungszwecken entscheidend, Haushaltseinkommen und Bildungsniveau nicht

Gewässer und ihre Umgebung sind wichtig für die physische und psychische Gesundheit der Menschen. Der volkswirtschaftliche Nutzen ist hoch und abhängig von der Wasserqualität. Eine Verschlechterung der Qualität in Binnen- und Küstengewässern würde die Länder der Europäischen Gemeinschaft mehr als 100 Milliarden Euro an entgangenem Erholungswert kosten.

Zum ersten Mal hat ein Team von Wissenschaftlerinnen und Wissenschaftlern aus Großbritannien, Österreich, Irland und Finnland unter Leitung von Volkswirtschaftsprofessor Dr. Tobias Börger, Hochschule für Wirtschaft und Recht Berlin (HWR Berlin), den ökonomischen Stellenwert von Erholung in und an Gewässern in Europa ermittelt. Die EU-finanzierte Studie zum Forschungsprojekt unter dem Titel „Blue Health“ wird am 1. März 2021 im Fachjournal “Science of the Total Environment” veröffentlicht.

Auf Basis der Antworten von mehr als 10 000 Erholungssuchenden in 14 Ländern der Europäischen Union im Rahmen von Urlaubsaufenthalten, Tagesausflügen und Spaziergängen am Wasser. „Innerhalb der EU beläuft sich der Erholungswert auf über 800 Milliarden Euro pro Jahr. Dies zeigt den enormen Stellenwert von Gewässern für Erholung und Gesundheit“, sagt Tobias Börger. „Die Covid-19-Krise hat uns gezeigt, wie wichtig ökologisch intakte Gewässer und Grünflächen für das physische und psychische Wohlbefinden von Menschen sind. Unsere Forschung belegt, dass es von großer volkswirtschaftlicher Relevanz ist, unbedingt hohe Standards in der Wasserqualität anzustreben und zu halten, vor allem, wenn Reisebeschränkungen zur Verhinderung der Ausbreitung der Pandemie langsam heruntergefahren werden“, so der Experte für Umwelt-, Energie- und Ressourcenökonomik an der HWR Berlin.

Einer EU-Richtlinie folgend, müssen an den über 15 000 Küsten- und fast 7 000 Binnengewässern in der Europäischen Union gut sichtbar Hinweisschilder angebracht sein, die über die Wasserqualität der letzten vier Jahre informieren. Demnach erfüllen 95 Prozent der Wasserflächen in den Mitgliedsstaaten die festgelegten Mindeststandards und sind zum Baden freigegeben. Bei 85 Prozent wird die Wasserqualität sogar als ausgezeichnet eingestuft.

Prof. Danny Campbell von der Universität Stirling in Großbritannien und Co-Autor der Studie sagt: „Unsere empirische Untersuchung hat ergeben, dass die Beschaffenheit der Wasserqualität für die Menschen bei der Entscheidung über die Nutzung von Gewässern als Erholungsorte sehr wohl von Bedeutung ist. Gleichzeitig sehen wir aber auch, dass das Haushaltseinkommen und das Bildungsniveau keine Rolle spielen. Alle Bevölkerungsgruppen verbringen Freizeit an Seen und Küsten und profitieren in Bezug auf ihre Gesundheit und ihr Wohlbefinden.“

Die Ergebnisse des „Blue Health“-Projekts reihen sich ein in die zahlreicher werdende Forschung zur Bedeutung von Binnen- und Küstengewässern für die Gesundheit der Menschen in Europa. „Wasserflächen nützen der Bevölkerung auf unterschiedliche Art“, unterstreicht Co-Autor Dr. Mathew White von der Universität Exeter. „Diese Erholungsorte regen zu Sport und Bewegung an, tragen bei zum Stressabbau und zur Entspannung, und sie sind wichtig für die Menschen, um mit Familie und Freunden sinnvoll Zeit zu verbringen. All das wirkt sich förderlich auf Psyche und Körper aus“, sagt der britische Wissenschaftler und verweist darauf, dass gute Wasserqualität der Schlüssel sei, um Menschen anzuregen, von den vielen Vorteilen Gebrauch zu machen.

Das Forscherteam will mit der Studie Planer/innen und Verantwortlichen bei nationalen und europäischen Regulierungsbehörden Fakten und Argumente an die Hand geben, um die Kosten für die Schaffung und Instandhaltung von Infrastruktur zu begründen, die zur Erhaltung einer hohen Wasserqualität an Badeorten anfallen.

Die „Blue Health“-Studie
„The value of blue-space recreation and perceived water quality across Europe: A contingent behaviour study” in „Science of the Total Environment“, Elsevier, 2021

Authors: Tobias Börger (a,b)*, Danny Campbell (b), Mathew P. Whitec (d), Lewis R. Elliott (d), Lora E. Fleming (d), Joanne K. Garrett (d), Caroline Hattam (e), Stephen Hynes (f), Tuija Lankia (g), Tim Taylor (d)

(a) Department of Business and Economics, Berlin School of Economics and Law, Germany
(b) Applied Choice Research Group, University of Stirling Management School, United Kingdom
(c) Cognitive Science Hub, University of Vienna, Austria
(d) European Centre for Environment and Human Health, University of Exeter Medical School, United Kingdom
(e) ICF, Plymouth, United Kingdom
(f) Socio-Economic Marine Research Unit, Whitaker Institute, National University of Ireland, Galway, Ireland
(g) Natural Resources Institute Finland (LUKE), Finland

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht (HWR) Berlin ist mit über 11 500 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in über 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutenden und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
http://www.hwr-berlin.de

About the University of Exeter Medical School
The University of Exeter Medical School is part of the University of Exeter’s College of Medicine and Health. Our mission is to improve the health of the South West and beyond, through the development of high quality graduates and world-leading research that has international impact. As part of a Russell Group university, we combine this world-class research with very high levels of student satisfaction. Exeter has over 19,000 students and is ranked 12th in The Times and Sunday Times Good University Guide 2020. The University of Exeter Medical School’s Medicine course is in the top 10 in the Complete University Guide 2020.
The College’s Medical Imaging programme is ranked in the top 5 in the Guardian Guide 2020 and the Complete University Guide 2020. The University of Exeter entered the world top 20 for Biomedical and Health Sciences in the CWTS Leiden Ranking 2019, based on the percentage of publications ranked in the top 10 per cent most cited.
https://medicine.exeter.ac.uk/

University of Stirling
The University of Stirling is ranked fifth in Scotland and 40th in the UK for research intensity in the 2014 Research Excellence Framework. Stirling is committed to providing education with a purpose and carrying out research which has a positive impact on communities across the globe – addressing real issues, providing solutions and helping to shape society. Interdisciplinary in its approach, Stirling’s research informs its teaching curriculum and facilitates opportunities for knowledge exchange and collaboration between staff, students, industry partners and the wider community. The University’s scenic central Scotland campus – complete with a loch, castle and golf course – is home to more than 14,000 students and 1500 staff representing around 120 nationalities. This includes an ever-expanding base for postgraduate study. The University received a Queen’s Anniversary Prize in the latest round of awards, in recognition of the quality and innovation exhibited by its Institute of Aquaculture. The University is the UK Sports University of the Year 2020, as conferred by The Times / Sunday Times Good University Guide.
http://www.stir.ac.uk @stiruni

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tobias Börger
E: tobias.boerger@hwr-berlin.de
T: +49 (0)30 30877- 1482

(nach oben)


Neue Studie zeigt: Mehr Müll durch COVID-19 Pandemie

Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg
Derzeit begegnen uns volle Mülleimer in Parks oder volle Altpapier-Container in der Nachbarschaft. Das subjektive Gefühl, mehr Müll als vor der Pandemie zu produzieren, wurde jetzt von einer internationalen Studie bestätigt, an der insgesamt 23 Länder beteiligt waren. Sie zeigt: Die Gewohnheiten von Verbrauchern haben sich während der Pandemie verändert. Die internationale Studie koordinierte Prof. Dr. Dr. Walter Leal, Leiter des Forschungs- und Transferzentrum „Nachhaltigkeit und Klimafolgenmanagement“ an der HAW Hamburg. Die Analyse wurde zudem gerade in der Fachzeitschrift „Science of the Total Environment“ publiziert.

„Die internationale Studie analysiert den Konsumverbrauch und das Abfallaufkommen seit der COVID-19-Pandemie“, sagt Koordinator Prof. Walter Leal, Leiter des Forschungs- und Transferzentrum „Nachhaltigkeit und Klimafolgenmanagement“ an der HAW Hamburg. Die Lockdowns führten insgesamt zu einem höheren Konsum von verpackten Produkten und von Essen zum Mitnehmen. So gaben 45 bis 48 Prozent der Befragten aus 23 Ländern an, einen erhöhten Konsum von verpackten Lebensmitteln, frischen Lebensmitteln und Lebensmittellieferungen zu haben. „Die Pandemie verursacht also deutliche Änderungen im Verhalten der Verbraucher“, so Prof. Leal.

Einer der Hauptgründe für das erhöhte Abfallaufkommen während der Abriegelung, das in Deutschland normalerweise im Durschnitt 457 Kilogramm pro Kopf beträgt, sei die Tatsache, dass die Menschen mehr Zeit zu Hause verbringen. Außerdem wurden Steigerungen von 43 und 53 Prozent bei Lebensmittelabfällen und Plastikverpackungen verzeichnet. Anhand von Vergleichen über die Menge an Hausmüll, die vor und während der Pandemie produziert wurde, legen die Ergebnisse nahe, dass spezifische Arten von Siedlungsabfällen zugenommen haben. „Das übt einen zusätzlichen Druck auf die Abfallwirtschaftssysteme aus und sei ein indirekter Effekt der COVID-19-Pandemie“, erklärt Prof. Leal.

Die Ergebnisse der Studie können Stadtverwaltungen und Stadtwerken nützliche Erkenntnisse über Verbrauchsmuster in Notfallsituationen liefern. „Dadurch können schneller systemische und strategische Maßnahmen ergriffen werden, um die Auswirkungen zukünftiger Pandemien besser einzuschätzen und einzudämmen“, sagt Studien-Koordinator Prof. Leal.

An der Untersuchung hatten sich folgende Länder beteiligt: Portugal, Italien, Deutschland, Brasilien, Estland, USA, Australien, Kanada, Singapur, England, Dänemark, Spanien, Polen, Finnland, Bangladesch, Argentinien, Chile, Irland, Neuseeland, Japan, Malaysia, Indonesien und Vietnam.

Wissenschaftliche Ansprechpartner:
HAW Hamburg
Fakultät Life Sciences
Prof. Dr. Dr. Walter Leal
Leiter des Forschungs- und Transferzentrum „Nachhaltigkeit und Klimafolgenmanagement“ (FZ-NK)
T +49 40 428 75-6313
walter.leal2@haw-hamburg.de

Originalpublikation:
http://www.sciencedirect.com/science/article/pii/S0048969721010640?via%3Dihub

(nach oben)


Eine “Modell-Botschaft” für die Ostsee: die weitere Umsetzung von Nährstoff-Reduktionen wird am Ende erfolgreich sein

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Ein Team von Klimamodellierern untersuchte mit einem umfangreichen Modell -Ensemble die Auswirkungen des Klimawandels auf die „toten Zonen“ der Ostsee. Sie zeigten, dass eine Verkleinerung der Gebiete bei konsequenter Reduktion von Nährstoffeinleitungen bis zum Jahr 2100 erreicht werden kann – trotz des Klimawandels. Bis dahin liegen jedoch die simulierten Veränderungen noch im Schwankungsbereich der natürlichen Variabilität, die – auch dies zeigten die Autoren – vorerst die größte Unsicherheit von Zukunftsszenarien darstellt. Für einzelne Ostseeregionen ermittelten sie eine frühere Sichtbarkeit von Veränderungen als in anderen. Sie empfehlen, dort die Beobachtungen zu intensivieren.

Die Ostsee weist weltweit das größte Areal an Sauerstoff-verarmtem Bodenwasser auf, gefolgt vom nördlichen Golf von Mexiko, dem nordwestlichen Schwarzen Meer und dem Ostchinesischen Meer. Diese “toten Zonen” werden allgemein als Folge eines Überschusses an Nährstoffen im System gesehen. Seit Jahrzehnten wird deshalb in einigen dieser unter Sauerstoffnot leidenden Gebieten versucht, durch die Reduktion von Einleitungen Verbesserungen zu schaffen, so geschehen in der Ostsee, im Golf von Mexiko und der Chesapeake Bay. Im Falle der Ostsee sind dies Maßnahmen im Rahmen des Ostseeaktionsplans.
All diesen Programmen war gemein, dass sie die Auswirkungen des Klimawandels auf die Überdüngung nicht mitbedacht hatten. Als jedoch versucht wurde, mit Hilfe von regionalen Klimamodellen die Folgen des Klimawandels für die Überdüngung und die Ausbreitung der toten Zonen zu simulieren, um auf diesem Wege die Reduktionsmaßnahmen anzupassen, musste man feststellen, dass die Modellergebnisse stark von einander abwichen und nicht direkt zu brauchbaren Empfehlungen kamen. Diese Streuung der Resultate basiert im Wesentlichen auf vier Unsicherheiten: 1) der natürlichen Variabilität, 2) den Unterschieden in den Modellen, 3) der Richtigkeit der Annahmen zukünftigen Treibhausgas-Konzentrationspfaden – den so genannten RCPs (representative concentration pathways) und 4) der Richtigkeit der Annahmen zukünftiger sozioökonomischer Entwicklungen, ausgedrückt durch die so genannten SSPs – die shared socioeconomic pathways. Sie beinhalten für die Ostsee unter anderem Annahmen zu unterschiedlichen Nährstoff-Einleitungen. Daneben existierte die generelle Schwäche, dass zu wenige Modelle miteinander verglichen wurden. Frühere Ensemble Simulationen bestanden aufgrund begrenzter Rechenkapazitäten meist aus weniger als 10 Mitgliedern.
In einem in dieser Woche in dem renommierten Fachjournal Communications Earth & Environment veröffentlichten Bericht analysierten deutsche und schwedische Klimamodellierer um den Physiker Markus Meier vom Leibniz-Institut für Ostseeforschung Warnemünde mithilfe statistischer Methoden, angewandt an einer großen Anzahl unterschiedlicher Modellszenarien (48), welche Unsicherheiten die Hauptverantwortung für diese Streuung haben.
Ihr Ziel war es, Entscheider, wie – im Falle der Ostsee – die Helsinki-Kommission (HELCOM), bei ihrer Aufgabe zu unterstützen, an den Klimawandel angepasste Maßnahmen zur Reduktion von Nährstoffeinleitungen zu definieren. Im Vordergrund stand dabei die Frage, wann man erkennen kann, ob umweltpolitische Maßnahmen auch wirklich greifen und ob der Klimawandel diese Sichtbarkeit verzögern wird.
„Die gute Nachricht ist: die geplanten Maßnahmen werden greifen“, resümiert Markus Meier. „Aber bedingt auch durch den Klimawandel wird es vermutlich noch mehrere Jahrzehnte dauern, bis ein statistisch abgesicherter Trend für die „toten Zonen“ der Ostsee gegenüber dem Flickflack der natürlichen Variabilität zu erkennen ist.“ In der Klimaforschung wird dieser Zeitpunkt „Time of Emergence“ genannt. Markus Meier und seine Kollegen konnten zeigen, dass dieser „Zeitpunkt der Sichtbarkeit“ für die unterschiedlichen Umweltvariablen und unterschiedlichen Regionen der Ostsee anders ausfällt. So wird sich im nordwestlichen Gotlandbecken vermutlich bereits in den nächsten Jahren erkennen lassen, ob die Maßnahmen des Ostseeaktionsplanes zu höheren Sauerstoffwerte am Boden führen. Markus Meier: „Unsere Ergebnisse weisen Gebiete aus, in denen der „Zeitpunkt der Sichtbarkeit“ von Veränderungen früher eintreten wird als anderswo. Wir empfehlen, diese Orte in Zukunft besonders gut zu beobachten.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Meier, Department of Physical Oceanography, Leibniz Institute for Baltic Sea Research Warnemünde, phone: +49 381 5197 150 | markus.meier@io-warnemuende.de

Originalpublikation:
Markus Meier, H.E., Dieterich, C. & Gröger, M. Natural variability is a large source of uncertainty in future projections of hypoxia in the Baltic Sea. Commun Earth Environ 2, 50 (2021). https://doi.org/10.1038/s43247-021-00115-9

(nach oben)


Die Weltmeere sickern tiefer in die Erde als erwartet

Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
Die Weltmeere sickern tiefer und in größerem Umfang in den Erdmantel als gedacht. Das zeigt eine Untersuchung des wasserhaltigen Minerals Glaukophan, das in der ozeanischen Kruste weit verbreitet ist. Hochdruckexperimenten an DESYs Röntgenlichtquelle PETRA III zufolge ist Glaukophan überraschend stabil und kann Wasser bis in Tiefen von bis zu 240 Kilometer befördern.

Ursache für die unerwartete Stabilität des Minerals ist die allmähliche Abkühlung des Erdinneren, die sich über geologische Zeiträume vollzieht. Durch die gesunkenen Temperaturen können Glaukophan und vermutlich auch andere wasserhaltige Minerale demnach höheren Drücken in größeren Tiefen widerstehen, wie ein internationales Forschungsteam unter der Leitung von Yongjae Lee von der Yonsei-Universität in Südkorea im Fachblatt „Nature Communications“ berichtet. Die Forscherinnen und Forscher schätzen, dass dadurch in rund 200 Millionen Jahren zusätzlich etwa das Volumen des Arktischen Ozeans in diese Tiefen des Erdmantels sickert.

„Unter dem Ozean existieren sogenannte Subduktionszonen mit einer Gesamtlänge von rund 55 000 Kilometern, also deutlich länger als der Erdumfang, wo Platten der Erdkruste und des oberen Mantels in das Innere unseres Planeten abtauchen“, erläutert Lee. „Jedes Jahr befördern diese Platten rund eine Billion Liter Ozeanwasser in Form wasserhaltiger Minerale wie Amphibole in die Tiefe. Allerdings können diese Minerale normalerweise Temperatur und Druck nicht bis zu größeren Tiefen als etwa 100 Kilometer widerstehen.“ Wenn Amphibole wie Glaukophan zerbrechen, wird ihr Wasser freigesetzt und treibt Erdbeben in den Subduktionsplatten und Vulkanismus im darüber liegenden Erdmantel an. Dadurch gelangt das Wasser über kurz oder lang wieder an die Oberfläche.

Das Erdinnere kühlt sich gegenwärtig jedoch um etwa 50 bis 100 Grad Celsius pro einer Milliarde Jahre ab, und diese Abkühlung beschleunigt sich. Dadurch haben sich in der jüngeren Erdgeschichte vielerorts „kalte“ Subduktionszonen gebildet, in denen es zwar immer noch glühend heiß ist, aber merklich kühler als in den üblichen „heißen“ Subduktionszonen und auch kühler als in der erdgeschichtlichen Vergangenheit. „Mit Hochdruck- und Hochtemperatur-Ausrüstung haben wir die heutigen Bedingungen in den kalten Subduktionszonen im Labor simuliert und das Verhalten von Glaukophan dabei untersucht“, erläutert Ko-Autor Hanns-Peter Liermann, Leiter der Messstation für Extrembedingungen P02.2 an DESYs Röntgenquelle PETRA III. „Zu unserer Überraschung bleibt Glaukophan in kalten Subduktionszonen bei Bedingungen stabil, die einer deutlich größeren Tiefe von bis zu 240 Kilometern entsprechen.“

Frühere Schätzungen nahmen an, dass rund ein Drittel des Wassers in Subduktionsplatten in diese Tiefen im Erdmantel befördert wird. Dabei ist nicht klar, ob und wie es von dort wieder an die Oberfläche gelangen kann. „Wenn wir annehmen, dass alle Subduktionszonen früher oder später zu ‚kühlen‘ werden, könnte in 200 Millionen Jahren das Volumen des Arktischen Ozeans zusätzlich im Erdmantel gespeichert werden“, rechnet Yoonah Bang vor, Hauptautorin der Studie von der Yonsei-Universität. „Es würde allerdings fünf Milliarden Jahre dauern, bis die Ozeane auf diese Weise komplett ausgetrocknet wären.“ Da unsere Sonne in Zukunft langsam immer heißer werden wird, werden die Ozeane Schätzungen zufolge bereits in rund einer Milliarde Jahre verdampfen. „Es scheint, dass die Erde einen Teil ihres Oberflächenwassers in ihrem Inneren speichern und damit vor dem Verlust ins Weltall bewahren könnte“, ergänzt Lee.

Die Untersuchung hat weitere Implikationen für die Entwicklung der Erde: Da unterirdisches Wasser in geringeren Tiefen ein wesentlicher Treiber für Vulkanismus und Erdbeben ist, werden diese Phänomene auf geologischen Zeitskalen immer seltener, wie Lee betont: „Da sich die Erde immer weiter abkühlt, ist zu erwarten, dass sich der Wassertransport ins Erdinnere auf größere Tiefen ausdehnt und dadurch Erdbeben und Vulkanismus unterdrückt werden.“

Forscherinnen und Forscher der Yonsei-Universität und der Nationaluniversität Seoul in Südkorea, vom Lawrence-Livermore-Labor, dem Argonne-Labor und der Universität Chicago in den USA, vom Zentrum für Hochdruck-Forschung und -Technologie in China, der Ehime-Universität in Japan und von DESY haben zu dieser Arbeit beigetragen. Die Studie ist Teil des „Early Science“-Programms am Zentrum für Molekulare Wasserforschung CMWS, das zurzeit bei DESY aufgebaut wird, und verbunden mit einem Langzeitprojekt von Yongjae Lee an der Messstation für Extrembedingungen P02.2 an PETRA III.

DESY zählt zu den weltweit führenden Teilchenbeschleuniger-Zentren und erforscht die Struktur und Funktion von Materie – vom Wechselspiel kleinster Elementarteilchen, dem Verhalten neuartiger Nanowerkstoffe und lebenswichtiger Biomoleküle bis hin zu den großen Rätseln des Universums. Die Teilchenbeschleuniger und die Nachweisinstrumente, die DESY an seinen Standorten in Hamburg und Zeuthen entwickelt und baut, sind einzigartige Werkzeuge für die Forschung: Sie erzeugen das stärkste Röntgenlicht der Welt, bringen Teilchen auf Rekordenergien und öffnen neue Fenster ins Universum. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.

Wissenschaftliche Ansprechpartner:
Dr. Hanns-Peter Liermann, DESY, +49 40 8998-95722, hanns-peter.liermann@desy.de
Prof. Yongjae Lee,Yonsei-Universität, yongjaelee@yonsei.ac.kr

Originalpublikation:
Originalveröffentlichung:
„The stability of subducted glaucophane with the Earth’s secular cooling“; Yoonah Bang, Huijeong Hwang, Taehyun Kim, Hyunchae Cynn, Yong Park, Haemyeong Jung, Changyong Park, Dmitry Popov, Vitali B. Prakapenka, Lin Wang, Hanns-Peter Liermann, Tetsuo Irifune, Ho-Kwang Mao and Yongjae Lee; „Nature Communications“, 2021; DOI: https://dx.doi.org/10.1038/s41467-021-21746-8

Weitere Informationen:
https://www.desy.de/aktuelles/news_suche/index_ger.html?openDirectAnchor=2034&am… – Pressemitteilung im Netz

(nach oben)


Virus-Varianten in der Pandemie schneller aufspüren

Nathalie Matter Media Relations, Universität Bern
Universität Bern
Forschende weltweit fordern eine bessere Integration von Virusgenetik, Bioinformatik und Gesundheitswesen, um Pandemien besser zu bekämpfen zu können. Zu den Vorteilen aus Schweizer Sicht äussern sich in der Fachzeitschrift Nature Emma Hodcroft der Universität Bern und vom SIB Swiss Institute of Bioinformatics, und Christophe Dessimoz von der Universität Lausanne und vom SIB.

«Was Forschende in einem Jahr seit der Entdeckung eines brandneuen Virus erreicht haben, ist wirklich bemerkenswert», sagt Emma Hodcroft vom Institut für Sozial- und Präventivmedizin (ISPM) der Universität Bern, Erstautorin des Kommentars. «Aber die Werkzeuge, die Forschende einsetzen um zu untersuchen, wie SARS-CoV-2 sich entwickelt und ausbreitet, waren nie für die einzigartigen Belastungen oder Datenmengen dieser Pandemie ausgelegt.»

SARS-CoV-2 ist heute einer der am meisten sequenzierten Erreger aller Zeiten, mit über 600’000 Vollgenom-Sequenzen, die seit Beginn der Pandemie generiert wurden, und über 5’000 neuen Sequenzen, die jeden Tag aus der ganzen Welt eintreffen. Die heute verwendeten Analyse- und Visualisierungstools (einschliesslich Nextstrain, das von Richard Nehers Gruppe am SIB und der Universität Basel mitentwickelt wurde) waren jedoch nie für die Menge und Geschwindigkeit der heute generierten Sequenzen vorgesehen – ebensowenig, dass sie in einem solchen Ausmass für Massnahmen des öffentlichen Gesundheitswesens herangezogen werden. «Überall auf der Welt beruht die genomische Überwachung auf der Initiative von Forschenden, um wesentliche Antworten zu finden. Die Entscheidungsfindung im Gesundheitswesen würde von einem nachhaltigeren Rahmen für die Zusammenarbeit profitieren», sagt Christophe Dessimoz vom SIB und der Universität Lausanne.

Was eine verbesserte Sequenzierung ermöglichen würde
Die genetischen Sequenzen von SARS-CoV-2 enthalten wertvolle Informationen, um effektive Pandemiemassnahmen umzusetzen und dem Virus einen Schritt voraus zu bleiben. Mutationen in verschiedene Probe zu vergleichen, ermöglicht es Forschenden zum Beispiel, die Übertragung des Virus zu verfolgen – und hilft dabei, Super-Spreading-Ereignisse und die internationale Ausbreitung zu identifizieren. Im Moment ist es jedoch schwierig, diese genetischen Informationen mit anderen Schlüsselvariablen zu kombinieren – etwa wer an einem Ereignis teilgenommen hat und wann die Symptome aufgetreten sind – was dazu beitragen könnte, diese Methoden noch aussagekräftiger zu machen.

Der «R-Wert» hat sich im letzten Jahr von einem wissenschaftlichen Konzept zu einem Alltagsbegriff entwickelt – er misst die durchschnittliche Anzahl Personen, die eine infizierte Person ansteckt. Auch hier können Sequenzierungen helfen, importierte Fälle von lokalen Übertragungen zu unterscheiden. Dies ermöglicht eine genauere Schätzung, erfordert aber ein hohes Mass an Sequenzierungen und komplexe Analysen, die derzeit nicht in grossem Umfang durchgeführt werden.

Letztlich ist die Sequenzierung die einzige Möglichkeit, die vielen Mutationen, die bei SARS-CoV-2 auftreten, zu identifizieren und zu verfolgen. Während Mutationen zum Virus gehören, müssen die Forschenden wissen, welche Variationen harmlos sind und welche die Übertragbarkeit des Virus oder den klinischen Verlauf verändern könnten. Die Kombination von Sequenzierung, Laborarbeit und computergestützten Vorhersagen könnte ein besseres Verständnis der Auswirkungen von Mutationen ermöglichen, aber es gibt kaum einen Rahmen, der die Zusammenarbeit dieser verschiedenen Fachgebiete unterstützt. «Die Daten zum Virus – Sequenzen und zugehörige Metadaten – müssen dank stabiler Infrastrukturen, die mit den Prinzipien von Open Data kompatibel sind, ermittelt, gesammelt und harmonisiert werden, um den wissenschaftlichen Austausch zu erleichtern», sagt Christophe Dessimoz von der Universität Lausanne und SIB, Letztautor des Kommentars.

Vorteile für die Schweiz
«In der Schweiz könnte die Bevölkerung von einer systematischeren und repräsentativeren Sequenzierung profitieren, zum Beispiel durch besseres Contact Tracing, gezielte Isolierung und Quarantäne von kleineren Regionen, und der Steuerung Schulschliessunge und -öffnungen basierend auf dem Auftreten bestimmter Varianten», erklärt Emma Hodcroft. Auch die Harmonisierung von Gesundheitsdaten ist ein kritisches Thema. Die Schweiz unternimmt bereits viele Anstrengungen auf nationaler Ebene durch das Swiss Personalized Health Network (SPHN).

Die Forschenden sind überzeugt, dass das Potenzial der Schweiz in Bezug auf Expertise und Infrastruktur nur darauf wartet, zum Wohle der öffentlichen Gesundheit genutzt zu werden. «Die Tools sind vorhanden, die Forschenden haben sich selbst organisiert und den ersten Schritt getan – aber um diese Bemühungen aufrecht zu erhalten und Forschung und Gesundheitswesen zusammenzubringen, sind wir auf eine nachhaltige öffentliche Finanzierung angewiesen», sagt Christophe Dessimoz.

Institut für Sozial- und Präventivmedizin (ISPM) der Universität Bern
Das Institut für Sozial- und Präventivmedizin (ISPM) bietet eine Ausbildung auf Bachelor- und Masterstufe an und betreibt interdisziplinäre Forschung auf den Gebieten der sozialen und verhaltensbezogenen Gesundheit, der klinischen Epidemiologie und Biostatistik sowie der internationalen und umweltbezogenen Gesundheit. Es bietet auch ein breites Spektrum an Ausbildungen auf Doktorandenstufe, um Studierende zu herausragenden Public-Health-Forschenden auszubilden. In diesem Jahr feiert das ISPM sein 50-jähriges Bestehen.

Swiss Institute of Bioinformatics
Das SIB Swiss Institute of Bioinformatics ist eine international anerkannte Non-Profit-Organisation, die sich der biologischen und biomedizinischen Datenwissenschaft widmet. Die Forschenden arbeiten mit Leidenschaft an der Erschliessung von Wissen und der Lösung komplexer Fragen in vielen Bereichen, von Biodiversität und Evolution bis hin zur Medizin. Sie stellen wesentliche Datenbanken und Software-Plattformen sowie bioinformatische Expertise und Dienstleistungen für akademische, klinische und industrielle Gruppen zur Verfügung. Das SIB vereint die Gemeinschaft der Schweizer Bioinformatik von rund 800 Wissenschaftlerinnen und Wissenschaftlern und fördert die Zusammenarbeit und den Wissensaustausch.

Das Institut trägt dazu bei, die Schweiz an der Spitze der Innovation zu halten, indem es den Fortschritt in der biologischen Forschung fördert und die Gesundheit verbessert.

Datenwissenschaftler für das Leben
http://www.sib.swiss

Wissenschaftliche Ansprechpartner:
Emma Hodcroft, PhD Institut für Sozial- und Präventivmedizin (ISPM), Universität Bern Telefon: +41 31 631 56 97 / emma.hodcroft@ispm.unibe.ch

Prof. Christophe Dessimoz SIB Swiss Institute of Bioinformatics und Universität Lausanne Telefon: +41 79 537 92 77 / christophe.dessimoz@unil.ch

Originalpublikation:
Emma B. Hodcroft, Nicola De Maio, Rob Lanfear, Duncan R. MacCannell, Bui Quang Minh, Heiko A. Schmidt, Alexandros Stamatakis, Nick Goldman & Christophe Dessimoz: Want to track pandemic variants faster? Fix the bioinformatics bottleneck. Nature Comment, 1 March 2021, doi: https://doi.org/10.1038/d41586-021-00525-x

Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2021/medi…

Anhang
Medienmitteilung UniBE

(nach oben)


Energiewende der Schweiz

Dr. Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
Kann die Schweiz ihre Kohlendioxid-Emissionen wie geplant bis im Jahr 2050 auf null senken? Forschende des Paul Scherrer Instituts PSI haben in einer Studie untersucht, welche Massnahmen dafür notwendig wären und wie viel das pro Kopf kosten könnte.

Der Schweizer Bundesrat hat im August 2019 ein ehrgeiziges Ziel zur Begrenzung des Klimawandels beschlossen: Ab dem Jahr 2050 soll die Schweiz unter dem Strich keine Treibhausgasemissionen mehr ausstossen. Damit entspricht die Schweiz dem international vereinbarten Ziel, die globale Klimaerwärmung auf maximal 1,5 °C gegenüber der vorindustriellen Zeit zu begrenzen.

Welche Möglichkeiten zur Erreichung dieses Zieles im Energiesektor bestehen, lotet nun eine Studie des Paul Scherrer Instituts aus, die im Rahmen der Joint Activity «Scenarios and Modelling» der 8 Swiss Competence Centers for Energy Research (SCCER) durchgeführt wurde.

«Das Ziel, im Jahr 2050 Netto-Null-Kohlendioxid-Emissionen zu erreichen, erfordert einschneidende Transformationen bei der Bereitstellung und dem Verbrauch von Energie in beinahe allen Bereichen», fasst Tom Kober, Leiter der PSI-Forschungsgruppe Energiewirtschaft und einer der Hauptautoren der Studie, zusammen.

Bei ihren Analysen berücksichtigten die Forscher energiebedingte Kohlendioxid-Emissionen sowie Kohlendioxid-Emissionen aus industriellen Prozessen. Diese Emissionen stellen heute etwa 80 % des gesamten Schweizer Treibhausgasinventars dar. Nicht in die Berechnungen flossen ein: Emissionen aus dem internationalen Luftverkehr, der Landwirtschaft – mit Ausnahme der Emissionen aus der Kraftstoffverbrennung –, der Landnutzung, Landnutzungsänderung und Forstwirtschaft sowie Abfall – ausser Emissionen aus der Abfallverbrennung. Auch waren die Emissionen im Ausland, die im Zusammenhang mit dem Güterkonsum in der Schweiz stehen, nicht Gegenstand der Untersuchung.

Strom aus Photovoltaik muss sich mindestens jedes Jahrzehnt verdoppeln
Zentrale Schlussfolgerungen der Studie sind: Die installierte Kapazität von Photovoltaikanlagen muss sich mindestens jedes Jahrzehnt bis 2050 verdoppeln, sodass sich Photovoltaikanlagen mit 26 Terawattstunden Produktion im Jahr 2050 neben der Wasserkraft (circa 38 Terawattstunden im Jahr 2050) zur zweitgrössten Technologiegruppe entwickeln. Weiterhin tragen Kraftwerke mit Kraft-Wärme-Kopplung sowie Windkraftwerke, Wasserstoff-Brennstoffzellen und Stromimporte dazu bei, die Stromnachfrage zu decken. Im Hauptszenario zur Erreichung des Netto-Null-Emissionsziels steigt insgesamt die Stromerzeugung aus Kraftwerken und Speicheranlagen in der Schweiz gegenüber dem gegenwärtigen Niveau um etwa ein Fünftel auf 83 Terawattstunden im Jahr 2050 an. Die Studie unterstellt, dass die Schweizer Kernkraftwerke bis zum Jahr 2045 ausser Betrieb genommen werden. Die private Autoflotte müsste bis 2050 grösstenteils auf elektrischen Antrieben basieren. Bis 2030 müsste demnach jede dritte Neuzulassung ein vollständig elektrisch betriebenes Auto sein. Zusätzlich müsste der Einsatz von Wärmepumpen im Dienstleistungs- und Wohnbereich deutlich beschleunigt werden, sodass bis 2050 fast drei Viertel des Heizungs-und Warmwasserbedarfs dadurch gedeckt werden. Gleichzeitig wäre es notwendig, deutliche Energieeinsparungen durch beschleunigte Renovierungen von Wohngebäuden zu erzielen.

Will die Schweiz das Netto-Null-Emissionsziel erreichen, muss mit einem deutlichen Anstieg des Stromverbrauchs gerechnet werden. So könnte im Jahr 2050 der Stromverbrauch um 20 Terawattstunden über dem heutigen Niveau liegen. Ein wesentlicher Treiber für dieses Wachstum ist die Verwendung von Strom für den Antrieb von Autos, Bussen und Lastkraftwagen, entweder direkt über batterieelektrische Fahrzeuge oder indirekt über Wasserstoff oder sogenannte E-Fuels, also synthetische Kraftstoffe, die unter anderem mittels Strom aus Wasserstoff und Kohlendioxid (CO2) hergestellt werden. In den stationären Sektoren wird Strom zunehmend durch die vermehrt eingesetzten Wärmepumpen verbraucht werden. Dieser erhöhte Stromverbrauch kann allerdings kompensiert werden, wenn die notwendigen Effizienzgewinne bei Heizung und Warmwasserbereitstellung erreicht werden. Dann könnten die stationären Sektoren einen nahezu gleichbleibenden Stromverbrauch erzielen.

Neben elektrischer Energie werden weitere Energieformen eine Rolle spielen. So bieten beispielsweise der Fern- und Güterverkehr sowie die energieintensive Industrie Perspektiven für neue Wasserstoffanwendungen. Um den dafür benötigten Wasserstoff emissionsarm oder -frei zu produzieren, wäre eine erhebliche Menge an nachhaltig erzeugtem Strom (9 Terawattstunden in 2050) notwendig.

Ohne CO2-Abscheidung wird es wohl nicht gehen
«Wenn die Schweiz das Null-Emissions-Ziel bis 2050 erreichen will, dann müssen die CO2-Emissionen in Zukunft im Durchschnitt jedes Jahr um eine bis anderthalb Millionen Tonnen gegenüber dem Vorjahr verringert werden», sagt Evangelos Panos, Hauptautor der Studie. «Veränderungen der CO2-Emissionen in dieser Grössenordnung haben wir im Zeitraum 1950 bis 1980 gesehen – allerdings in die umgekehrte Richtung – damals haben sie massiv zugenommen.» Um die Emissionsminderung kostengünstig umzusetzen, sollte deshalb auch der Einsatz von Technologien mit der sogenannten CO2-Abscheidung in Betracht gezogen werden. So könne man sogar in Teilbereichen auf eine negative Bilanz beim CO2-Ausstoss kommen. Das sei beispielsweise dann der Fall, wenn man Biomasse als Energieträger nutze und bei der Energiegewinnung entstehendes CO2 nicht emittiere, sondern abfange und unterirdisch speichere. Falls das in der Schweiz nicht möglich sei – beispielsweise aufgrund der Ablehnung durch die Bevölkerung oder aufgrund begrenzter CO2 Speicherstätten –, könne die internationale Vernetzung und die Speicherung im Ausland einen Ausweg bieten. Insgesamt gehen die Forschenden in ihrer Studie für das Jahr 2050 von knapp 9 Millionen Tonnen CO2 aus, die in der Schweiz abgetrennt würden.

«Mehr als zwei Drittel der für das Netto-Null-Emissionsziel notwendigen Emissionsreduktionen sind mit Technologien erreichbar, die bereits kommerziell verfügbar sind oder sich in der Demonstrationsphase befinden», resümiert Panos. Das dekarbonisierte Energiesystem der Zukunft sei erreichbar, erfordere aber kohlenstofffreie Energieträger, zum Beispiel entsprechend erzeugten Strom, Biokraftstoffe und E-Fuels, Zugang zur entsprechenden Transport- und Verteilungsinfrastruktur sowie die Möglichkeit, saubere Brennstoffe und Elektrizität zu importieren.

Kosten sind schwer abschätzbar
In puncto Kosten geben sich die Energiesystemforscher zurückhaltend. «Die Kosten sind sehr schwer abschätzbar, weil dabei enorm viele Komponenten eine Rolle spielen», so Kober. In dem in der Studie angenommenen Netto-Null-Hauptszenario würden sich für den Zeitraum bis 2050 die durchschnittlichen diskontierten Mehrkosten des Klimaschutzszenarios gegenüber dem Referenzszenario mit moderatem Klimaschutz (-40 % CO2-Emissionen im Jahr 2050 gegenüber 1990) in der Schweiz auf etwa 330 CHF pro Person und Jahr (Basis: 2010) belaufen. Betrachtet man alle untersuchten Szenarien, so sieht man eine Bandbreite der durchschnittlichen Kosten zwischen 200 und 860 CHF pro Jahr und Kopf, was letztendlich unterschiedliche Entwicklungen der Energietechnologien, der Ressourcenverfügbarkeit, der Marktintegration, bei der Akzeptanz von Technologien und bei den Präferenzen zur Versorgungssicherheit widerspiegelt. Der Verlauf der Kosten zeigt vor allem eine langfristige Zunahme, sodass vergleichsweise hohe Kosten auch nach 2050 zu erwarten sind.

Die Studie stützt sich auf die Berechnungen mit dem Schweizer TIMES Energiesystemmodell (STEM) des PSI, welches das gesamte Energiesystem der Schweiz mit den verschiedenen Wechselwirkungen zwischen den Technologien und Sektoren abbildet. STEM verbindet einen langfristigen Zeithorizont mit einer hohen unterjährigen zeitlichen Auflösung und berechnet für verschiedene zukünftige Rahmenannahmen die kostenminimalen Konfigurationen des Energiesystems und der Erreichung verschiedener energie- und klimapolitischer Ziele. Das Modell wurde im Rahmen des Forschungsprojektes massgeblich weiterentwickelt, vor allem hinsichtlich der Optionen zur Erreichung von Netto-Null-CO2-Emissionsszenarien. Das Modell wird zur Berechnung von Szenarien eingesetzt, die keinesfalls als Vorhersagen zu verstehen sind, sondern vielmehr Einblicke in die vielfältigen Wechselwirkungen im Energiesystem geben und somit einen Beitrag zur Entscheidungsunterstützung in Politik, Industrie und der Gesellschaft leisten. Konkret wurden in dieser Studie drei Hauptszenarien untersucht, welche neben dem Referenzszenario ein Netto-Null-CO2-Emissionsminderungsszenario umfasst und ein Szenario, welches die Ziele der Schweizer Energiestrategie 2050 unterstellt, ohne explizit ein CO2-Minderungsziel vorzugeben. Zudem wurden sieben verschiedene Varianten der Hauptszenarien analysiert, wie zum Beispiel eine Variante mit hohem technologischen Innovationspotenzial und eine Variante zur Verringerung der Energieimportabhängigkeit.

An der Zusammenarbeit im Rahmen der SCCER Joint Activity Scenarios and Modelling sind neben dem PSI folgende Institutionen beteiligt: Empa, EPFL, ETH Zürich, Hochschule Luzern, Universität Basel, Universität Genf und WSL. Finanziert wurde die Studie durch Innosuisse – Swiss Innovation Agency.

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Materie und Material, Energie und Umwelt sowie Mensch und Gesundheit. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2100 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 400 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL.

Wissenschaftliche Ansprechpartner:
Dr. Tom Kober
Leiter der Gruppe Energiewirtschaft
Labor für Energiesystemanalysen
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 26 31
E-Mail: tom.kober@psi.ch [Deutsch, Englisch]

Originalpublikation:
Panos, E.; Kober, T.; Ramachandran, K.; Hirschberg, S. (2021): Long-Term Energy Transformation Pathways – Integrated Scenario Analysis with the Swiss TIMES Energy systems Model; Report of the Joint Activity Scenarios and Modelling of the Swiss Competence Centers for Energy Research. (siehe Link zur PDF-Version unter Weiterführende Informationen)

Weitere Informationen:
http://psi.ch/de/node/44193 – Darstellung der Mitteilung auf der Webseite des PSI und Bildmaterial
https://sccer-jasm.ch/JASMpapers/JASM_results_stem.pdf – Download der PDF-Version der Studie

(nach oben)


2019 gingen weniger Beschäftigte vorzeitig in Rente

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Die Zahl der Verrentungen wegen verminderter Erwerbsfähigkeit erreichte 2019 mit fast 162.000 Fällen (161.534) einen neuen Tiefstand in Deutschland. Ihre Zahl sank im Vergleich zum Vorjahr um knapp 4 Prozent (3,8 %). Dabei stehen „Psychische und Verhaltensstörungen“ mit rund 42 Prozent (41,7 %) nach wie vor an erster Stelle als Ursache für Frühverrentung. Obwohl mit 42,4 Millionen Erwerbstätigen in Deutschland ein neuer Höchststand bei der Beschäftigung erreicht wurde, sank die Zahl der meldepflichtigen Arbeitsunfälle um rund 12.000 (11.853) auf etwa 937.000 (937.456). Damit liegt die Unfallquote je 1.000 Vollarbeiter bei 21,9.

Diese und weitere Ergebnisse enthält der Bericht „Sicherheit und Gesundheit bei der Arbeit – Berichtsjahr 2019“ (SuGA), den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jährlich im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS) erstellt.

Die Zahl der Verrentungen wegen verminderter Erwerbsfähigkeit erreichte 2019 mit fast 162.000 Fällen (161.534) einen neuen Tiefstand in Deutschland. Ihre Zahl sank im Vergleich zum Vorjahr um knapp 4 Prozent (3,8 %). Dabei stehen „Psychische und Verhaltensstörungen“ mit rund 42 Prozent (41,7 %) nach wie vor an erster Stelle als Ursache für Frühverrentung. Obwohl mit 42,4 Millionen Erwerbstätigen in Deutschland ein neuer Höchststand bei der Beschäftigung erreicht wurde, sank die Zahl der meldepflichtigen Arbeitsunfälle um rund 12.000 (11.853) auf etwa 937.000 (937.456). Damit liegt die Unfallquote je 1.000 Vollarbeiter bei 21,9. Diese und weitere Ergebnisse enthält der Bericht „Sicherheit und Gesundheit bei der Arbeit – Berichtsjahr 2019“ (SuGA), den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jährlich im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS) erstellt.

Zwar weist die Statistik 2019 mit 626 tödlichen Arbeitsunfällen einen Anstieg zum Vorjahr aus. Jedoch flossen Nachmeldungen von 84 Unfällen aus den Jahren 2000 bis 2005 ein, nachdem Strafverfahren abgeschlossen waren. Damit blieb das Arbeitsunfallgeschehen auch 2019 auf einem insgesamt niedrigen Niveau mit leicht abnehmender Tendenz. Durch Arbeitsunfähigkeit fielen 2019 schätzungsweise etwa 712 Millionen Arbeitstage aus. Davon entfielen 159 Millionen Ausfalltage auf „Krankheiten des Muskel-Skelett-Systems“ (22,3 %), 117 Millionen Ausfalltage auf „Psychische und Verhaltensstörungen“ (16,5 %) und 93 Millionen Ausfalltage auf „Krankheiten des Atmungssystems“ (13,1 %). Das Arbeitsunfähigkeitsgeschehen führte insgesamt zu einem geschätzten Produktionsausfall anhand der Lohnkosten von rund 88 Milliarden Euro. Wird der Verlust an Arbeitsproduktivität berücksichtigt, gingen der deutschen Volkswirtschaft rund 149 Milliarden Euro an Bruttowertschöpfung verloren.

Auch 2019 gab es einen leichten Anstieg bei den Anzeigen auf Verdacht einer Berufskrankheit (84.853; +2,7 %). 2.581 Menschen starben als Folge einer Berufskrankheit. Fast zwei Drittel der Todesfälle lassen sich nach wie vor auf asbestbedingte Berufskrankheiten zurückführen (66,1 %).

Über das umfangreiche statistische Material hinaus ergänzen Analysen zu Arbeitsbedingungen und der Verbreitung bestimmter Arbeitsmittel und Technologien vor dem Hintergrund des digitalen Wandels den SuGA–Bericht Sicherheit und Gesundheit bei der Arbeit. Berichte zentraler Arbeitsschutzakteure, wie der Gemeinsamen Deutschen Arbeitsschutzstrategie (GDA), der Arbeitsschutzbehörden der Länder, der Unfallversicherungsträger oder der Initiative Neue Qualität der Arbeit (INQA), komplettieren den breiten Überblick über den Arbeits- und Gesundheitsschutz im coronafreien Deutschland im Jahr 2019.

„Sicherheit und Gesundheit bei der Arbeit – Berichtsjahr 2019“, Unfallverhütungsbericht Arbeit; 1. Auflage; Dortmund: Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020; 216 Seiten; ISBN 978-3-88261-736-8; doi:10.21934/baua:bericht20201215. Den Bericht gibt es im PDF-Format zum Herunterladen im Internetangebot der BAuA unter http://www.baua.de/suga.

Direkter Link: http://www.baua.de/dok/8852834

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 750 Beschäftigte.
http://www.baua.de

(nach oben)


BLUE PLANET Berlin Water Dialogues – Virtuelle Vernetzungsmöglichkeiten mit der internationalen Wasserbranche

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)
„Smart Water for Resilient Cities“ – unter diesem Dachthema geht die BLUE PLANET Berlin Water Dialogues Veranstaltungsreihe am 25. Februar 2021 in die nächste Runde. Mit Claudia Castell-Exner, Präsidentin der europäischen Vereinigung der nationalen Verbände in der Wasserver- und Abwasserentsorgung sowie Paul Fleming, Leiter des globalen Wasserprogramms bei Microsoft Nordamerika konnten hochrangige internationale VertreterInnen für die Veranstaltung gewonnen werden.

Seit 10 Jahren ist die BLUE PLANET Berlin Water Dialogues-Konferenzreihe die Anlaufstelle für die deutsche und internationale Wasserwirtschaft, in der VertreterInnen aus Politik, Forschung und Industrie über konkrete Lösungsoptionen zu weltweiten Herausforderungen der globalen Wasserwirtschaft ins Gespräch kommen. Am 25. Februar 2021 wird die Veranstaltung erstmalig digital stattfinden. Die Ausgabe steht unter dem Motto „Smart Water for Resilient Cities“. Hochkarätige internationale VertreterInnen renommierter Unternehmen und Institutionen wie EurEau, Microsoft, Berliner Wasserbetriebe, IBM, KWR Water Research Institute, UN-Habitat’s Global Water Operators‘ Partnerships Alliance (GWOPA) sowie weiterer werden in ihren Beiträgen Wege und Möglichkeiten zu digitalen Technologien und deren Anwendung für zukunftsfähige Städte vorstellen. Themen wie Digitalisierung, Automatisierung und künstliche Intelligenz in der Wasser- und Abwasserinfrastruktur bilden dabei die Schwerpunkte der Diskussion.
Die Veranstaltung bietet in diesem Jahr ein interaktives Erlebnis der digitalen Vernetzung, mit einer Eventplattform, die ganz auf die Bedürfnisse der TeilnehmerInnen ausgerichtet ist. Einen Nachmittag lang haben Gäste die Möglichkeit, sich in Projektpräsentationen und Plenardiskussionen zu innovativen Asset-Management-Prozessen sowie nachhaltiger Wasserversorgung in Metropolen zu informieren, in digitalen Break-Out-Sessions auszutauschen und in themenfokussierten virtuellen Netzwerkräumen zu vernetzen. Auch die Verabredung zu Einzelgesprächen ist möglich.
Über 600 TeilnehmerInnen aus 30 Ländern haben sich bereits registriert. Die Veranstaltung richtet sich an ein internationales Publikum und findet auf Englisch statt. Das detaillierte Programm und die Online-Anmeldung sowie weitere Informationen erhalten Sie unter www.blueplanetberlin.de.

Über BLUE PLANET Berlin Water Dialogues
Mit den BLUE PLANET Berlin Water Dialogues hat sich in den vergangenen Jahren ein qualifiziertes englischsprachiges Forum zum Wissens-, Ideen-, Konzept- und Erfahrungsaustausch zwischen VertreterInnen aus Politik, Wasserwirtschaft, Wissenschaft und Nicht-Regierungsorganisationen etabliert. Hier werden gemeinsam globale Herausforderungen diskutiert sowie deutsche Kompetenzen und Lösungsansätze vorgestellt und mit internationalen Ansätzen abgeglichen. Der Schwerpunkt liegt darauf, Synergien im Bereich Forschung und Entwicklung zwischen Unternehmen und wissenschaftlichen Einrichtungen nachhaltig zu fördern, um praxisnahe Innovationen, etwa aus den Bereichen nachhaltige Entwicklung und künstliche Intelligenz in der Wasserwirtschaft oder Umweltschutz durch ressourceneffiziente Technologien, voranzutreiben. Die BLUE PLANET Berlin Water Dialogues 2020/2021 werden von den Berliner Beratungsunternehmen T-Base Consulting GmbH und eclareon GmbH zusammen mit dem Kompetenzzentrum Wasser Berlin und German Water Partnership e.V. organisiert.

Gefördert wird das Event durch das Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit und die Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe. Weitere Unterstützer sind die Unternehmen Wilo und KSB als Industriepartner sowie die Berliner Wasserbetriebe als fachlicher Partner.

Weitere Informationen:
https://blueplanetberlin.de/

(nach oben)


70 Prozent weniger Darmkrebs-Todesfälle nach Vorsorge-Darmspiegelung

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Um die Wirksamkeit der Vorsorge-Darmspiegelungen in Deutschland möglichst genau zu beurteilen, haben Wissenschaftler des Deutschen Krebsforschungszentrums gemeinsam mit dem Krebsregister des Saarlands über 17 Jahre hinweg mehr als 9000 Studienteilnehmer beobachtet. Das Resultat, auf das die Wissenschaftler nun anlässlich des Damkrebsmonats März hinweisen: Bei Personen, die eine Vorsorge-Darmspiegelung in Anspruch genommen hatten, traten nahezu 60 Prozent weniger Darmkrebs-Neuerkrankungen auf als bei Teilnehmern, die auf die Untersuchung verzichtet hatten. Das Risiko, an Darmkrebs zu versterben, lag in der Screening-Gruppe sogar um 70 Prozent niedriger.

Dickdarmkrebs entwickelt sich in der Regel über viele Jahre hinweg aus Vorstufen, die bei einer Darmspiegelung entdeckt und sogleich entfernt werden können. Deutschland zählt zu den Ländern, die diese Untersuchung bereits frühzeitig in das gesetzliche Krebsfrüherkennungsangebot aufgenommen haben: Seit 2002 haben Menschen ab dem 55. Lebensjahr Anspruch auf zwei so genannte Koloskopien im Abstand von zehn Jahren. Seit 2019 gibt es dieses Angebot für Männer schon ab 50 Jahren.

Inzwischen ist seit der Einführung des Koloskopie-Screenings ausreichend Zeit vergangen, um präzise zu analysieren, wie effizient dieses Vorsorge-Angebot Krebsneuerkrankungen und Krebssterblichkeit zurückdrängt. Dazu werteten die DKFZ-Epidemiologen nun die Daten von über 9000 Teilnehmern aus, die zwischen 2000 und 2002 in die ESTHER-Studie* rekrutiert worden waren. Die Studienteilnehmer wurden in regelmäßigen Abständen nach ihrem Befinden und ihrem Lebensstil gefragt, ihre Behandlungs- und Krebsregisterdaten wurden erfasst. Nach einer Beobachtungszeit von rund 17 Jahren waren unter den Studienteilnehmern 268 Fälle von Darmkrebs aufgetreten, 98 Teilnehmer waren an Darmkrebs verstorben.

Diejenigen ESTHER-Teilnehmer, die eine Vorsorge-Koloskopie wahrgenommen hatten, hatten ein um 60 Prozent niedrigeres Risiko einer Darmkrebsdiagnose als Studienteilnehmer, die das Vorsorge-Angebot nicht genutzt hatten. Das Risiko, an Darmkrebs zu sterben, war in der Screening-Gruppe in den 10 Jahren nach der Koloskopie sogar um 75 Prozent niedriger.

„Die Teilnehmer unsere Studie bilden einen Querschnitt der Bevölkerung ab. Sie nutzen das normale Vorsorgeangebot ihrer Region und werden nicht in speziellen Zentren untersucht. Daher können wir nun erstmals in einer Langzeitstudie aus Deutschland quantifizieren, welchen Beitrag die Vorsorge-Koloskopie im echten Leben zur Krebsprävention leistet“, erklärt Hermann Brenner. Bislang gab es dazu weltweit nur sehr wenige Studien, die zudem fast ausschließlich aus den USA stammen, wo die Koloskopie bereits früher in größerem Umfang eingesetzt wurde.

Neben der Vorsorge-Koloskopie werden in Deutschland alternativ auch immunologische Tests auf Blut im Stuhl zur Darmkrebs-Früherkennung angeboten (im Alter von 50 bis 54 Jahren jährlich, danach alle 2 Jahre). Fällt ein solcher Test positiv aus, muss er anschließend auch durch eine Koloskopie abgeklärt werden.

Brenners Fazit: „Unsere Ergebnisse beziffern, welchen enormen Beitrag die Vorsorge-Koloskopie zur Krebsprävention leisten kann. Aber die beste Früherkennungsuntersuchung nutzt wenig, wenn sie nicht ausreichend wahrgenommen wird. Noch immer sterben in Deutschland jedes Jahr fast 25.000 Menschen an Darmkrebs. Die meisten dieser Todesfälle wären durch die Darmkrebs-Vorsorge vermeidbar. Wir müssen noch Wege finden, mehr Menschen zu motivieren, die potenziell lebensrettenden Früherkennungsuntersuchungen für Darmkrebs zu nutzen.“

Feng Guo, Chen Chen, Bernd Holleczek, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Strong reduction of colorectal cancer incidence and mortality after screening colonoscopy: prospective cohort study from Germany
The American Journal of Gastroenterology, 2021, DOI: 10.14309/ajg.0000000000001146

*ESTHER ist eine landesweit im Saarland durchgeführte Studie. Mehr Information dazu: http://esther.dkfz.org/esther/

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
http://www.dkfz.de

Originalpublikation:
Feng Guo, Chen Chen, Bernd Holleczek, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Strong reduction of colorectal cancer incidence and mortality after screening colonoscopy: prospective cohort study from Germany
The American Journal of Gastroenterology, 2021, DOI: 10.14309/ajg.0000000000001146

(nach oben)


Die Mikroplastik-Belastung der Ostsee: Neue Ansätze für Monitoring und Reduktionsmaßnahmen

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Um die Belastung der Meere durch Mikroplastik zu erfassen, muss man dessen Menge und sein Verhalten kennen. Bislang ist dies nur unzureichend gegeben. Ein hoher analytischer Aufwand behindert die Bestimmung. Nun liegen Kalkulationen zu den Einträgen aus urbanen Quellen für die gesamte Ostsee vor sowie Modellsimulationen zum Verhalten von Mikroplastik im Meer. Die Ergebnisse zeigen, wie die Belastung der Ostsee mit Mikroplastik in einem regelmäßigen Monitoring effizient beobachtet werden kann. Zudem geben sie Einblick, wie eine Reduktion des Gesamteintrages an Mikroplastik erreicht werden könnte. Auf Platz 1 der effektiven Maßnahmen in unseren Städten: die Reduzierung von Abwasserüberläufen.

Kunststoffpartikel, die kleiner als 5 mm sind, werden als Mikroplastik bezeichnet. Es ist in den Fokus der Umweltforschung und -politik geraten, nachdem es überall auf der Erde, auch in den entlegensten Gegenden, nachgewiesen wurde. Und Mikroplastik verschwindet nicht mehr aus der Umwelt, wenn es einmal eingetragen ist. Es zerfällt nur in immer kleinere Teilchen und reichert sich so ständig an, wenn die Eintragspfade nicht geschlossen werden. Als zentrale Quellen für Mikroplastik im Meer gelten besiedelte Gebiete. Aus diesen urbanen Quellen fließen Abwässer aus Kläranlagen, Trennkanalisation, Regenwasserüberläufen sowie in Form ungeklärter Abwässer in Richtung Meer.

Auf der Basis existierender Daten für 3525 Kläranlagen und zusätzlichen Literaturangaben aus dem gesamten Ostseeraum hat ein internationales Team von Umwelt-wissenschaftler:innen um den Warnemünder Gerald Schernewski berechnet, wie viele Partikel der am häufigsten genutzten Kunststoffe der Größe zwischen 0,02-0,5 mm aus diesen Quellen in die Ostsee gelangen und wie sie sich dort verhalten. Sie benutzten dafür Simulationen auf der Basis von dreidimensionalen Strömungsmodellen, die ihnen außerdem die Verweildauer der Teilchen im Meer anzeigten und die Regionen identifizierten, in denen die Mikroplastiklast hauptsächlich abgelagert wird.
Insgesamt kann von einem Eintrag von rund 67 Billionen Mikroplastik-Partikeln ausgegangen werden, die aus urbanen Quellen pro Jahr in die Ostsee gelangen. Das Wissenschaftlerteam fand aber auch heraus, dass die Verweilzeit mit rund 14 Tagen relativ gering ist. Innerhalb dieses Zeitraumes landet der Großteil des Mikroplastiks an den Küsten in der Nähe der Einleitungen, zum Beispiel von Flussmündungen. Hier kann die jährliche Belastung der Strände auf 1 Mrd. Partikel pro Meter Küstenlinie anwachsen. Im Durchschnitt gehen die Autor:innen von 1 Mio. Partikel aus, die jährlich pro Meter an allen Ostseestränden landen.

Für Gerald Schernewski, Leiter der Arbeitsgruppe Küsten- und Meeresmanagement des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW), bieten die Ergebnisse gute Ansätze für ein effizientes Monitoring: „An den Küsten in der Nähe der Emissionsquellen ist die höchste Verschmutzung zu finden. Das bedeutet, dass wir hier auch am ehesten mit einem regelmäßigen Monitoring den Belastungszustand der Ostsee mit Mikroplastik erfassen können.“ Aber das Modell lieferte noch konkretere Ergebnisse: „Die höchsten Partikelansammlungen fanden sich an den Ufern von Fjorden, Buchten und Lagunen. Es scheint, dass diese Küstenformen das Mikroplastik besonders effektiv zurückhalten und so die offene Ostsee vor Verschmutzung schützen. Wir empfehlen daher, diese Systeme bei der Auslegung von Monitoring-Strategien zu priorisieren.“

In einer weiteren Studie untersuchten die Wissenschaftler:innen mithilfe unterschiedlicher Modellszenarien, welchen Gesamteffekt die Reduktionen an einzelnen Quellen bringen würden. Sie fanden heraus,
• dass der größte Effekt durch die Etablierung von Trennkanalisation mit Retentionseinheiten zu erreichen wäre: die Gesamtmenge des Eintrages von Mikroplastik aus urbanen Quellen in die Ostsee halbierte sich, wenn der Anteil der jährlichen Abwässer, die über die Regenwasserüberläufe in die Ostsee gelangen, von derzeit 1,5 auf 0,3 % gedrosselt würden.
• dass sich der Gesamteintrag um weitere 14 % reduzierte, wenn alle Abwässer an Klärwerke mit einer dritten Reinigungsstufe angeschlossen würden. Allein die Nachrüstung aller Klärwerke in den osteuropäischen Flusseinzugsgebieten um eine dritte Reinigungsstufe würde die Menge an von dort eingetragenen Partikeln um 50% reduzieren.

Die Arbeit wurde durch das Projekt BONUS MicroPoll (03A0027A) finanziell unterstützt. Dieses Projekt wurde mit Mitteln aus dem Programm BONUS (Art 185) gefördert, das gemeinsam aus dem 7. Forschungsrahmenprogramm der Europäischen Union und nationalen Fördereinrichtungen aus dem Ostseeraum, zum Beispiel das deutsche Bundesministerium für Bildung und Forschung (BMBF), finanziert wurden.

Kontakt Pressestelle:
Dr. Kristin Beck: +49 381 5197 135| kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch: +49 381 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, die 96 eigenständige Forschungs-einrichtungen miteinander verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftler*innen. Das Finanzvolumen liegt bei 1,9 Milliarden Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Gerald Schernewski, Arbeitsgruppe Küsten- und Meeresmanagement
Leibniz-Institut für Ostseeforschung Warnemünde
Tel.: 0381 5197 207.| gerald.schernewski@io-warnemuende.de

Originalpublikation:
Schernewski, G., H. Radtke, R. Hauk, C. Baresel, M. Olshammar, R. Osinski and S. Oberbeckmann (2020). Transport and behavior of microplastics emissions from urban sources in the Baltic Sea. Front. Environ. Sci. 8: 579361, doi: 10.3389/fenvs.2020.579361

Schernewski, G., Radtke, H., Hauk, R., Baresel, C., Olshammar, M., Oberbeckmann, S. (2021): Urban microplastics emissions: effectiveness of retention measures and consequences for the Baltic Sea. Front. Mar. Sci., doi: 10.3389/fmars.2021.594415

(nach oben)


kompetenzz-Studie zeigt: Partnerschaftliche Teilung der Arbeit im Haushalt – Frauen wollen sie, Männer auch

Christina Haaf M.A. Pressestelle
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Wenn ein wichtiges Fachkräftepotenzial im demografischen Wandel in Deutschland bei den Frauen liegt, ist die Arbeitsteilung im Haushalt einer der Schlüsselfaktoren. Frauen wollen mehr Parität bei der Arbeit im Haushalt, Männer auch. Wie groß dieser Wunsch nach einer Gleichverteilung ist, verdeutlicht die neue Studie „(Digital) arbeiten 2020: Chancengerecht für alle? – Im Fokus: Partnerschaftliche Aufteilung“ des Kompetenzzentrums Technik-Diversity-Chancengleichheit e. V.

Aber: Selbst in der Krise setzen sich paritätische Lebens- und Arbeitsmodelle nicht durch. Auch wenn in partnerschaftlichen Beziehungen die Männer angeben, sich im ersten Lockdown der Corona-Pandemie bedingt durch das verordnete Homeoffice deutlich öfter um Kinder und Haushalt, Einkauf und Organisation zu kümmern, fühlen sich insbesondere Mütter durch die pandemiebedingten Maßnahmen wie Homeoffice zusätzlich zum Homeschooling stärker belastet.

„Das Ideal der Gleichverteilung von Aufgaben, wie Hausarbeit und Kinderversorgung, ist noch viel zu weit vom gelebten Alltag entfernt – aus Frauen – und auch aus Männersicht“, sagt Lore Funk, Co-Autorin der Studie. „Das Potenzial in Form der Orientierung an einem paritätischen Ideal ist also vorhanden, jedoch sind effektive Weichenstellungen noch zu selten Teil des gesellschaftlichen und betrieblichen Alltags.“

Die Studie von kompetenzz zeigt: Zu oft behindern stereotype Rollenvorstellungen den Bruch mit traditionellen Lebens- und Arbeitsmodellen. Sehr deutlich wird die stärkere psychosoziale Belastung von Eltern, insbesondere Müttern. „Die zeigt sich ganz stark bei der Frage nach der Versorgung der Kinder. Unsere Ergebnisse zeigen, dass Paare die Freizeit mit Kindern häufiger gleich auf Mütter und Väter verteilen als die Versorgung der Kinder“, sagt Lore Funk. Bei der Kinderversorgung ist die Diskrepanz zwischen tatsächlicher und idealer Aufgabenteilung auffällig. Der Abstand zum paritätischen Ideal ist hier am größten.

„Der individuelle Wunsch nach einer gerechten Arbeits- und Aufgabenteilung allein reicht nicht aus. Wir müssen Vereinbarkeit, insbesondere im Kontext der Digitalisierung, gesellschaftlich neu denken“, sagt Prof. Barbara Schwarze, Vorsitzende von kompetenzz und Co-Autorin der Studie. „Aufgrund des hohen Fachkräftebedarfs in unserem Land sollten wir schon jetzt die Nach-Corona-Zeiten und den anstehenden Mix von digitalen Arbeitsformen und Arbeit in Präsenz planen. Die Neuverteilung der Arbeit im Haushalt ist eine Voraussetzung für das Gelingen der „neuen“ Arbeit.“

Noch ist die Diskrepanz zwischen der faktischen und der idealen Aufgabenteilung zu groß, wie die Studie zeigt. „Der Rückzug ins Homeoffice könnte eine Chance sein für eine Neuaufteilung der Arbeit im Haushalt. Diese Chance ist aber (noch) nicht ausreichend genutzt worden. Jetzt ist gesellschaftspolitische Unterstützung nötig, damit aus paritätischen Idealen Realität wird”, betont die Geschäftsführerin von kompetenzz, Sabine Mellies.

Studiensteckbrief
Um ein möglichst differenziertes Bild über Rahmenbedingungen, Einstellungen und Praktiken rund um Arbeit im Jahr 2020 zu erhalten, wurden alle Personen, die aktuell in Deutschland erwerbstätig sind, aufgerufen, ihre Erfahrungen zu Homeoffice, digitaler Ausstattung, Weiterbildung und Arbeitsteilung in der Partner*innenschaft zu teilen. Mehr als 1.000 Männer und Frauen haben vom 8. bis 30 Juni 2020 an der Befragung teilgenommen. Erste Ergebnisse mit dem Fokus auf „Wissen und Qualifizierung“ im Homeoffice wurden im Dezember 2020 veröffentlicht, die aktuelle Studie bildet den zweiten Teil.

http://www.kompetenzz.de/arbeiten2020
#arbeiten2020 #EqualCare

Über kompetenzz
Das Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V. fördert bundesweit die Chancengleichheit von Frauen und Männern sowie Vielfalt als Erfolgsprinzip in Wirtschaft, Gesellschaft und technologischer Entwicklung. http://www.kompetenzz.de

Pressekontakt:
Britta Zachau
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Presse- und Öffentlichkeitsarbeit
Tel: +49 521 106 7321
Fax: +49 521 106 7171
presse@kompetenzz.de
Twitter: @kompetenzz_ev

Weitere Informationen:
http://www.kompetenzz.de/arbeiten2020

(nach oben)


Golfstrom-System schwächer als je zuvor im vergangenen Jahrtausend

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Noch nie in über 1000 Jahren war die Atlantische Meridionale Umwälzströmung (AMOC), auch als Golfstrom-System bekannt, so schwach wie in den letzten Jahrzehnten: Dies ist das Ergebnis einer neuen Studie von Wissenschaftlerinnen und Wissenschaftlern aus Irland, Großbritannien und Deutschland.

„Das Golfstrom-System funktioniert wie ein riesiges Förderband, das warmes Oberflächenwasser vom Äquator nach Norden transportiert und kaltes, salzarmes Tiefenwasser zurück in den Süden schickt. Es bewegt fast 20 Millionen Kubikmeter Wasser pro Sekunde, etwa das Hundertfache des Amazonasstroms“, erklärt Stefan Rahmstorf, Forscher am Potsdam-Institut für Klimafolgenforschung PIK und Initiator der Studie, die in Nature Geoscience veröffentlicht wird. Frühere Studien von Rahmstorf und Kolleginnen und Kollegen zeigten eine Verlangsamung der Meeresströmung um etwa 15 Prozent seit Mitte des 20. Jahrhunderts und brachten dies mit der vom Menschen verursachten globalen Erwärmung in Verbindung. Ein belastbares Bild über die langfristige Entwicklung fehlte jedoch bisher – das liefern die Forschenden mit ihrer Übersichtsstudie, welche die Ergebnisse bisheriger Proxy-Daten-Studien vergleicht.

„Wir haben zum ersten Mal eine Reihe von früheren Studien kombiniert und festgestellt, dass sie ein konsistentes Bild der AMOC Entwicklung über die letzten 1600 Jahre liefern“, so Rahmstorf. „Die Studienergebnisse legen nahe, dass die AMOC Strömung bis zum späten 19. Jahrhundert relativ stabil war. Mit dem Ende der kleinen Eiszeit um 1850 begann die Meeresströmung schwächer zu werden, wobei seit Mitte des 20. Jahrhunderts ein zweiter, noch drastischerer Rückgang folgte.“ Bereits im Sonderbericht über den Ozean des Weltklimarats (IPCC) von 2019 wurde mit mittlerem Vertrauensniveau zudem geschlussfolgert, ‘dass die atlantische meridionale Umwälzströmung im Vergleich zu 1850-1900 schwächer geworden ist.’ „Die neue Studie liefert weitere unabhängige Belege für diese Schlussfolgerung und stellt sie in einen längerfristigen paläoklimatischen Kontext“, so Rahmstorf weiter.

Von Temperatur zu Strömungsgeschwindigkeit: Die Kunst, Klimaveränderungen in der Vergangenheit zu rekonstruieren
Da langfristige direkte AMOC-Messungen erst seit 2004 durchgeführt werden, wendeten die Forschenden einen indirekten Ansatz an. Sogenannte Proxydaten halfen ihnen dabei, mehr über die langfristige Entwicklung der AMOC herauszufinden. Diese Zeugen der Vergangenheit werden aus natürlichen Umweltarchiven gewonnen, wie zum Beispiel Baumringen, Eisbohrkernen, Ozeansedimenten und Korallen sowie aus historischen Daten, z.B. Schiffslogbüchern.

„Wir haben eine Kombination aus drei verschiedenen Datentypen verwendet, um Informationen über die Ozeanströmungen zu erhalten: die Temperaturänderungen im Atlantik, die Verteilung der Wassermassen und die Korngrößen der Tiefsee-Sedimente, wobei die einzelnen Archive von 100 bis ca. 1600 Jahre zurückreichen. Während einzelne Proxydaten bei der Darstellung der AMOC-Entwicklung unvollkommen sind, ergab die Kombination aller drei ein robustes Bild der Umwälzzirkulation“, erklärt Levke Caesar, Teil des Irish Climate Analysis and Research Units an der Maynooth University und Gastwissenschaftlerin am PIK.

Proxy-Datensätze sind im Allgemeinen mit Unsicherheiten behaftet. Diese berücksichtigte die Statistikerin Niamh Cahill von der Maynooth University in Irland bei ihren Tests der Robustheit der Ergebnisse. Sie fand heraus, dass in 9 der 11 betrachteten Datensätze die moderne AMOC-Schwächung statistisch signifikant ist: „Wenn wir annehmen, dass die mit den Proxy-Datensätzen gemessenen Prozesse Änderungen in der Strömung widerspiegeln, liefern sie ein konsistentes Bild – und das trotz der Tatsache, dass die Daten an unterschiedlichen Orten aufgenommen wurden und verschiedene Zeitskalen repräsentieren. Die Abschwächung der Strömung ist seit mehr als 1000 Jahren beispiellos”, so Cahill.

Warum schwächelt AMOC?
Eine Verlangsamung der Zirkulation wird von Klimamodellen seit langem als Reaktion auf die durch Treibhausgase verursachte globale Erwärmung vorhergesagt – und einer Reihe von Studien zufolge ist dies wahrscheinlich der Grund für die beobachtete Abschwächung. Die atlantische Umwälzung wird durch die von Wissenschaftlerinnen und Wissenschaftler bezeichnete Tiefenkonvektion angetrieben, verursacht durch die Dichteunterschiede im Ozean: Warmes und salzhaltiges Oberflächenwasser bewegt sich von Süden nach Norden, wobei es abkühlt und dadurch dichter wird. Wenn es schwer genug ist, sinkt das Wasser in tiefere Ozeanschichten ab und fließt zurück in den Süden. Die globale Erwärmung stört diesen Mechanismus: Durch vermehrte Niederschläge und das verstärkte Abschmelzen des grönländischen Eisschildes wird dem nördlichen Atlantik Süßwasser zugeführt. Dadurch sinkt dort der Salzgehalt und damit die Dichte des Wassers, was das Absinken hemmt und so die Strömung der AMOC Zirkulation schwächt.
Die Abschwächung wird auch mit einer einzigartigen deutlichen Abkühlung des nördlichen Atlantiks in den letzten hundert Jahren in Verbindung gebracht. Diese sogenannte „Kälteblase“ wurde von Klimamodellen als Folge einer sich abschwächenden AMOC vorhergesagt, welche weniger Wärme in diese Region transportiert.

Die Folgen der AMOC-Abschwächung könnten für die Menschen auf beiden Seiten des Atlantiks vielfältig sein, wie Levke Caesar erklärt: „Die nordwärts fließende Oberflächenströmung der AMOC führt zu einer Ablenkung von Wassermassen nach rechts, weg von der US-Ostküste. Dies ist auf die Erdrotation zurückzuführen, die bewegte Objekte wie Strömungen auf der Nordhalbkugel nach rechts und auf der Südhalbkugel nach links ablenkt. Wenn sich die Strömung verlangsamt, schwächt sich dieser Effekt ab und es kann sich mehr Wasser an der US-Ostküste aufstauen. Das kann zu einem verstärkten Meeresspiegelanstieg führen.“ In Europa könnte eine Verlangsamung der AMOC zu mehr extremen Wetterereignissen führen, z.B. durch eine Veränderung der Zugbahn sowie mögliche Verstärkung von Winterstürmen über dem Atlantik. Andere Studien nennen extreme Hitzewellen oder eine Abnahme der Sommerniederschläge als mögliche Folgen. Wie genau sich weitere Konsequenzen gestalten, ist Gegenstand der aktuellen Forschung; die Wissenschaftlerinnen und Wissenschaftler wollen auch im Detail klären, welche Teile der AMOC sich wie und aus welchen Gründen verändert haben.

„Wenn wir die globale Erwärmung auch künftig vorantreiben, wird sich das Golfstrom-System weiter abschwächen – um 34 bis 45 Prozent bis 2100, gemäß der neuesten Generation von Klimamodellen“, folgert Rahmstorf. „Das könnte uns gefährlich nahe an den Kipppunkt bringen, an dem die Strömung instabil wird.“

Artikel: L. Caesar, G. D. McCarthy, D. J. R. Thornalley, N. Cahill, S. Rahmstorf (2020): Current Atlantic Meridional Overturning Circulation weakest in last millennium. Nature Geoscience [DOI: 10.1038/s41561-021-00699-z].

Wissenschaftliche Ansprechpartner:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
http://www.pik-potsdam.de

Originalpublikation:
L. Caesar, G. D. McCarthy, D. J. R. Thornalley, N. Cahill, S. Rahmstorf (2020): Current Atlantic Meridional Overturning Circulation weakest in last millennium. Nature Geoscience [DOI: 10.1038/s41561-021-00699-z].

(nach oben)


Lerntechnologien und Mathematikdidaktik gemeinsam entwickeln

Axel Kölling Presse- und Öffentlichkeitsarbeit
Technologie-Zentrum Informatik und Informationstechnik
Algebra lernen mit allen Sinnen: Dies ermöglicht ein System, das Informatiker*innen und Mathematikdidaktiker*innen der Universität Bremen gemeinsam entwickelt haben. Viele Erkenntnisse lassen sich auf andere Lernbereiche übertragen.

Das „Rechnen mit Unbekannten“ – die elementare Algebra – ist ein besonders wichtiger Baustein auf dem Weg zum erfolgreichen Schulabschluss: Fast alle folgenden mathematischen Konzepte bauen darauf auf. Da die Algebra vielen Schülerinnen und Schülern jedoch erhebliche Probleme bereitet, haben Mathematikdidaktiker*innen und Informatiker*innen der Universität Bremen gemeinsam ein System entwickelt, das den Lernprozess neu gestaltet.

Im Verbundprojekt „Multimodal Algebra Lernen“ (MAL) wurden unter Federführung des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen
neueste Erkenntnisse aus der Mathematikdidaktik mit technischen Innovationen zusammengeführt. „Ziel des Projekts war es, ein Lernsystem zu entwickeln, das Konzepte der Algebra interaktiv und körperlich erfahrbar vermittelt“, erklärt TZI-Direktor Prof. Rainer Malaka. Eine Besonderheit dabei war, dass die Entwicklung des Demonstrators von Beginn an disziplinübergreifend erfolgte und die zukünftigen Nutzergruppen – Lehrer*innen und Schüler*innen – regelmäßig mit einbezog.

Systeme für zu Hause und für den Klassenraum
Ebenfalls ungewöhnlich war das Ziel, ein skalierbares System zu entwickeln, das an verschiedene Nutzungsszenarien angepasst werden kann. Das Resultat ist ein Demonstrator, der verschiedene Interaktionsmöglichkeiten anbietet. Beispielsweise unterstützt das mobile MAL-System auf einem mobilen Endgerät die Einzelnutzung zuhause oder unterwegs, während im schulischen Umfeld auch die Schultisch-Variante eingesetzt werden kann – sie besteht aus einem Tablet-PC und physischen Objekten in verschiedenen geometrischen Formen, die für bestimmte Werte oder Variablen stehen können und eine Gleichung somit handlungsorientierter lösbar machen. Diese Objekte sind auch als „Smart Objects“ in elektronischer Form entwickelt worden. Sie können automatisch kleine Hilfestellungen leisten, beispielsweise durch farbiges Lichtfeedback. Smart Objects lassen sich am besten mit einem Multi-Touch-Tisch kombinieren, also einem Tisch mit interaktiver Oberfläche. So können etwa mathematische Operationen durch passende Gesteninterkationen körperlich erfahrbar und Aufgaben auch kollaborativ bearbeitet werden. Um die Attraktivität des Lernsystems für Schülerinnen und Schüler weiter zu erhöhen, setzt MAL auf „Gamification“ – die spielerische Vermittlung der Inhalte.

Didaktische Erkenntnisse auf andere Projekte übertragbar
Die AG Mathedidaktik der Universität Bremen hat die didaktischen Grundlagen des MAL-Systems entwickelt und die Einbettungsmöglichkeiten in den Unterricht gemeinsam mit dem Westermann-Verlag, der ebenfalls am Projekt beteiligt war, untersucht. Prof. Angelika Bikner-Ahsbahs und ihr Team haben dabei das Zusammenwirken von Technologie, Design und Aufgabenstellung konkret für das Algebra-Lernen betrachtet – mit Ergebnissen, die sich auf andere Anwendungsfelder übertragen lassen. Dazu gehören beispielsweise wichtige Erkenntnisse zur Präsentation von Feedback: „Wir haben gelernt, dass leistungsstarke Schülerinnen und Schüler das Feedback oft ignorieren“, berichtet Bikner-Ahsbahs. „Leistungsschwache Schülerinnen und Schüler müssen dagegen erst lernen, Feedback zu verstehen und umzusetzen.“ Ein wichtiges Ergebnis war darüber hinaus die Entwicklung eines Schichtenmodells des Lernprozesses, das in vier Schritten vom Erlernen des Systems bis zur Emanzipierung von ihm führt.

Schülerinnen und Schüler begeistert
Die Entwicklung des Systems wurde von zahlreichen Evaluationsstudien begleitet und in einer abschließenden Gesamtevaluation von Mathematik-Lehrkräften online bewertet, unter anderem auf Basis von Videos. „Die Rückmeldungen waren fast durchgehend signifikant positiv“, so Bikner-Ahsbahs. Nur die Frage nach der kognitiven Belastung der Lernenden sei differenzierter beantwortet worden – Schülerinnen und Schüler mit Förderbedarf könne das MAL-System in seiner aktuellen Form beim Denken auch belasten anstatt zu entlasten. „Schulgruppen, die das System ausprobiert haben, waren bis jetzt aber stets begeistert“, berichtet sie. Um das MAL-System tatsächlich in den Unterricht zu bringen, werde nun ein Unternehmen benötigt, das die kommerzielle Weiterentwicklung der Prototypen übernimmt.

Förderung durch das BMBF
Neben den genannten Partnern waren auch Wissenschaftler*innen des Kompetenzzentrums für Klinische Studien der Universität Bremen und des ifib – Institut für Informationsmanagement Bremen GmbH sowie die Firmen xCon/Ubimax und Westermann Verlag an dem interdisziplinären Projekt beteiligt. Das Bundesministerium für Bildung und Forschung förderte MAL im Rahmen des Förderschwerpunkts „Erfahrbares Lernen“ mit knapp 1,4 Millionen Euro; das gesamte Projektvolumen belief sich auf 1,8 Millionen Euro.

Weitere Informationen:
http://mal-projekt.de/ Projektwebsite

(nach oben)


Report: Energiewende-Projekt Ariadne diskutiert mit Menschen aus ganz Deutschland zur Strom- und Verkehrswende

Sarah Messina Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Welche Vorstellungen und Ziele haben Menschen bei der Energiewende und wie können ihre Perspektiven besser in der Politikberatung berücksichtigt werden? Quer durch die Bundesrepublik haben fast 90 Bürgerinnen und Bürger im Kopernikus-Projekt Ariadne über den Ausbau Erneuerbarer Energien und die Mobilität der Zukunft diskutiert. Vom öffentlichen Nahverkehr bis hin zum Netzausbau, von Stromkosten zu Jobs: Die Ergebnisse dieser Fokusgruppen legen jetzt den Grundstein für einen außergewöhnlichen Lernprozess zwischen Wissenschaft, Politik und Gesellschaft, der dazu beitragen soll, die verschiedenen Wertvorstellungen besser als bisher in Politikoptionen zu übertragen.

Bürgerbeteiligung startet mit Fokusgruppen und reicht bis zum großen Bürgergipfel
Die Energiewende betrifft im Alltag alle Menschen. Für die Politik ist das eine Herausforderung, denn in jeder Entscheidung drücken sich auch unterschwellig Werte und Prioritäten zu den Themen aus. In welcher Breite diese von den zufällig ausgewählten Teilnehmenden bei Strom- und Verkehrswende diskutiert wurden, aber auch welche Probleme und Bedürfnisse sie zu den Themen der Energiewende haben, zeigen die im neuen Ariadne-Report zusammengefassten Ergebnisse.

„Die Menschen hat zum Beispiel die Frage bewegt, wer sich dafür verantwortlich fühlen soll, dass wir das gesetzte Klimaziel erreichen und wie Belastungen sozial gerecht verteilt werden können“, erklärt Arwen Colell, Mit-Autorin des Berichts und Politik-Analystin am Mercator Research Institute on Global Commons and Climate Change (MCC Berlin), das Teil des Ariadne-Konsortiums ist. „In den Diskussionen wurden ganz unterschiedliche Ziele formuliert, welche die Rolle des Staates betreffen, aber auch das Spannungsfeld von individueller Verantwortung und persönlicher Freiheit.“ Mehr Mitspracherecht bei der Auswahl neuer Technologien und der Lastenverteilung erwarteten sich die Teilnehmenden zum Beispiel bei der Stromwende. Ging es dagegen um Mobilität, scheint aus ihrer Sicht eher die Politik dafür verantwortlich, dass Infrastrukturen geschaffen werden, damit etwa der Umstieg vom Auto auf öffentliche Verkehrsmittel attraktiver wird.

Bürger geben Empfehlungen? Ariadne verfolgt einen integrativen Ansatz
Anders als etwa beim Bürgerrat zur Rolle Deutschlands in der Welt oder dem französischen Klima-Bürgerrat, werden die Sichtweisen von Bürgerinnen und Bürgern und die wissenschaftliche Forschung zur Energiewende im Kopernikus-Projekt Ariadne schrittweise zusammengebracht. Die Ariadne-Fachleute haben damit ein ganz neues Vorgehen im Sinn: Kontinuierlich sollen Erkenntnisse zu Werten und Zielen der Bürgerinnen und Bürger in Forschung und Modellierung von Szenarien eingebunden und analysiert werden, um der politischen Entscheidungsebene gewissermaßen einen 360-Grad-Blick auf Auswirkungen von Optionen und Instrumente zu ermöglichen.

Dass dabei mehr als eine Lösung zielführend sein kann und auch Spannungsfelder offenbleiben, ist für die Forschenden in diesem Zusammenhang wichtig festzustellen. „Ariadne will niemanden überreden oder von einer bestimmten Option überzeugen, sondern vielmehr bei der Entwicklung von umsetzbaren Zukunftspfaden alle Perspektiven der Gesellschaft miteinfließen lassen“, erläutert Martin Kowarsch, Gruppenleiter am MCC Berlin und als Ariadne-Experte für die Bürgerdeliberation ebenfalls Autor des Berichts. „Wenn es unserem Forschungsprojekt gelingt, Menschen aus unterschiedlichen Hintergründen mit- und ernst zu nehmen, können Deliberationsprozesse am Ende einen Beitrag zu einer sachlichen, gemeinwohlorientierten Debatte leisten“, so Kowarsch.

Werte-Landkarten helfen bei der Orientierung der Handlungspfade
Die Ergebnisse der Fokusgruppenarbeit, die wegen der Corona-Pandemie in Videokonferenzen stattfand und gemeinsam mit Kolleginnen und Kollegen der Strategieberatung ifok organisiert und ausgewertet wurden, geben wichtige und richtungsweisende Hinweise für die weitere wissenschaftliche Auseinandersetzung. In verschiedenen Landkarten werden die Aussagen der Menschen nach Werten, Argumenten und Zusammenhängen geordnet, um anhand der so entstandene Kartierung von Handlungspfaden die Entwicklung von möglichen Klimaschutzinstrumenten in der Zukunft zu erleichtern.

Der Ariadne-Report bildet erst den Auftakt des Deliberationsprozesses, der sich durch den gesamten Projektzeitraum ziehen wird. Neben Workshops und Bürgerkonferenzen arbeitet Ariadne als Höhepunkt unter anderem auf einen großen Bürgergipfel zu, bei dem in etwa zwei Jahren Erkenntnisse des Projekts von Bürgerinnen und Bürgern im Dialog mit Politik, Wirtschaft und Wissenschaft diskutiert werden.

Weitere Informationen:
Mareike Blum, Arwen Colell, Julia Hoffmann, Karoline Karohs, Martin Kowarsch, Maren Krude, Miriam Saur, Holger Thiel (2021): Was ist uns wichtig bei Verkehrs- und Stromwende? Bürgerinnen und Bürger sprechen über Herausforderungen und Ziele. Ariadne-Report.

Weblink zum Report: https://ariadneprojekt.de/media/2021/02/2021_Februar_Ariadne-Report_Fokusgruppen…

Weblink zum Projekt Ariadne: https://ariadneprojekt.de/

Kontakt für weitere Informationen:
Sarah Messina
Leitung Kommunikation Ariadne
Potsdam-Institut für Klimafolgenforschung (PIK)
Telefon: +49 (0)331 288 2544
Email: ariadne-presse@pik-potsdam.de

Maria Bader
Kommunikationsmanagerin Ariadne
Mercator Research Institute on Global Commons and Climate Change (MCC)
Telefon: +49 (0)30 3385537 365
E-Mail: ariadne-presse@pik-potsdam.de

Wer ist Ariadne? In der griechischen Mythologie gelang Theseus durch den Faden der Ariadne die sichere Navigation durch das Labyrinth des Minotaurus. Dies ist die Leitidee für das Kopernikus-Projekt Ariadne. Im Konsortium von mehr als 25 wissenschaftlichen Partnerorganisationen führt Ariadne durch einen gemeinsamen Lernprozess mit Politik, Wirtschaft und Gesellschaft, erforscht Optionen zur Gestaltung der Energiewende und erarbeitet Orientierungswissen für Entscheider.

Wir sind Ariadne:
adelphi| Brandenburgische Technische Universität Cottbus – Senftenberg (BTU) | Deutsche Energie-Agentur (dena) | Deutsches Institut für Wirtschaftsforschung (DIW) | Deutsches Zentrum für Luft- und Raumfahrt (DLR) | Ecologic Institute | Fraunhofer Cluster of Excellence Integrated Energy Systems (CINES) | Guidehouse Germany | Helmholtz-Zentrum Geesthacht | Hertie School | Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen (HfWU) | ifok | Institut der deutschen Wirtschaft Köln | Institut für Klimaschutz, Energie und Mobilität | Institute For Advanced Sustainability Studies (IASS) | Mercator Research Institute on Global Commons and Climate Change (MCC) | Öko-Institut | Potsdam-Institut für Klimafolgenforschung (PIK) | RWI – Leibniz-Institut für Wirtschaftsforschung | Stiftung 2° – Deutsche Unternehmer für Klimaschutz | Stiftung Umweltenergierecht | Technische Universität Darmstadt | Technische Universität München | Universität Hamburg | Universität Münster | Universität Potsdam | Universität Stuttgart – Institut für Energiewirtschaft und Rationelle Energieanwendung (IER) | ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung

Über die Kopernikus-Projekte:
Die Kopernikus-Projekte bilden eine der größten deutschen Forschungsinitiativen zum Thema Energiewende. Ihr Ziel ist es, eine klimaneutrale Bundesrepublik mit einer sauberen, sicheren und bezahlbaren Stromversorgung im Jahr 2050 zu ermöglichen. Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) entwickeln sie ganzheitliche Lösungen zum Erreichen der Klimaziele: In den Projekten arbeiten Vertreter aus Wirtschaft, Wissenschaft und Zivilgesellschaft zusammen. Über zehn Jahre erarbeiten sie klimafreundliche Lösungen bis zur Anwendbarkeit im industriellen Maßstab und zur Umsetzung im politischen System.

Mehr zu den Kopernikus-Projekten auf http://www.kopernikus-projekte.de.

Wissenschaftliche Ansprechpartner:
Dorothe Ilskens
Leitung Ariadne-Geschäftsstelle
Potsdam-Institut für Klimafolgenforschung
E-Mail: ilskens@pik-potsdam.de
http://www.pik-potsdam.de

Originalpublikation:
https://ariadneprojekt.de/media/2021/02/2021_Februar_Ariadne-Report_Fokusgruppen…

Weitere Informationen:
https://ariadneprojekt.de/ Weblink zum Projekt Ariadne
http://www.kopernikus-projekte.de Mehr zu den Kopernikus-Projekten

(nach oben)


Cyanobakterien könnten die Plastikindustrie revolutionieren

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen
Klimaneutral und schnell abbaubar: Mikrobiologen der Universität Tübingen ermöglichen Produktion von klimafreundlichem Bioplastik

Als Nebenprodukt der Fotosynthese stellen Cyanobakterien Plastik auf natürlicher Basis her – und das nachhaltig und umweltschonend. Forscherinnen und Forschern der Universität Tübingen ist es nun erstmals gelungen, den Stoffwechsel der Bakterien so zu verändern, dass sie den Naturstoff in Mengen produzieren, die eine industrielle Nutzung ermöglichen. Das natürliche Plastik könnte dem umweltschädlichen Kunststoff auf Erdölbasis Konkurrenz machen. Die Forschungsgruppe unter Leitung von Professor Karl Forchhammer vom Interfakultären Institut für Mikrobiologie und Infektionsmedizin legte ihre Ergebnisse vor kurzem in mehreren Studien vor, die in den Fachjournals Microbial Cell Factories und PNAS erschienen.

„Die industrielle Relevanz dieser Form von Bioplastik kann kaum überschätzt werden“, sagte Forchhammer. Rund 370 Millionen Tonnen Kunststoffe werden derzeit pro Jahr produziert. Laut Prognosen wird die weltweite Plastikproduktion im nächsten Jahrzehnt um weitere 40 Prozent zunehmen. Zwar ist Kunststoff vielfältig einsetzbar und preisgünstig, beispielsweise als Verpackung von Lebensmitteln. Andererseits ist er Ursache für zunehmende Umweltprobleme. Immer mehr Plastikmüll landet in der Natur, wo die Kunststoffe zum Teil die Meere verschmutzen oder in Form von Mikroplastik in die Nahrungskette gelangen. Zudem wird Plastik überwiegend aus Erdöl hergestellt, was bei der Verbrennung zusätzliches CO2 in die Atmosphäre freisetzt.

Eine Lösung für diese Probleme könnte in einem Stamm von Cyanobakterien mit überraschenden Eigenschaften liegen. Cyanobakterien der Gattung Synechocystis stellen Polyhydroxybutyrat (PHB) her, eine natürliche Form von Plastik. PHB ist ähnlich einsetzbar wie der Kunststoff Polypropylen aber in der Umwelt schnell sowie schadstofffrei abbaubar. Allerdings ist die von diesen Bakterien produzierte Menge normalerweise sehr gering. Der Tübinger Forschungsgruppe gelang es, in den Bakterien ein Protein zu identifizieren, das den Kohlenstofffluss in Richtung PHB innerhalb der Bakterienzelle drosselt. Nach Entfernen des entsprechenden Regulators sowie weiteren genetischen Veränderungen stieg die von den Bakterien produzierte PHB-Menge enorm an und machte schließlich über 80 Prozent der Gesamtmasse der Zelle aus. „Wir haben regelrechte Plastikbakterien erschaffen“, sagt Dr. Moritz Koch, Erstautor der in Microbial Cell Factories veröffentlichten Studie.

Cyanobakterien, die auch als Mikroalgen oder Blaualgen bezeichnet werden, gehören zu den unscheinbarsten und doch mächtigsten Akteuren auf unserem Planeten. Es waren Blaualgen, die vor etwa 2,3 Milliarden Jahren durch Fotosynthese unsere Atmosphäre sowie die vor UV-Strahlung schützende Ozonschicht schufen. „Cyanobakterien sind gewissermaßen die Hidden Champions unseres Planeten“, betonte Koch: „Das unterstreicht das enorme Potenzial, das diese Lebewesen mitbringen.“ Da die blaugrünen Bakterien lediglich Wasser, CO2 und Sonnenlicht brauchen, sind sie nach Einschätzung der Forscherinnen und Forscher optimale Akteure für eine klimaschonende und nachhaltige Produktion. „Einmal in der Industrie etabliert könnte die gesamte Kunststoffproduktion revolutioniert werden“, sagte Koch. Langfristiges Ziel sei, den Einsatz der Bakterien zu optimieren und so weit zu skalieren, dass ein großtechnischer Einsatz möglich werde.

Weiteres Bildmaterial erhalten Sie unter: http://www.pressefotos.uni-tuebingen.de/20210202_Plastik_aus_Algen.zip.
Quellenangabe: Fotos: Karl Forchhammer / Universität Tübingen

Wissenschaftliche Ansprechpartner:
Professor Dr. Karl Forchhammer
Universität Tübingen
Interfakultäres Institut für Mikrobiologie und Infektionsmedizin
Telefon: +49 7071 29-72096
karl.forchhammer@uni-tuebingen.de

Originalpublikation:
Tim Orthwein, Jörg Scholl, Philipp Spät, Stefan Lucius, Moritz Koch, Boris Macek, Martin Hagemann, Karl Forchhammer. The novel PII-interactor PirC identifies phosphoglycerate mutase as key control point of carbon storage metabolism in cyanobacteria. PNAS February 9, 2021 118 (6) e2019988118; https://doi.org/10.1073/pnas.2019988118

Koch M., Bruckmoser J., Scholl J., Hauf W., Rieger B., Forchhammer K. Maximizing PHB content in Synechocystis sp. PCC 6803: a new metabolic engineering strategy based on the regulator PirC. Microb Cell Fact 19, 231 (2020). https://doi.org/10.1186/s12934-020-01491-1

(nach oben)


Klimawandel spielte womöglich wichtige Rolle bei der Entstehung vom SARS-CoV-2

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Globale Treibhausgasemissionen haben im Laufe des letzten Jahrhunderts den wahrscheinlichen Ursprungsort von SARS-CoV-2 in Südchina zu einem Hotspot für Coronaviren gemacht, die von Fledermäusen übertragen werden. Klimatische Veränderungen in dieser Region haben das Wachstum von Waldgebieten befördert, die Fledermäusen geeignete Habitate bieten. Dies ist das Ergebnis einer neuen Studie von Wissenschaftlern der Universität Cambridge, des Potsdam-Instituts für Klimafolgenforschung (PIK) und der Universität Hawai’i-Manoa.

Die heute in der Zeitschrift Science of the Total Environment veröffentlichte Studie liefert einen Mechanismus, der dem Klimawandel eine direkte Rolle bei der Entstehung von SARS-CoV-2 zuweisen könnte – dem Virus, das die COVID-19-Pandemie verursachte.
Die Studie beschreibt große klimawandelbedingte Veränderungen der natürlichen Vegetation in der südchinesischen Yunnan Provinz und benachbarten Gebieten in Myanmar und Laos im letzten Jahrhundert – weg von tropischem Buschland, hin zu tropischer Savanne und Laubwald. Dieser Prozess hat die Ausbreitung zahlreicher neuer Fledermausarten ermöglicht, durch die rund 100 neue Arten von Coronaviren in die Region kamen. Genetische Daten legen nahe, dass SARS-CoV-2 in genau dieser Region erstmals in Fledermäusen aufgetreten ist.

„Im letzten Jahrhundert hat der Klimawandel im wahrscheinlichen Ursprungsort von SARS-CoV-2 den Lebensraum für Fledermäuse deutlich attraktiver gemacht – und damit auch für die vielen Coronaviren, die diese Tiere in sich tragen,“, sagt Dr. Robert Beyer, der seit kurzem im Rahmen eines europäischen ‘Marie Curie’ Stipendiums am PIK tätig ist und zuvor an der Universität Cambridge geforscht hat. Im Zuge der Studie rekonstruierten die Forscher mittels klimatischer Daten die weltweite natürliche Vegetation am Beginn des letzten Jahrhunderts. Auf Grundlage davon ermittelten sie die damalige globale Verteilung von Fledermausarten. Ein Vergleich mit der heutigen Verteilung zeigte, wo sich die Anzahl der verschiedenen Fledermausarten weltweit verändert hat.

„Durch den Klimawandel haben sich die Lebensräume von Fledermäusen verschoben. Die Tiere breiteten sich in neue Gebiete aus – und brachten ihre Viren mit. Das veränderte nicht nur, wo die Viren vorkommen, sondern ermöglichte auch neue Interaktionen mit anderen Tieren, durch die schädliche Erreger übertragen wurden oder sich weiterentwickelten“, erklärt Beyer. Camilo Mora, Professor an der Universität Hawai’i-Manoa und Initiator der Studie, fügt hinzu: „Wir wissen, dass der Klimawandel die Übertragung von Viren in Wildtieren auf den Menschen beschleunigt. Das sollte uns dringend dazu veranlassen, Maßnahmen zur Reduktion von Emissionen zu verbessern“.

In der südchinesischen Yunnan Provinz sind auch sogenannte Schuppentiere heimisch, die wahrscheinlich als Zwischenwirte für SARS-CoV-2 fungierten. Man nimmt an, dass das Virus von Fledermäusen auf diese Tiere übergesprungen ist, die dann später auf einem Wildtiermarkt in Wuhan gehandelt wurden – wo sich erstmals Menschen mit SARS-CoV-2 infizierten. Weltweit tragen Fledermäuse schätzungsweise über 3.000 verschiedene Coronaviren in sich. Die meisten davon können nicht ohne weiteres auf Menschen überspringen. Andere hingegen schon – neben SARS-CoV-2 etwa auch SARS-CoV-1 und MERS, die ebenfalls große Epidemien verursachten.

Artikel: Beyer, Robert M., Manica Andrea, Mora Camilo (2021): ‘Shifts in global bat diversity suggest a possible role of climate change in the emergence of SARS-CoV-1 and SARS-CoV-2.’ Science of the Total Environment. [DOI: 10.1016/j.scitotenv.2021.145413]

Wissenschaftliche Ansprechpartner:
Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
http://www.pik-potsdam.de

Originalpublikation:
Weblink zum Artikel: https://doi.org/10.1016/j.scitotenv.2021.145413

(nach oben)


Erhöhter Wasserverbrauch in Zeiten des Lockdowns. Was bedeuten veränderte Routinen für die Versorgungssicherheit?

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
In der zweiten Märzhälfte 2020 kam es durch die Maßnahmen zur Bekämpfung der Covid-19-Pandemie in Deutschland zu ungekannten Veränderungen in nahezu allen Lebensbereichen. Mit dem Lockdown im Frühjahr standen auch die Wasserversorger vor einer neuen Situation: Der Wasserverbrauch veränderte sich, sowohl in öffentlichen und betrieblichen Einrichtungen als auch im häuslichen Wohnraum. In ihrer Studie zum Wasserbrauch in einer norddeutschen Versorgungsregion konnten Wasserexpert*innen des ISOE – Institut für sozial-ökologische Forschung einen Verbrauchsanstieg in Folge veränderter Alltagsroutinen im ersten Lockdown um mehr als 14 Prozent errechnen.

Für ihre Studie, die im Journal „Water“ in der Januarausgabe 2021 erschienen ist, haben Wasserexpert*innen des ISOE tägliche und stündliche Wasserverbrauchsmengen in der ersten Welle der Corona-Pandemie untersucht. Ziel war es, den Effekt der Lockdown-Maßnahmen auf den Wasserverbrauch wissenschaftlich fundiert zu analysieren und ihn in Abgrenzung zu anderen Einflüssen sichtbar zu machen. Hierfür werteten die Wissenschaftler*innen Daten aus dem knapp tausend Quadratkilometer großen Versorgungsgebiet des Wasserbeschaffungsverbands WBV Harburg aus. In diesem Gebiet am Rande der Metropolregion Hamburg südlich der Elbe werden mehr als 180.000 Menschen mit Trinkwasser versorgt.

Um die Wirkung der sozioökonomischen und soziokulturellen Restriktionen in der ersten Welle der Pandemie auf den Wasserverbrauch erfassen zu können, bereinigten die Wissenschaftler*innen die Verbrauchszahlen von anderen Effekten. Ein erhöhter Wasserkonsum infolge von Hitze etwa wurde mithilfe eines linearen gemischten Modells herausgerechnet. „Im Vergleich mit den Wasserverbrauchszahlen der Vorjahre in der suburbanen Untersuchungsregion nahe Hamburg ergab sich für das Jahr 2020 ein Anstieg von 14,3 Prozent. Wir führen diesen Anstieg auf veränderte Alltagsroutinen im Lockdown zurück“, sagt Deike Lüdtke, Erstautorin der Studie „Increase in Daily Household Water Demand during the First Wave of the Covid-19 Pandemic in Germany“. Auch veränderte Freizeitaktivitäten – etwa Baden in privaten Pools oder eine verstärkte Gartenpflege – seien als Ursachen für erhöhte Wasserverbräuche anzunehmen.

Alltagsroutinen verstehen, um Versorgungssicherheit zu gewährleisten 
Die veränderten Routinen während der ersten Welle der Corona-Pandemie machten sich vor allem am Morgen und am Abend bemerkbar. „Veränderungen im Tagesverbrauch sind für Wasserversorgungsbetriebe nicht trivial“, sagt Lüdtke. Die Wasserunternehmen seien auf präzise Vorhersagen angewiesen. „Plötzliche Verhaltensänderungen der Verbraucher*innen können die Versorgungssicherheit der Wasserbetriebe gefährden. Deshalb ist es entscheidend, dass Alltagsroutinen von Verbraucher*innen besser verstanden und in den Wasserbedarfsprognosen berücksichtigt werden.“ 

Die ISOE-Wissenschaftler*innen gehen davon aus, dass bestimmte Bedarfsmuster, die auf die Verhaltensveränderungen während des ersten Lockdowns zurückzuführen sind, auch für künftige Wasserbedarfsrechnungen relevant bleiben werden. „Die Nachfragemuster über den Tag hinweg mit einer zeitlichen Verschiebung der Nachfragespitzen am Morgen und höheren Verbräuchen am Abend lassen auf neue Alltagspraktiken zum Beispiel im Bereich des mobilen Arbeitens schließen, die über die Pandemie hinaus beibehalten werden könnten“, so Lüdtke. Wasserversorger sollten sich deshalb mithilfe möglichst präziser Bedarfsprognosen auf Anpassungen an den Wasserverbrauch einstellen – wobei sich Anpassungen an den künftigen Verbrauch darüber hinaus auch durch sich verändernde Nutzungsmuster in den hochsommerlichen Dürrezeiten ergeben. 

Wasserbedarfsprognosen gestalten sich immer schwieriger
„Eine realistische Planung des künftigen Wasserverbrauchs gestaltet sich immer schwieriger, weil sehr viele Einflüsse auf den Bedarf berücksichtigt werden müssen“, sagt Mitautor Stefan Liehr. Neben klimatischen Bedingungen seien auch demografische Entwicklungen entscheidend, ebenso wie Wirtschaftsstrukturen, die sich besonders in Krisenzeiten verändern. Dadurch kommt es immer auch zu räumlichen Bedarfsverschiebungen, etwa von Gewerbegebieten hin zu Wohngebieten. Für präzise Vorhersagen sei es darüber hinaus unerlässlich, die Gewohnheiten unterschiedlicher Nutzergruppen zu untersuchen. 

Die aktuelle Untersuchung des ISOE in einem Versorgungsgebiet bestätige das: „Je besser wir das Alltagsverhalten unterschiedlicher Nutzergruppen empirisch untersuchen, umso besser können wir vorhersagen, welche Konsequenzen Veränderungen in den Alltagsroutinen für die Versorgungssicherheit haben können“, so Liehr. Als Leiter des Forschungsschwerpunktes Wasserversorgung und Landnutzung hat Stefan Liehr am ISOE bereits mehrere Prognosemodelle für den Wasserbedarf mitentwickelt, die die komplexen Einflüsse in einem Versorgungsgebiet verlässlich und kleinräumig abbilden können.

Wissenschaftliche Ansprechpartner:
Dr. Stefan Liehr 
+49 69 707 6919-36
liehr@isoe.de
http://www.isoe.de

Originalpublikation:
Lüdtke, Deike U./Robert Lütkemeier/Michael Schneemann/Stefan Liehr (2021): Increase in Daily Household Water Demand during the First Wave of the Covid-19 Pandemic in Germany. Water 13 (3), 260
https://doi.org/10.3390/w13030260

Weitere Informationen:
http://www.isoe.de

(nach oben)


Der Meeresspiegel an Nord- und Ostseeküste steigt

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung
Weltweit steigt der Meeresspiegel durch den Klimawandel an. Oft werden damit Schicksale von Menschen weit entfernter Regionen assoziiert. Doch wie sieht es an unseren Küsten aus? Wie stark ist der Meeresspiegel in den letzten 100 Jahren an Nord- und Ostsee angestiegen? Steigt er immer schneller? Und was bringt die Zukunft? Diese Fragen beantwortet der neu entwickelte Meeresspiegel-Monitor (www.meeresspiegel-monitor.de) unter Berücksichtigung aktueller Wasserstandsdaten.

„Durch die regelmäßige Aktualisierung der Auswertungen können wir nun früh erkennen, ob der Meeresspiegelanstieg auch bei uns an Fahrt aufnimmt und wo uns ein ,Weiter so‘ hinführen könnte“, sagt Küstenforscherin Insa Meinke, die den Monitor zusammen mit ihren Kollegen am Helmholtz-Zentrum Geesthacht (HZG) entwickelt hat. Der Monitor ist frei verfügbar unter www.meeresspiegel-monitor.de. Er richtet sich an alle Menschen, die an der Küste wohnen, entscheiden und langfristig planen.

Anstieg ist auch bei uns feststellbar
In Norddeutschland ist der Anstieg des mittleren Meeresspiegels eine der deutlichsten bereits messbaren Folgen des Klimawandels. Er lässt sich an allen acht Pegeln nachvollziehen, die Gegenstand des Meeresspiegel-Monitorings sind. So zeigen die Auswertungen der Wasserstandsdaten, dass der mittlere Meeresspiegel an unseren Küsten in den letzten hundert Jahren (1921 bis 2020) um etwa 15 bis 20 Zentimeter gestiegen ist. Das entspricht ungefähr dem globalen mittleren Meeresspiegelanstieg im selben Zeitraum. An den meisten Pegeln zählt der aktuelle mittlere Meeresspiegel zu den höchsten seit Beginn der Datenverfügbarkeit.

Bei uns bisher keine ungewöhnliche Beschleunigung
Für die vergangenen Jahrzehnte dokumentiert der Weltklimarat (IPCC) eine Beschleunigung des globalen mittleren Meeresspiegelanstiegs. An den Pegeln der deutschen Küsten steigt der Meeresspiegel aktuell zwar schneller als im langjährigen Durchschnitt, eine systematische Beschleunigung lässt sich jedoch bisher nicht nachweisen. Als feste Standorte, deren frühere und aktuelle Pegelstände dem Meeresspiegel-Monitoring zu Grunde liegen, wählten die Wissenschaftler an der Nordsee Husum, Helgoland, Cuxhaven und Norderney sowie an der Ostsee Flensburg, Kiel, Travemünde und Warnemünde.

Früherkennung kritischer Entwicklungen
Die 2019 veröffentlichten Klimaszenarien des IPCC weisen darauf hin, dass der globale mittlere Meeresspiegel künftig immer schneller steigen kann. So ist bei anhaltend hohem Ausstoß von Treibhausgasen bis 2100 ein Anstieg von etwa 60 bis 110 Zentimetern plausibel. Gelingt es, Treibhausgasemissionen nennenswert zu reduzieren, muss bis 2100 trotzdem mit einem globalen mittleren Meeresspiegelanstieg von 30 bis 60 Zentimetern gerechnet werden. Da verschiedene Studien vermitteln, dass sich der Anstieg an unseren Küsten nur unwesentlich vom globalen Mittel unterscheiden wird, zeigt der Monitor an, ob die aktuellen Werte bereits Vorboten der IPCC-Szenarien sind: „Schreibt man den bisherigen Meeresspiegelanstieg an unseren Küsten bis 2100 fort, so zeichnet sich das beschriebene Worst Case Szenario des IPCC bisher bei uns nicht ab“, sagt Insa Meinke. Dies könnte sich aber ändern. Das fortlaufende Monitoring des aktuellen Meeresspiegelanstiegs im Hinblick auf die IPCC-Szenarien ermöglicht die Früherkennung kritischer Entwicklungen. So können rechtzeitig notwendige Maßnahmen ergriffen werden.

Wissenschaftliche Ansprechpartner:
Dr. Insa Meinke
Leiterin des Norddeutschen Küsten- und Klimabüros
Helmholtz-Zentrum Geesthacht
insa.meinke@hzg.de

Weitere Informationen:
https://www.meeresspiegel-monitor.de/ Der neue Meeresspiegel-Monitor des HZG

(nach oben)


Ein neuer Master-Studiengang Biotechnologie

Dr. Corinne Benzing Öffentlichkeitsarbeit
Technische Hochschule Bingen
Die TH Bingen möchte die Biotechnologie weiter ausbauen. Der SPD-Bundestagsabgeordnete Dr. Joe Weingarten informierte sich zu dem geplanten Master-Studiengang.

Der Bad Kreuznacher Bundestagsabgeordnete Dr. Joe Weingarten besuchte die Technische Hochschule (TH) Bingen. Mit Abstand und unter strengen Hygieneauflagen informierte sich der SPD-Politiker über die Biotechnologie an der Hochschule. Mit der Medizinischen Biotechnologie ist es der TH Bingen im vergangenen Jahr gelungen, einen zweiten Standort in Bad Kreuznach zu eröffnen. Die Bad Kreuznacher wiederum dürfen – dank der Stiftungsprofessur der Sparkasse und der Unterstützung der Stadt – ihre Stadt als Hochschulstandort bezeichnen.

Die Binger denken inzwischen schon weiter und wollen die Studierenden bis zum Master für die Biotech-Region Rhein-Nahe ausbilden. „Ich sehe hier große Entwicklungspotenziale“, betont der Präsident der Hochschule, Prof. Dr.-Ing. Klaus Becker. „Zwischen Rhein und Nahe siedeln bereits zahlreiche namhafte Firmen. Deren rasante Entwicklung während der Pandemie ist ein wichtiges Indiz, dass zukünftig gerade in unserer Region ein verstärkter und nachhaltiger Bedarf an Fachkräften zu erwarten ist.“

Weingarten besuchte die TH Bingen zum zweiten Mal und sagte: „Die Hochschule hat einen großen Einfluss auf die Biotechnologie an Rhein und Nahe. Wir möchten deshalb den Standort und seine Pläne unterstützen. Denn im internationalen Wettbewerb können wir nur mit exzellent ausgebildeten Fachkräften mithalten.“

Im Gespräch mit Prof. Dr. Maik Lehmann vom Studiengang Medizinische Biotechnologie erläutert dieser, wie sich die Binger die Zukunft auf dem Campus in Büdesheim vorstellen: „Der geplante Master ‚Synthetische Biotechnologie‘ ist eine hervorragende Ergänzung. Zwei große Schwerpunkte werden die Künstliche Intelligenz und die Bioprozesstechnik sein. Langfristig benötigen wir den Ausbau dieser Disziplin, damit die Bachelor-Studierenden eine weiterführende Perspektive an der Hochschule haben. Nur so können wir sie auch in der Region halten“, so Lehmann. „Wir haben bereits jetzt zahlreiche Kooperationspartner im Land und darüber hinaus. Sei es für die Medizinische Biotechnologie oder unseren Bachelor Biotechnologie. Sie alle sind sehr daran interesssiert, dass unsere Absolvent*innen den höherwertigen Master in der Tasche haben, wenn sie sich bei ihnen bewerben.“

Doch die Mittel sind wie immer knapp. „Wir hoffen bei dem Master Biotechnologie auf finanzielle Unterstützung“, sagt TH-Präsident Becker mit einem Blick in Richtung Landeshauptstadt. „Es stellt wohl niemand in Frage, dass man hier auf junge Menschen setzt, die eine Zukunftstechnologie studieren und die Innovationen in unserem Land vorantreiben. Es ist in diesen Zeiten sicher eine sehr gute Investition, die sich auszahlen wird.“

(nach oben)


Schnellere und richtigere Diagnosen

UR Präsidialabteilung, Bereich Kommunikation & Marketing
Universität Regensburg
Mathematikdidaktiker:innen aus Regensburg und Mediziner:innen des Klinikums der Ludwig-Maximilians-Universität München haben herausgefunden, dass diagnostische Urteile mithilfe von natürlichen Häufigkeiten und Häufigkeitsbäumen nicht nur öfter korrekt, sondern sogar schneller erfolgen können. Darüber informieren die Forscher:innen nun in einem Artikel in Advances in Health Sciences Education.

Statistische Aussagen korrekt zu lesen will gelernt sein. US-Präsident Trump verkündete etwa im Oktober 2020, dass sich 85% der Menschen, die eine Maske tragen, mit Corona infizieren. „Bei dieser Aussage handelte es sich um eine Verwechslung bedingter Wahrscheinlichkeiten“, sagt Mathematikdidaktikerin Dr. Karin Binder. Tatsächlich habe der frühere US-Präsident die beiden bedingten Wahrscheinlichkeiten „Wie wahrscheinlich ist es, dass ein Maskenträger Corona bekommt?“ vs. „Wie wahrscheinlich ist es, dass ein Corona-Infizierter Maske getragen hat?“ verwechselt. Ähnliche Verwechslungen passieren auch Medizinstudierenden und sogar Ärztinnen und Ärzten. Solche Verwechslungen – und wie man diesen vorbeugen kann – haben die Mathematikdidaktiker*innen Dr. Karin Binder und Professor Dr. Stefan Krauss von der Universität Regensburg zusammen mit den Ärzt:innen und Medizindidaktiker:innen Professor Dr. Ralf Schmidmaier und Dr. Leah Braun vom Klinikum der LMU München untersucht.

Hierzu legen sie Versuchspersonen beispielsweise die folgenden Informationen zum Mammographie-Screening zur Brustkrebsfrüherkennung vor: Eine Frau ist symptomfrei und möchte gerne am Screening teilnehmen. In ihrer Altersklasse liegt die Wahrscheinlichkeit für Brustkrebs bei einem Prozent. Durch das Screening wird die Erkrankung mit einer Wahrscheinlichkeit von 80 Prozent erkannt, wenn die Frau Brustkrebs hat. Wenn die Frau hingegen völlig gesund ist, erhält sie mit einer Wahrscheinlichkeit von etwa 9,6 Prozent fälschlicherweise ein positives Testergebnis. Nun sollten die Medizinstudierenden in der Studie die folgende Frage beantworten: Wie wahrscheinlich ist es, dass eine Frau tatsächlich an Brustkrebs erkrankt ist, wenn Sie ein positives Ergebnis in der Mammographie erhält? Die richtige Lösung kann beispielsweise mithilfe der Formel von Bayes errechnet werden und beträgt knapp 8 Prozent.
Wie bereits aus früheren Studien bekannt war, zeigte sich einerseits, dass Medizinstudierende die statistischen Informationen besser verstehen, wenn diese als sogenannte natürliche Häufigkeiten (z. B. „80 von 100 erkrankten Frauen erhalten ein positives Ergebnis in der Mammographie“) statt in Form von Wahrscheinlichkeiten (z. B. „80% der erkrankten Frauen erhalten ein positives Ergebnis in der Mammographie“) kommuniziert werden. Eine zusätzliche Visualisierung mit Häufigkeitsbäumen (siehe Abbildung) kann ebenfalls dazu beitragen, dass Medizinstudierende die korrekte Lösung finden: Insgesamt erhalten 80 Frauen mit Brustkrebs und 950 Frauen ohne Brustkrebs ein positives Testergebnis – das sind 1.030 Frauen mit einem positivem Testergebnis in der Mammographie. Von diesen 1.030 Frauen sind jedoch nur 80 erkrankt, was dem Prozentsatz von etwa acht Prozent entspricht.

In ihrem Artikel, der jetzt in Advances in Health Sciences Education publiziert wurde, zeigten die Forscher:innen nun, dass natürliche Häufigkeiten und Häufigkeitsbäume nicht nur zu einem höheren Anteil korrekter Diagnosen führen, sondern dass diese auch schneller erfolgten. Da sowohl Korrektheit als auch Schnelligkeit von Diagnosen im Alltag eines Arztes oder einer Ärztin äußerst wichtig sind, wurde der Anteil richtiger Antworten und die Zeitspanne, die für die Beantwortung jeder Aufgabe benötigt wird, zu einem gemeinsamen Maß, der „Diagnoseeffizienz“, zusammengefasst. Die berechnete Diagnoseeffizienz kann anschaulich wie folgt interpretiert werden:
„Stellen Sie sich zwei Schlangen von Medizinstudierenden vor“, sagt Karin Binder. In der linken Schlange müssen die Studierenden die Aufgabe in Wahrscheinlichkeiten und ohne Baum lösen. Die Studierenden rechts erhalten die Informationen in Form natürlicher Häufigkeiten und einem Baumdiagramm. Nun müssen die Studierenden nacheinander die Aufgabe lösen. Sobald sie eine Antwort niedergeschrieben haben, ist der nächste Student in der Schlange dran … so lange, bis die erste richtige Antwort kommt.
In der Variante mit Wahrscheinlichkeiten ohne Baum dauert das über eine Stunde und 16 Minuten, denn erst etwa der/die 17. Medizinstudierende kann für die Aufgabe eine korrekte Lösung angeben. In der Variante mit Häufigkeiten und Baum ist die erste richtige Antwort schon nach knapp fünf Minuten auf dem Tisch, denn hier lösen ca. 60% der Versuchspersonen die Aufgabe richtig und benötigen dafür durchschnittlich knapp drei Minuten. Die Erkenntnisse sollen bei der Weiterentwicklung medizinischer Curricula helfen und zur Verbesserung der Ausbildung von Medizinstudierenden führen.

Wissenschaftliche Ansprechpartner:
Dr. Karin Binder
Universität Regensburg
Fakultät für Mathematik
Telefon +49 941 943-2786
karin.binder@ur.de

Originalpublikation:
https://link.springer.com/article/10.1007/s10459-020-10025-8
https://doi.org/10.1007/s10459-020-10025-8

Weitere Informationen:
https://www.uni-regensburg.de/mathematik/didaktik-mathematik/team/karin-binder/i…

(nach oben)


Perspektiven-Papier zeigt Forschungsbedarf zur unterirdischen Wasserstoffspeicherung

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Team von GEO*8 und Uni Edinburgh analysiert Herausforderungen und Wissenslücken bei der Speicherung von Wasserstoff in porösen Gesteinsreservoiren – als Voraussetzung für eine globale Wasserstoffwirtschaft.

Grüner Wasserstoff, erzeugt mit regenerativen Energien, soll zu einer tragenden Säule werden, um die Klimaziele zu erreichen. So hat es die Bundesregierung in ihrer Nationalen Wasserstoffstrategie 2020 beschlossen. In dieser Woche wurde auf der Deutschen Wasserstoffvollversammlung der Entwicklungsstand von Technologie, Produkten und Projekten diskutiert. Ein jetzt im Journal Energy & Environmental Sciences erschienenes Perspektiven-Papier nimmt die Herausforderungen und Wissenslücken bei der unterirdischen Speicherung von Wasserstoff in großem Maßstab in den Blick. Sie ist nach Ansicht der Autor*innen unerlässlich, wenn Wasserstoff sein Potenzial zum Erreichen von Netto-Null-Emissionen voll ausschöpfen soll. Verfasst wurde das Papier in Kooperation von GEO*8, einem Zusammenschluss führender europäischer geowissenschaftlicher Forschungsorganisationen, darunter auch das Deutsche GeoForschungsZentrum Potsdam, mit dem schottischen Projekt HyStorPor. Die Autor*innen sehen einen dringenden Bedarf an disziplinenübergreifender Forschung, um die sichere und effiziente unterirdische Speicherung von Wasserstoff zu realisieren.

Potenzial von Wasserstoff
Wasserstoff steht international im Fokus der Aufmerksamkeit, weil er dazu beitragen kann, Bereiche wie Verkehr, Heizung und energieintensive Industrien wie die Chemie- und Stahlindustrie zu dekarbonisieren. Vor allem ist er ein Schlüssel, um einen entscheidenden Nachteil der erneuerbaren Energieerzeugung zu mildern: ihre Unbeständigkeit. Überschüssige erneuerbare Energie kann durch Elektrolyse in Wasserstoff umgewandelt (grüner Wasserstoff) und so für die Nutzung in Zeiten hohen Energiebedarfs gespeichert werden.

Speicherung in unterirdischen Reservoiren
Um die Versorgung mit Wasserstoff in einer Größenordnung zu ermöglichen, die für eine kohlenstofffreie Zukunft erforderlich ist, müsse er in unterirdischen porösen Gesteinsformationen gespeichert werden, etwa in salzhaltigen Aquiferen und erschöpften Öl- und Erdgasreservoiren, heißt es in dem Papier. Trotz der beträchtlichen Möglichkeiten, die eine solche Speicherung bietet, ist sie noch weitgehend unerprobt und mit zahlreichen Unsicherheiten und Herausforderungen verbunden. Das liege, so die Autor*innen der Studie, vor allem an einer bislang unzureichenden systematischen Erforschung.

Wichtige Fragen offen
„Das Papier wertet den aktuellen Stand der Forschung zur Wasserstoffspeicherung aus und identifiziert die wichtigsten Herausforderungen, die angegangen werden müssen, um einen globalen Einsatz zu ermöglichen“, sagt Niklas Heinemann, HyStorPor-Forscher an der Universität Edinburgh und Erstautor der Studie. Dazu gehören das Fließverhalten von Wasserstoff in unterirdischen Lagerstätten, geochemische Reaktionen, die durch das Einbringen von Wasserstoff ausgelöst werden, biotische Reaktionen, die durch das Vorhandensein von überschüssigem Wasserstoff ermöglicht werden, und die geomechanische Reaktion des Untergrunds auf die Wasserstoffspeicherung.

Die Risiken, die von diesen Prozessen ausgehen, können schwerwiegende wirtschaftliche und sicherheitstechnische Folgen für den Speicherbetrieb haben. Die diskutierten Prozesse und ihre gekoppelten Einflüsse bilden die grundlegende Basis für Modelle auf Reservoir-Skala, um die Auswirkungen der saisonalen Wasserstoffspeicherung genau zu bewerten und vorherzusagen. Diese Vorhersagen können den Weg zu einer fundierten Entscheidungsfindung in Bezug auf Betriebsstrategien weisen, um eine sichere und effiziente Implementierung solcher Lagerstätten zu gewährleisten.

Vielfältige Forschung nötig
„Wir brauchen multidisziplinäre Forschung, um den sicheren, effizienten und dringend benötigten großtechnischen Einsatz der unterirdischen Speicherung zu realisieren“, sagt Jens Kallmeyer, Leiter des Labors für Aquatische Geochemie und Mitarbeiter der Sektion Geomikrobiologie am GFZ. „Dazu gehören Lagerstättentechnik, Chemie, Geologie und Mikrobiologie. Die Erkenntnisse aus der Methan- oder CO2-Speicherung lassen sich nur zu einem sehr geringen Teil auf die Wasserstoffspeicherung übertragen.“

Die vorliegende Studie geht zurück auf einen GEO*8-Workshop, der 2019 am GFZ abgehalten wurde.

Link:
https://media.gfz-potsdam.de/gfz/wv/pm/21/11413_Skizze_Wasserstoffspeicherung_He…

Wissenschaftliche Ansprechpartner:
Dr. Jens Kallmeyer
Sektion Geomikrobiologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28785
E-Mail: jens.kallmeyer@gfz-potsdam.de

Originalpublikation:
N. Heinemann, J. Alcalde, J. M. Miocic, S. J. T. Hangx, J. Kallmeyer, C. Ostertag-Henning, A. Hassanpouryouzband, E. M. Thaysen, G. J. Strobel, M. Wilkinson, C. Schmidt-Hattenberger, K. Edlmann, M. Bentham, R. S. Haszeldine, R. Carbonell and A. Rudloff, Enabling large-scale hydrogen storage in porous media – the scientific challenges, Energy Environ. Sci., 2021. DOI: 10.1039/D0EE03536J

Weitere Informationen:
https://geo8.eu/
https://blogs.ed.ac.uk/hystorpor/

(nach oben)


BAuA-Arbeitszeitbefragung: Arbeitszeitgeschehen zeigt positive Trends bei hoher Stabilität

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Zwischen 2015 und 2019 haben sich Länge, Lage und Flexibilität der Arbeitszeit in Deutschland kaum verändert. Dies zeigt ein Vergleich der BAuA-Arbeitszeitbefragungen 2015, 2017 und 2019, den die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) jetzt veröffentlicht hat. Dennoch offenbart die Längsschnittstudie einige Trends, die auch vor dem Hintergrund der herrschenden Corona-Epidemie an Bedeutung gewinnen. So zeigt sich beispielsweise bereits im Zeitraum vor der Epidemie ein Anwachsen von Telearbeit und Homeoffice sowie ein Anstieg bei den Arbeitszeitkonten.

Die Befragten berichten insgesamt über einen größeren Einfluss auf ihre Arbeitszeit. Gleichzeitig wünschen immer mehr Beschäftigte in Vollzeit eine Verkürzung ihrer Arbeitszeit. Der Bericht „BAuA-Arbeitszeitbefragung: Vergleich 2015 – 2017 – 2019“ betrachtet dabei auch die versorgungsrelevanten Berufe, die im Schnitt ungünstigere Arbeitszeitbedingungen aufzeigen. Zudem werden auch erste Befunde und Hypothesen zu langfristigen Auswirkungen der Corona-Krise diskutiert

Die BAuA-Arbeitszeitbefragung ist als Panelstudie angelegt und begann 2015 mit der Befragung von rund 20.000 abhängig Beschäftigten. 2017 und 2019 folgten Befragungen von jeweils etwa 10.000 Beschäftigten. Dabei wurden Informationen unter anderem zur Arbeitszeit, zu Arbeitsbedingungen und zur Gesundheit abgefragt.

Während die vereinbarte Arbeitszeit in Vollzeit nahezu konstant bei 38,7 Stunden liegt, hat sich die Arbeitszeit der Teilzeitkräfte im Betrachtungszeitraum kontinuierlich verlängert (2015:22,4 h / 2019:23,8 h). Insgesamt nahm die Dauer der geleisteten Überstunden um etwa 30 Minuten auf 3,4 Stunden pro Woche in 2019 ab. Auch der Wunsch nach Verkürzung nahm bei den Befragten über die Jahre hinweg zu, insbesondere bei den vollzeitbeschäftigten Männern.

Rund 40 Prozent der Beschäftigten arbeiten am Wochenende, etwa jeder fünfte Befragte zu atypischen Arbeitszeiten, außerhalb des Zeitfensters von 7 bis 19 Uhr. Während die Beschäftigten durchschnittlich mehr Einfluss auf ihre Arbeitszeit, wie Beginn, Ende oder Pausengestaltung, gewonnen haben, gingen die Anforderungen an ihre Flexibilität, wie Rufbereitschaft oder Bereitschaftsdienst, zurück. Zudem stieg der Anteil der Beschäftigten mit Arbeitszeitkonten um fünf Prozentpunkte auf 66 Prozent in 2019. Seit 2015 nahm der Anteil der Telearbeit kontinuierlich zu. So hatten 2019 etwa 16 Prozent der Beschäftigten mit ihrem Arbeitgeber eine Vereinbarung zum Homeoffice getroffen.

In einem Exkurs befasst sich der Bericht mit den „versorgungsrelevanten Berufen“. Ein knappes Drittel (30,2 %) der Beschäftigten arbeitet in Bereichen, wie dem Gesundheitssystem, Transport und Verkehr oder in der Lebensmittelversorgung. Um Dienstleistungen oder die Betreuung von Infrastrukturen zu gewährleisten, ist hier die Arbeit zu atypischen Zeiten stark verbreitet. Unvorhergesehene Ereignisse fordern von den Beschäftigten häufig eine hohe Flexibilität. Zudem haben sie einen geringeren Einfluss auf die eigene Arbeitszeit und seltener die Möglichkeit zur Telearbeit. Häufigere verkürzte Ruhezeiten erschweren die Erholung. Insgesamt sind hier langfristig negative Auswirkungen auf Gesundheit und Work-Life-Balance deshalb wahrscheinlicher.

Der Bericht verdeutlich jedoch insgesamt eine hohe Stabilität des Arbeitszeitgeschehens in Deutschland. Mit der vierten Befragungswelle wird in diesem Jahr die Arbeitszeitberichterstattung der BAuA fortgesetzt. Dabei werden die Folgen der SARS-CoV-2-Epidemie auf die Arbeitszeitrealitäten besonders betrachtet werden.

„BAuA-Arbeitszeitbefragung: Vergleich 2015 – 2017 – 2019“; Nils Backhaus, Anne Marit Wöhrmann, Anita Tisch; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2020; 105 Seiten; ISBN 978-3-88261-734-4; doi:10.21934/baua:bericht20201217. Den Bericht gibt es im PDF-Format im Internetangebot der BAuA unter http://www.baua.de/dok/8851216.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 750 Beschäftigte.
http://www.baua.de

(nach oben)


Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Saurer Regen gehört eigentlich der Vergangenheit an, doch noch immer steigen die Sulfatkonzentrationen in vielen Binnengewässern weltweit. Forschende unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der dänischen Universität Aarhus geben in einer neuen Studie einen Überblick, aus welchen Quellen das Sulfat heute stammt und welche Folgen es hat. Sie weisen darauf hin, dass die negativen Folgen für Ökosysteme und Trinkwassergewinnung bisher nur regional wahrgenommen werden und empfehlen, Sulfat stärker in rechtlichen Umweltstandards zu berücksichtigen.

„Saurer Regen“ war ein Phänomen der 1980er Jahre, als bei der Verbrennung fossiler Brennstoffe große Mengen an Schwefel in die Atmosphäre gelangten. Nachdem Kraftwerke in Nordamerika und Europa zur Rauchgasentschwefelung nachgerüstet wurden, schien die Gefahr zunächst gebannt. In Deutschland sanken die atmosphärischen Schwefeleinträge um 90 Prozent. In Binnengewässern blieben die Konzentrationen an Sulfat, das aus Schwefel gebildet wird, in den letzten Jahrzehnten dennoch nahezu unverändert; in einigen Regionen stiegen sie sogar. Für die Forschenden ein klares Zeichen dafür, dass andere Quellen an Bedeutung gewonnen haben.

Entwässerung, Kunstdünger und Braunkohletagebau zählen zu den Hauptursachen:
Gelöstes Sulfat entsteht in Binnengewässern natürlicherweise durch die Verwitterung von Mineralien, bei Vulkanismus oder beim Abbau von organischem Material. Doch vor allem menschliche Aktivitäten lassen die Konzentrationen von Sulfat im Wasser deutlich ansteigen. Neben den atmosphärischen Einträgen sind dafür insbesondere die Entwässerung von Mooren, die Absenkung des Grundwasserspiegels für den Braunkohletagebau, Düngerauswaschungen aus landwirtschaftlich genutzten Böden sowie Abwässer aus Landwirtschaft und Industrie verantwortlich. Weltweit macht der landwirtschaftliche Einsatz von schwefelhaltigen Substanzen rund 50 Prozent des jährlich in die Umwelt eingetragenen Schwefels aus. So gelangt in einigen Regionen der Welt heute mehr Schwefel in Böden und Gewässer als zum Höhepunkt des sauren Regens.

Der Klimawandel verschärft die Situation:
Die Folgen des Klimawandels tragen zu einer Verschärfung bei: „Zunehmender Starkregen spült schwefelhaltige Böden und Dünger in Gewässer; größere Flächen von Feuchtgebieten fallen trocken; durch steigende Meeresspiegel gelangt sulfatreiches Salzwasser ins Grundwasser und in Flüsse, wo es die Sulfatkonzentrationen erheblich erhöhen kann“, fasst Dr. Dominik Zak von der dänischen Universität Aarhus die Prognosen zusammen, die er und seine Mitautor*innen in der Übersichtsstudie zusammengetragen haben.

Negative Folgen für Mensch und Ökosysteme:
Die Spree ist ein Beispiel für Flüsse, in denen die Sulfatkonzentrationen als Folge des Braunkohletagebaus angestiegen sind. In einigen Abschnitten überschreitet sie schon heute den Trinkwassergrenzwert von 250 Milligramm pro Liter. „Das ist problematisch, da diese Gewässer als Trinkwasserquelle genutzt werden – typischerweise über Grundwasserentnahme und durch Uferfiltration. Nach wie vor spielt der Braunkohleabbau in vielen Regionen der Welt eine bedeutende Rolle, und überall dort sind Sulfatbelastungen in Gewässern und dem Trinkwasser ein Thema. Auch wenn wir in Deutschland den Ausstieg aus der Braunkohleförderung beschlossen haben, werden uns die Sulfateinträge in unsere Gewässer als Umweltproblem längerfristig erhalten bleiben“, prognostiziert IGB-Forscher Dr. Tobias Goldhammer, einer der Autoren der Studie.

Sulfat beeinträchtigt nicht nur die Trinkwasserqualität, es beeinflusst auch die Stoffkreisläufe von Kohlenstoff, Stickstoff und Phosphor. Das steigert unter anderem den Nährstoffgehalt in Gewässern und damit das Pflanzen- und Algenwachstum sowie das Nahrungsangebot für aquatische Organismen. Die Folge ist ein Sauerstoffmangel im Wasser, der die weitere Freisetzung von Phosphat aus dem Sediment fördert – ein Teufelskreis. Sulfat und seine Abbauprodukte – insbesondere Sulfid – können zudem giftig auf aquatische Lebewesen wirken.

Renaturierte Moorflächen binden Schwefel:
Die biologische Sanierung mithilfe lebender Organismen wie Prokaryonten, Pilzen oder Pflanzen ist eine Möglichkeit, um Schadstoffe aus Ökosystemen zu entfernen. Pflanzenkläranlagen, Bioreaktoren und durchlässige reaktive Barrieren können auch die Sulfatbelastungen in Gewässern mindern. Viel versprechen sich die Wissenschaftler*innen dabei von der Renaturierung von Mooren: Durch die flächendeckende Trockenlegung von Feuchtgebieten wurden Schwefel und schwefelhaltige Eisenverbindungen freigesetzt. Die Wiedervernässung dieser Flächen kann die Freisetzung stoppen und sogar Schwefel speichern: Gelangt dann mit Sulfat angereichertes Wasser über Grund- oder Oberflächenwasser in diese Feuchtgebiete, wird es dort gefiltert.

Sulfat ist ein globales Umweltproblem:
„Es besteht großer Handlungsbedarf, die Sulfatkonzentrationen in Gewässern zu verringern. Da die Probleme im Zusammenhang mit hohen Sulfateinträgen bisher vor allem regional wahrgenommen werden, sind die Auswirkungen auf Binnengewässer noch nicht als global aufkommendes Umweltproblem erkannt. So haben viele Länder dafür keine Umweltstandards definiert. Wir möchten mit unserer Studie auf die Problematik aufmerksam machen, den derzeitigen Stand zur Sulfatbelastung aufzeigen und gleichzeitig auf die noch zahlreichen Wissenslücken hinweisen“, fasst Dominik Zak zusammen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von sieben natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/

Wissenschaftliche Ansprechpartner:
Dr. Tobias Goldhammer
Leiter der IGB-Forschungsgruppe „Nährstoffkreisläufe und chemische Analytik“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: goldhammer@igb-berlin.de

Dr. Dominik Zak
Department of Bioscience
Aarhus University, Dänemark
Email: doz@bios.au.dk

Originalpublikation:
Zak D, Hupfer M, Cabezas A, Jurasinski G, Audet J, Kleeberg A, McInnes R, Munch Kristiansen S, Petersen RJ, Liu H, Goldhammer T (2020) Sulphate in freshwater ecosystems: A review of sources, biogeochemical cycles, ecotoxicological effects and bioremediation. Earth Science Reviews doi:10.1016/j.earscirev.2020.103446

Weitere Informationen:
https://www.igb-berlin.de/news/saurer-regen-war-gestern

(nach oben)


Wärmere Winter führen zu weniger Heringsnachwuchs in der westlichen Ostsee

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Forschende vom Thünen-Institut für Ostseefischerei zeigen, dass vor allem die Erwärmung des Meerwassers im Winter zu massivem Rückgang der Heringslarven führt / Veröffentlichung in Frontiers in Marine Science erschienen

Der Rückgang des Nachwuchses beim Hering der westlichen Ostsee ist eine direkte Folge der Erwärmung des Meeres und der Verschiebung der Jahreszeiten. Erstmals ist es Forschenden am Thünen-Institut für Ostseefischerei in Rostock gelungen, einen solchen Nachweis für eine kommerziell genutzte Fischart zu führen. Die Ergebnisse der Forschergruppe um Dr. Patrick Polte, Leiter der Arbeitsgruppe Heringsrekrutierung am Thünen-Institut, sind jetzt in einem Fachartikel in der Zeitschrift Frontiers in Marine Science publiziert worden.

„Wir beobachten die Laichtätigkeit des Herings im Greifswalder Bodden und Strelasund seit fast 30 Jahren, nehmen jede Woche über den gesamten Laichzeitraum an vielen Stellen Proben. Der sogenannte Rügen-Heringslarvensurvey ist damit die längste zusammenhängende und hochaufgelöste Datenserie zur frühen Lebensgeschichte eines kommerziell genutzten Fischbestands“, sagt Patrick Polte.

Der Greifswalder Bodden ist so etwas wie die Kinderstube des Heringsbestandes der westlichen Ostsee. Im Winter sammeln sich die Tiere, von ihren Sommergründen in Kattegat und Skagerrak kommend, im Öresund zwischen Dänemark und Schweden. Von dort aus machen sie sich auf den Weg in ihre Laichgebiete an der Südküste der westlichen Ostsee und laichen im Frühjahr an Wasserpflanzen im Flachwasser – ein Automatismus, der seit Jahrtausenden funktioniert. Doch seit 15 Jahren geht die Anzahl der Jungheringe signifikant zurück.

Das Rostocker Team hat seither systematisch nach den Ursachen gesucht. In einer Kombination aus Feldforschung und Zeitreihenanalyse habe sich schließlich gezeigt, dass die Heringe früher in den Bodden schwimmen als noch vor 15 Jahren, so Polte. Die Wissenschaftler können dies auf die schwächeren und verspäteten Kälteperioden in der Ostsee zurückführen. Außerdem entwickeln sich die Eier bei höheren Temperaturen schneller. „Daher schlüpfen die Larven rund 14 Tage früher als noch vor 30 Jahren“, erläutert Patrick Polte. Das Problem: Nach wenigen Tagen haben die Heringslarven ihren Dottersack aufgezehrt und brauchen dann winzigen Zooplankton-Nachwuchs als Futter. Das allerdings, so erste Ergebnisse weiterer Studien, scheint zu diesem frühen Zeitpunkt noch nicht in ausreichendem Maße vorhanden zu sein, weil es – anders als die Heringslarven – lichtgesteuert entsteht. Die Folge: Die Larven verhungern, die Zahl erwachsener und damit laichbereiter Heringe geht von Jahr zu Jahr zurück.

Aufgrund des kleiner werdenden Bestandes wurde die von den EU-Fischereiministern festgesetzte Fangmenge für Hering in der westlichen Ostsee immer weiter reduziert, allein seit 2017 um 94 Prozent. In diesem Jahr dürfen nur noch 1.575 Tonnen Hering gefangen werden. „Das kommt einer Schließung der Heringsfischerei sehr nahe“, sagt Dr. Christopher Zimmermann, Leiter des Thünen-Instituts für Ostseefischerei. „Mit unserer Studie wird auch klar, dass der Klimawandel bereits heute wirtschaftlich erhebliche Auswirkungen hat, nicht erst in 30 Jahren: Der Bestand ist nur noch halb so produktiv wie vor 30 Jahren. Trotzdem könnten noch 20.000 Tonnen Hering aus der westlichen Ostsee gefischt werden, wenn der Bestand in gutem Zustand wäre“, so Zimmermann weiter. Eine Erholung und nachhaltige Nutzung sei jedoch innerhalb von 5-6 Jahren möglich, wenn die Fangmengen niedrig blieben. Ein kalter Winter könnte die Erholung zudem beschleunigen – der ist aber nicht in Sicht.

Wissenschaftliche Ansprechpartner:
Dr. Patrick Polte
Thünen-Institut für Ostseefischerei, Rostock
Tel.: +49 381 66099 103
E-Mail: patrick.polte@thuenen.de

Originalpublikation:
Reduced Reproductive Success of Western Baltic Herring (Clupea harengus) as a Response to Warming Winters. Front. Mar. Sci., 2021
http://www.frontiersin.org/articles/10.3389/fmars.2021.589242/full?&utm_source=Email_to_authors_&utm_medium=Email&utm_content=T1_11.5e1_author&utm_campaign=Email_publication&field=&journalName=Frontiers_in_Marine_Science&id=589242
https://doi.org/10.3389/fmars.2021.589242

(nach oben)


Ganzheitliches Aktivkohleverfahren beseitigt Spurenstoffe in Kläranlagen

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Kläranlagen greifen zur Reinigung unseres Abwassers auf eine Reihe von wirk-samen und etablierten Verfahren zurück, doch eine einheitlich anerkannte, ideale Methode zur Entfernung von Spurenstoffen gibt es bisher nicht. Forschende des Fraunhofer-Instituts für Umwelt-, Sicherheits- und Energietechnik UMSICHT wollen dies ändern. Mit »ZeroTrace« haben sie einen ganzheitlichen Ansatz mit selbstentwickelten Komposit-Aktivkohlen und einem neuen elektrischen Regenerationsverfahren geschaffen, der Effizienz, Massentauglichkeit und Nachhaltigkeit verspricht.

Öffnet man in Deutschland den Wasserhahn, hat das herausströmende Wasser in der Regel beste Trinkwasserqualität. Dies liegt nicht zuletzt an den vielen Kläranlagen, die unser Abwasser mit mechanischen, biologischen und chemischen Verfahren erfolgreich säubern und verunreinigende Bestandteile wirksam entfernen. Spurenstoffe, wie Arzneimittelrückstände, Haushaltschemikalien oder Röntgenkontrastmittel lassen sich damit bisher jedoch kaum entfernen. Doch gerade diese können Mensch und Tier bereits in sehr geringen Mengen gefährlich werden.

Um diesem Problem zu begegnen, werden Kläranlagen zunehmend mit einer weiteren Reinigungsstufe nachgerüstet, die Spurenstoffe entfernen soll. Neben chemisch-oxidativen Maßnahmen, bei denen problematische Beiprodukte entstehen können, wird hierbei vor allem auf Aktivkohlen gesetzt. Diese haben wegen ihrer porösen Grundstruktur eine enorm große innere Oberfläche – schon bei vier Gramm Aktivkohle entspricht sie in etwa der Fläche eines Fußballfeldes – und können andere Stoffe in Abhängigkeit von deren Ladung adsorbieren, also ähnlich wie ein Schwamm in sich aufsaugen.

Stärkere Berücksichtigung von Nachhaltigkeitsaspekten
Doch obwohl Spurenstoffe so in der Regel wirksam aus dem Ablauf entfernt werden können, hat das Verfahren in der Praxis häufig einen Haken, erklärt Ilka Gehrke, Abteilungsleiterin Umwelt und Ressourcennutzung am Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT in Oberhausen: »Bisher wird meist pulvrige Aktivkohle eingesetzt. Sobald diese voll beladen ist und keine Stoffe mehr adsorbieren kann, wird sie schlichtweg verbrannt. Unter Nachhaltigkeitsaspekten ist das sehr problematisch, zumal Aktivkohle häufig aus nicht-nachwachsenden Rohstoffen, nämlich ganz normaler Steinkohle, hergestellt wird.«

Forschende des Fraunhofer UMSICHT haben es sich daher in Zusammenarbeit mit mehreren Industriepartnern im vom Bundesministerium für Bildung und Forschung geförderten Projekt »ZeroTrace« zum Ziel gesetzt, den Einsatz von Aktivkohlen zur Beseitigung von Spurenstoffen im Abwasser zu optimieren und haben hierfür einen ganzheitlichen Ansatz entwickelt. Begleitet wurde der Prozess durch Forschung im Innovations- und Ressourcenmanagement, die es ermöglichte, sozio-ökonomische sowie ökologische Innovationstreiber und -bremser von Anfang an mit zu berücksichtigen.

Als Ausgangsstoff für ihr Verfahren setzen Gehrke und ihr Team auf Aktivkohlen aus nachwachsenden Materialien wie Holz oder Kokosnuss in granulierter Form. Derartige Pellets können im Gegensatz zu Aktivkohlepulver bei sehr hohen Temperaturen reaktiviert, dadurch von den adsorbierten Stoffen befreit und wiederverwendet werden. Derzeit müssen die Aktivkohlen hierfür jedoch meist erst weit transportiert werden und weil sich die Kohlen beim Durchmischen im Wirbelbett gegenseitig abreiben, gibt es hohe Materialverluste.

Von der passenden Regenerationsmethode zum benötigten Ausgangsprodukt
Ziel der Forschenden war es daher ein Regenerationsverfahren zu entwickeln, das direkt vor Ort am jeweiligen Kläranlagengelände durchgeführt werden kann. »Hierfür nutzen wir die physikalische Wirkung von elektrischen Feldern aus«, erklärt Gehrke. »Diesen Gedanken hatten vor uns bereits andere für den Bereich der Gasreinigung und viele dieser Grundlagen konnten wir für unser Vorhaben auf den Flüssigbereich übertragen. Zu der Zeit waren elektrisch betriebene Verfahren aber sehr teuer und derartige Forschungsprojekte wurden nicht weiter verfolgt. Heute dagegen werden wir uns zunehmend den fluktuierenden Stromanfall von regenerativen Energien zunutze machen können. Hier wird in Zukunft erwartet, dass bei Stromspitzen Strom zu niedrigen Kosten verfügbar ist.«

Die Idee hinter dem neuen Verfahren, basierend auf der sogenannten Electric Field Swing Adsorption (EFSA), ist es, die Kohlen elektrisch so zu erhitzen, dass die Schadstoffe auf den Kohlen desorbieren oder schlichtweg verbrennen. Damit dies funktioniert, müssen sowohl die Aktivkohlen als auch der Reaktor bestimmte Voraussetzungen erfüllen. So müssen die verwendeten Aktivkohlen eine hohe elektrische Leitfähigkeit aufweisen, damit genug Strom durch sie hindurchfließen kann. Trotzdem muss der Materialwiderstand groß genug sein, dass sie sich dabei ausreichend erhitzen. Gehrke und ihr Team entwickelten hierfür eigene Komposit-Aktivkohlen. Dem Grundmaterial Holzkohlenmehl mischten sie Grafit bei und erzielten dadurch eine elektrische Leitfähigkeit, die bei gleichbleibender Adsorptionsfähigkeit dreimal so hoch ist wie bei herkömmlichen Aktivkohlen. Bei der Reaktorkonstruktion bestand die Schwierigkeit darin, diesen so zu bauen, dass er auch hohen Temperaturen von bis zu 650 Grad standhält. In Bezug auf die Funktionsweise setzen Gehrke und ihre Kollegen auf eine kontinuierliche Regeneration: »Die Idee ist, dem Becken laufend über ein Förderband kleine Aktivkohlemengen zu entnehmen, diese zu regenerieren und wieder zurückzuführen. Dazu reicht dann ein verhältnismäßig kleiner Reaktor aus, weil sich nie alle Aktivkohlen gleichzeitig darin befinden und der Regenerationsprozess nur ein paar Minuten dauert. Da sich die Aktivkohlen im Reaktor selbst nicht bewegen, ist der Verschleiß gering und wir rechnen damit, dass wir pro Durchgang mit maximal zehn Prozent neuen Aktivkohlen auffrischen müssen.«

Vielversprechende und anschlussfähige Ergebnisse
Die selbst hergestellten Komposit-Aktivkohlen konnten bei Tests auf der Partnerkläranlage Wuppertal-Buchenhofen bereits erfolgreich mit Spurenstoffen beladen werden. Das Regenerationsverfahren führten die Forschenden an einem Protypenreaktor mit einem Fassungsvermögen von 40 bis 50 Litern außerhalb des Kläranlagengeländes durch und erzielten dabei erfreuliche Ergebnisse. Nach einer fast dreijährigen Projektphase zieht Ilka Gehrke daher ein positives Fazit: »Unsere Tests haben gezeigt, dass unser Verfahren ressourcenschonend und dabei gleichzeitig wirtschaftlich und konkurrenzfähig ist.« Aktuell diskutieren die Beteiligten über mögliche Nachfolgeprojekte mit Umsetzungen im größeren Maßstab direkt vor Ort.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2021/februar-2021/ganzhe…

(nach oben)


Verborgenes Wissen heben, um Ökovielfalt der Meere zu retten

Sandra Sieraad Medien und News
Universität Bielefeld
Den Schutz der Lebensräume und der Artenvielfalt in den Meeren und an den Küsten in Zukunft effizienter gestalten: Ein neues Verbundprojekt forscht an den Grundlagen dafür. In dem Projekt arbeiten Wissenschaftler*innen aus der Ökonomie und der Ökologie zusammen. Sie beschäftigen sich mit der Frage, wie bessere Entscheidungen im Umwelt- und Artenschutz gefällt werden können, auch unter den Bedingungen von Unsicherheit und unvollständigen Informationen. Für das Forschungsprojekt „Value of Information“ (Informationswerte) kooperiert die Universität Bielefeld mit dem Helmholtz-Institut für Funktionelle Marine Biodiversität an der Universität Oldenburg (HIFMB).

„Der Umwelt- und Artenschutz gehören zu den zentralen Herausforderungen der heutigen Zeit“, sagt Privatdozent Dr. Thorsten Upmann. Der Wirtschaftswissenschaftler forscht sowohl an der Universität Bielefeld als auch am HIFMB und leitet das neue Projekt. „Um die Erderwärmung zu begrenzen und Tier- und Pflanzenarten zu schützen, ist rasches Handeln erforderlich – auf Basis wissenschaftlicher Daten“, sagt Upmann. Um beispielsweise gefährdete Tierarten schützen zu können, ist es nötig, den Lebensraum der jeweiligen Population genau zu kennen und die Zusammenhänge innerhalb dieses Ökosystems zu verstehen. Die Forschung und Datengewinnung ist gerade im Kontext mariner Lebensräume sehr kosten- und zeitintensiv. „Durch den voranschreitenden Klimawandel und das Artensterben steht die Suche nach den besten Lösungen zusätzlich unter Zeitdruck“, sagt Upmann. An dieser Stelle setzt das neue Forschungsprojekt an.

Die richtigen Informationen für zielführende Entscheidungen
Täglich fällen Menschen Entscheidungen. Dabei ist der Ablauf bei den meisten Personen wahrscheinlich ähnlich: Eine Person informiert sich, vergleicht und fragt andere Personen nach ihrer Erfahrung oder Meinung. Anschließend wägt sie die gewonnenen Informationen ab und fällt eine Entscheidung. „Die Frage, welche Informationen als Grundlage für die Entscheidung zur Verfügung stehen, ist für den Entscheidungsprozess von zentraler Bedeutung“, erklärt Thorsten Upmann. Oft fehlen im Alltag jedoch relevante Informationen. Das kann am Zeitdruck liegen oder daran, dass Informationen zunächst nicht verfügbar sind.

Ökosysteme in den Meeren sind komplexe Systeme von Lebewesen
Trotz solcher Beschränkungen treffen Menschen Entscheidungen auf Basis der Informationen und der Wissenslücken, die zum jeweiligen Zeitpunkt bestehen. „Beim Schutz der marinen Biodiversität – also der biologischen Vielfalt in den Meeren und an den Küsten – ist die Situation ähnlich“, sagt Thorsten Upmann. „Wissenschaftler*innen, die die dortigen Ökosysteme erforschen, haben es mit komplexen Systeme zu tun, in denen es zu vielseitigen Wechselwirkungen kommt. Die Forschung kann lediglich eine Momentaufnahme in solch einem dynamischen System festhalten. Die Beobachtungen und damit die gewonnen Daten sind also immer selektiv und unvollständig.“ Zusätzlich sei die Forschung zu den Ökosystemen langwierig und aufwändig. Deswegen könne lediglich eine Auswahl von Forschungsprojekten realisiert werden.

Doch welche Wissenslücken müssen gefüllt werden, um sinnvolle Entscheidungen im Umwelt- und Artenschutz fällen zu können? Welche Forschungsprojekte sind am geeignetsten, um diese Lücken zu füllen? Und in welchen Fällen ist schon genug Wissen vorhanden, um erfolgsversprechende Maßnahmen in der Politik einzuleiten? „Unser Projekt soll dazu beitragen, zielführende Entscheidungen trotz Ungewissheit treffen zu können“, sagt Upmann. Dazu arbeiten Forschende sowohl mit den Methoden der Datenwissenschaft als auch der Modellierung. Durch die Datenwissenschaft können die Forschenden große Datenmengen automatisiert auswerten, während sie durch die Modellierung der Daten die chancenreichsten Maßnahmen zum Schutz der natürlichen Lebensräume und der Artenvielfalt ableiten können. „Auf diese Weise können wir zum Beispiel ermitteln, zu welchen gefährdeten Tierarten umfassend geforscht werden sollte.“

Handlungsempfehlungen für den Schutz der Arten
Thorsten Upmann forscht als Ökonom schon seit Jahren dazu, wie sich die Akteur*innen in einem Wirtschaftssystem regional oder überregional gegenseitig beeinflussen. „Auf die gleiche Art können wir auch modellieren, wie die Lebewesen in maritimen Regionen miteinander interagieren.“ So profitieren die Umweltwissenschaften von den Wirtschaftswissenschaften. In dem Projekt erstellen die Forschenden Modelle, mit denen sie etwa nachvollziehbar machen, wie Pflanzen- und Tierpopulationen in einem bestimmten Küstengebiet zusammenhängen. Aus solchen Modellen der marinen Biodiversität lassen sich Handlungsempfehlungen für den Schutz der jeweiligen Arten ableiten.

Das Projekt „Value of Information“ läuft von Januar 2021 bis Dezember 2023. Auf lange Sicht hoffen die beteiligten Wirtschafts- und Umweltwissenschaftler*innen, ihre Forschung zur marinen Biodiversität auch auf andere Bereiche des Naturschutzes und der Biodiversität ausweiten zu können. Mit dem Projekt startet eine langfristige Zusammenarbeit der Fakultät für Wirtschaftswissenschaften der Universität Bielefeld mit der Universität Oldenburg sowie dem Helmholtz-Instituts für Funktionelle Marine Biodiversität an der Universität Oldenburg (HIFMB). Die Kooperation soll die Stärken beider Partner verbinden: die Expertise der Bielefelder Forschenden in der Modellierung und den Datenwissenschaften mit der Expertise der Forschenden in Oldenburg in der Ökologie, dem Ökosystemmanagement und dem Schutz mariner Lebensräume.

Wissenschaftliche Ansprechpartner:
PD Dr. Thorsten Upmann, Universität Bielefeld
Fakultät für Wirtschaftswissenschaften
Telefon: 0521 106-4862
E-Mail: tupmann@wiwi.uni-bielefeld.de

Weitere Informationen:
https://www.uni-bielefeld.de/fakultaeten/wirtschaftswissenschaften/einrichtungen… Steckbrief des Projekts „Value of Information“

(nach oben)


Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit

Dr. Andreas Bohlen UP Transfer GmbH an der Universität Potsdam
Universität Potsdam
Monoklonale Antikörper zum Coronavirus-Nachweis jetzt einsatzbereit.
Ergebnisse aus Potsdam unterstützen zuverlässigen Test auf SARS-CoV-2.

Am Forschungsstandort Potsdam Science Park in Golm haben die Wissenschaftler Frank Sellrie und Jörg Schenk von der Arbeitsgruppe Immuntechnologie der UP Transfer GmbH an der Universität Potsdam jetzt monoklonale Antikörper zum Nachweis des Coronavirus SARS-CoV-2 einsatzbereit.

Am Forschungsstandort Potsdam Science Park in Golm haben die Wissenschaftler Frank Sellrie und Jörg Schenk von der Arbeitsgruppe Immuntechnologie der UP Transfer GmbH an der Universität Potsdam jetzt monoklonale Antikörper zum Nachweis des Coronavirus SARS-CoV-2 einsatzbereit.

Seit gut einem halben Jahr arbeiten die Wissenschaftler Frank Sellrie und Jörg Schenk von der Arbeitsgruppe Immuntechnologie der UP Transfer GmbH an der Universität Potsdam an einem Projekt zur Generierung monoklonaler Antikörper gegen das Coronavirus SARS-CoV-2. In diesem vom Bundesministerium für Bildung und Forschung im Rahmen des Förderaufrufs zur Erforschung von COVID-19 geförderten Projekt können nun erste Ergebnisse präsentiert werden.

Der Bedarf an SARS-CoV-2 bindenden Antikörpern zum schnellen und sicheren Nachweis der Infektion ist noch immer sehr hoch. Die Wissenschaftler haben einige neue monoklonale Antikörper gegen das Capsidprotein (Hüllprotein) des Virus entwickelt, die inzwischen auch in einem industriellen Maßstab produziert werden können. Am Standort Potsdam-Golm wurde damit bereits ein einfacher Labortest aufgebaut, mit dem Corona-Viruspartikel nachgewiesen werden können.

Auf Basis dieser Daten entwickeln nun die Kooperationspartner der Firma ImmoGnost GmbH aus Göttingen Schnelltests, die in Zukunft auch für den Hausgebrauch einsetzbar sein sollen. Damit könnten dann Besucher und Personal in Pflegeeinrichtungen und Kliniken, Teilnehmer von Veranstaltungen oder Besucher in Kinos, Theatern oder Museen getestet werden oder sich selbst testen, um Ansteckungen mit großer Wahrscheinlichkeit auszuschließen. Durch die geschickte Auswahl des Zielproteins besteht auch keine Gefahr, dass Virusmutationen wie z.B. die Mutanten B.1.1.7. aus Großbritannien oder B1.351 aus Südafrika von den neuen Antikörpern übersehen werden.

Die Entwicklung monoklonaler Antikörper ist in der Regel ein langwieriger Prozess, der durch die Expertise der beiden Potsdamer Immunologen und die enge Zusammenarbeit mit dem Institut für Virologie der Charité beschleunigt werden konnte. So ist die Charakterisierung der Antikörper schon weit fortgeschritten und z.B. eine unerwünschte Kreuzreaktivität mit den bekannten endemischen Coronaviren ausgeschlossen. Projektleiter Frank Sellrie lobt ausdrücklich die Kooperation mit der Charité: „Die Kooperation funktioniert ausgezeichnet, immer wenn wir neue Antikörperkandidaten in der Pipeline hatten, wurden diese unverzüglich auf Realproben getestet und uns somit Entscheidungshilfen geliefert. So wünscht man sich eine vertrauensvolle Zusammenarbeit!“

Auch wissenschaftlich wird das Projekt weitergeführt, indem zusätzliche Informationen über die Antikörper erhoben werden. Hierbei werden die beiden Wissenschaftler durch Forschungsgruppen des Fraunhofer-Instituts für Zelltherapie und Immunologie, Institutsteil Bioanalytik und Bioprozesse (IZI-BB) unterstützt. Analysen zum Bindungsverhalten der Antikörper werden durch die Arbeitsgruppe „Biomolekulare Nanostrukturen und Messtechnik“ durchgeführt und somit wichtige Charakteristika der Moleküle bestimmt.

Sellrie und Schenk sind keine Unbekannten auf dem Gebiet der Antikörperforschung. Seit über 20 Jahren arbeiten sie an der Entwicklung neuer monoklonaler Antikörper und sind mit ihrer vor 10 Jahren gegründeten Firma Hybrotec GmbH auch im Diagnostik Netzwerk Berlin-Brandenburg gut in der Region vernetzt. „Wir freuen uns, neben den Testentwicklungen in der Umwelt- und Lebensmittelanalytik, auch wieder an einem so wichtigen Projekt der Humandiagnostik zu arbeiten“, ergänzt Jörg Schenk. „In der Infektionsdiagnostik waren wir in den letzten Jahren zu Hepatitis E und MERS-CoV, einem anderen Coronavirus, aktiv.“

Selbstverständlich stehen die Antikörper nun auch für weitere interessierte Kooperationspartner zur Verfügung.

Wissenschaftliche Ansprechpartner:
Dr. Frank Sellrie,
UP Transfer GmbH an der Universität Potsdam
Am Neuen Palais 10
14469 Potsdam
Tel.: +49 331 58187231
frank.sellrie@up-transfer.de

Weitere Informationen:
http://www.up-transfer.de

(nach oben)


Studie in Tansania: Traditionelle Ernährung verursacht weniger Entzündungen

Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
In den Städten Afrikas ernähren sich die Menschen eher nach westlicher Art, während in ländlichen Gebieten eher eine traditionelle Ernährung üblich ist. Das hat Folgen: Tansanier, die in Städten leben, haben ein stärker aktiviertes Immunsystem im Vergleich zu ihren Mitmenschen auf dem Land. Ein internationales Forscherteam betont in einer aktuellen Studie, dass diese erhöhte Aktivität des Immunsystems zum raschen Anstieg der nicht übertragbaren Krankheiten in städtischen Gebieten in Afrika beitragen könnte. Erkenntnisse, aus denen auch die westliche Welt lernen könnte.

Tansanier, die in Städten leben, haben ein stärker aktiviertes Immunsystem im Vergleich zu ihren Mitmenschen auf dem Land. Eine Erklärung dafür scheint die unterschiedliche Ernährung zu sein: In den Städten ernähren sich die Menschen eher nach westlicher Art, während in ländlichen Gebieten eher eine traditionelle Ernährung üblich ist. Ein Team von Forschern des Radboud university medical center in den Niederlanden, des LIMES-Instituts der Universität Bonn, des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) und des Kilimanjaro Clinic Research Centers in Tansania betont in einer aktuellen Studie, dass diese erhöhte Aktivität des Immunsystems zum raschen Anstieg der nicht übertragbaren Krankheiten in städtischen Gebieten in Afrika beitragen könnte. Die Studie ist in der Fachzeitschrift Nature Immunology erschienen.

Die Untersuchung wurde unter mehr als 300 Tansaniern durchgeführt, von denen einige in der Stadt Moshi und einige auf dem Land leben. Das Team fand heraus, dass die Immunzellen der Teilnehmer aus Moshi mehr entzündliche Proteine produzierten. Die untersuchten Personen hatten keine gesundheitlichen Probleme und waren nicht krank, aber ein aktiviertes Immunsystem kann das Risiko für Zivilisationskrankheiten wie Herz-Kreislauf-Erkrankungen erhöhen.

Die Wissenschaftler nutzten neue Techniken, um die Funktion des Immunsystems und die Faktoren, die seine Aktivität beeinflussen, zu untersuchen. Sie sahen sich aktive RNA-Moleküle im Blut – das sogenannte Transkriptom – und die Zusammensetzung von Stoffwechselprodukten im Blut an.

Große Unterschiede in der Ernährung
Die Analysen zeigten, dass Stoffwechselprodukte aus der Nahrung einen Einfluss auf das Immunsystem haben. Teilnehmer aus ländlichen Gebieten hatten höhere Werte an Flavonoiden und anderen entzündungshemmenden Substanzen im Blut. Die traditionelle ländliche tansanische Ernährung, die reich an Vollkorn, Ballaststoffen, Obst und Gemüse ist, enthält hohe Mengen dieser Substanzen.

„Bei Menschen mit einer städtischen Ernährung, die mehr gesättigte Fette und verarbeitete Lebensmittel enthält, wurden erhöhte Werte von Metaboliten gefunden, die am Cholesterinstoffwechsel beteiligt sind“, sagt Prof. Dr. Mihai Netea, Forscher am LIMES-Institut und Exzellenzcluster ImmunoSensation2 der Universität Bonn und am Radboud university medical center in den Niederlanden. Er und seine Kollegen fanden auch eine saisonale Veränderung in der Aktivität des Immunsystems. In der Trockenzeit, die im Untersuchungsgebiet die Zeit der Ernte ist, hatten die Stadtbewohner ein weniger aktiviertes Immunsystem.

Westliche Länder können von den Ergebnissen lernen
Es ist schon länger bekannt, dass ein westlicher Lebensstil und westliche Ernährungsgewohnheiten zu chronischen Krankheiten führen. Prof. Dr. Joachim Schultze vom DZNE und LIMES-Institut unterstreicht: „Wir haben gezeigt, dass eine traditionelle tansanische Ernährung einen positiven Effekt auf Entzündungen und die Funktion des Immunsystems hat. Das ist wichtig, weil nicht nur in Tansania, sondern auch in anderen Teilen Afrikas eine rasante Verstädterung im Gange ist.“ Die Migration vom Land in die Stadt führe zu Veränderungen in der Ernährung und gehe mit einem rasanten Anstieg von Zivilisationskrankheiten einher, was die lokalen Gesundheitssysteme stark belastet. Die Forscher betonen, dass Prävention wichtig sei, und die Ernährung dabei eine wichtige Rolle spielen könne.

Darüber hinaus sind diese Erkenntnisse aus Afrika auch für westliche Länder relevant. Die Urbanisierung hat in den meisten westlichen Ländern schon vor langer Zeit stattgefunden. Durch die Untersuchung von Populationen in verschiedenen Stadien der Urbanisierung haben die Forscher daher einzigartige Möglichkeiten, ihr Verständnis darüber zu verbessern, wie Ernährung und Lebensstil das menschliche Immunsystem beeinflussen.

Beteiligte Institutionen und Förderung:
Die Studie wurde durch das EU-Rahmenprogramm „Horizon 2020“ über die sogenannte Joint Programming Initiative „A healthy diet for a healthy life“ (JPI-HDHL), den niederländischen Zuschussgeber ZonMw, die Deutsche Forschungsgemeinschaft und die Radboud University gefördert. Die Forschung ist Teil der TransMic-Studie, einem internationalen Projekt über die „Verwestlichung“ der Ernährung und ihre gesundheitlichen Folgen. In diesem Projekt arbeiten die Forscher des Radboud university medical center und des LIMES-Instituts der Universität Bonn mit Kollegen von Universitäten in Italien, Tansania und Burkina Faso zusammen, um die Auswirkungen der Ernährung auf das Immunsystem in verschiedenen Stadien des demografischen Übergangs und der Urbanisierung zu untersuchen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Mihai G. Netea
LIMES-Institut der Universität Bonn, Radboud university medical center
Tel.: +31 243618819
E-Mail: Mihai.Netea@radboudumc.nl

Prof. Dr. Joachim L. Schultze
Deutsches Zentrum für Neurogenerative Erkrankungen; LIMES-Institut der Universität Bonn
Tel.: +49 228 43302-410
E-Mail: joachim.schultze@dzne.de

Originalpublikation:
Godfrey S. Temba, Vesla Kullaya, Tal Pecht, Blandina T. Mmbaga, Anna C. Aschenbrenner, Thomas Ulas, Gibson Kibiki, Furaha Lyamuya, Collins K. Boahen, Vinod Kumar, Leo A.B. Joosten, Joachim L. Schultze, Andre J. van der Ven, Mihai G. Netea, Quirijn de Mast: Urban living in healthy Tanzanians is associated with an inflammatory status driven by dietary and metabolic changes. Nature Immunology, DOI: 10.1038/s41590-021-00867-8

Weitere Informationen:
https://www.nature.com/articles/s41590-021-00867-8 Original publication in Nature Immunology

(nach oben)


ACHEMA Pulse – das neue digitale Flagschiff für die Prozessindustrie setzt Segel

Marina Korogodska Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
Die ACHEMA Pulse am 15. und 16. Juni 2021 ist die Premiere für ein brandneues Veranstaltungsformat. Hauptziel der weltweiten virtuellen Live-Veranstaltung ist es, Menschen, Ideen und Technologien zusammenzubringen, um Möglichkeiten der Zusammenarbeit zu erkunden und neue Kontakte zu knüpfen. Ein starker Fokus liegt dabei auf innovativen Matchmaking-Gelegenheiten.

Neue Geschäftskontakte zu knüpfen und aktuelle Entwicklungen mit Industrieexperten aus aller Welt zu diskutieren, wurde in den letzten Monaten schmerzlich vermisst. Die ACHEMA Pulse ist ein neues digitales Format, das ACHEMA und AchemAsia ergänzt und sich an die globale Prozessindustrie richtet. Die zweitägige Veranstaltung bietet das, was Industrieexperten und Entscheidungsträger suchen: Inspirierende Vorträge und Diskussionsrunden, die von Live-Bühnen aus Frankfurt übertragen werden; außerdem ein kompaktes Kongressprogramm, das Trends und Entwicklungen aus allen Bereichen der chemischen und pharmazeutischen Industrie umfassst. Aussteller präsentieren ihre Technologien und Lösungen auf der digitalen Plattform, ergänzt um Videos, Vorträge und Workshops. Das Algorithmen-gestützte Matchmaking ermöglicht den Teilnehmern sowohl, gezielt Experten anzusprechen und zu treffen als auch neue Kontakte auf Basis ihres Profils zu knüpfen. Dank integrierter Kommunikationswerkzeuge lassen sich gemeinsame Interessen einfach, bequem und schnell eruieren. Die Organisatoren möchten mit der ACHEMA Pulse das interaktivste Digital-Event schaffen, das die Prozessindustrie bisher erlebt hat.

Der Geschäftsführer der DECHEMA Ausstellungs-GmbH Dr. Thomas Scheuring ist optimistisch, dass die ACHEMA Pulse einen wertvollen Beitrag zum diesjährigen digitalen Veranstaltungskalender darstellt: „Die ACHEMA Pulse wird getreu dem ganz speziellen Charakter der ACHEMA den treibenden Kräften und Impulsgebern der weltweiten Prozessindustrie innovative Ideen und ein sehr breites Technologie- und Dienstleistungsspektrum vorstellen.“ ACHEMA Pulse ist dank der großen Erfahrung der Organisatoren auf die virtuelle Umgebung zugeschnitten. Der stellvertretende Geschäftsführer und Verantwortliche für die ACHEMA Pulse Dr. Björn Mathes ergänzt: „Die Pulse-Plattform geht weit über die üblichen Limitierungen digitaler Messen hinaus. Unser Ziel ist es, eine einzigartige Lern- und Networking-Umgebung zu schaffen, auf der man gerne und einfach Geschäftsbeziehungen knüpfen kann.“ ACHEMA Pulse setzt besonders auf die Stärken eines Online-Formats. Die zeitlichen Abläufe sind so gestaltet, dass hochrangige Sprecher aus aller Welt ebenso dabei sein können wir ein globales Publikum.

Ungewöhnliche Ansätze sind dabei ausdrücklich willkommen, besonders in den Sessions, die der Innovation gewidmet sind. Dazu gehören das Finale der ACHEMA Innovation Challenge, aber auch die Vorstellung der Finalisten des ACHEMA Gründerpreises.
Die Plattform und ihre Möglichkeiten werden in den nächsten Wochen in mehreren Webcasts vorgestellt. „Eine Woche nach dem offiziellen Auftakt sieht es so aus, als seien wir auf einem guten Weg“, sagt Andreas Konert, Leiter Business Development und Vertrieb.“Die ersten Rückmeldungen von Ausstellern sind sehr ermutigend, und die Plätze in den Informationswebinaren für interessierte Aussteller füllen sich schnell.“
Alle Informationen zu Daten, Anmeldung und sonstigen Fragen unter www.achema.de

Weitere Informationen:
http://www.achema.de

(nach oben)


Wie beeinträchtigt der Biokraftstoff E10 Filtersysteme im Auto?

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Seit rund zehn Jahren können Autofahrer den Biokraftstoff E10 tanken. In ihm sind circa 5 bis 10 Prozent Bioethanol enthalten. Dieser teilweise Ersatz fossiler Kraftstoffe durch Bioethanol verändert die Verhältnisse für die Kraftstoffdampfrückhaltesysteme (KDRS) in den Autos. Welchen Einfluss dies genau hat, untersuchten Forscher*innen des Fraunhofer UMSICHT und der Universität Siegen. Ein wichtiges Ergebnis lautet: Langfristig reduziert E10 die Funktionstüchtigkeit der Filter. Somit müssen diese über den Lebenszyklus eines Fahrzeugs hinweg kontinuierlich überwacht werden.

Für Kraftfahrzeuge mit Ottomotor sind Aktivkohlefilter (sog. Kraftstoffdampfrückhalte-systeme/KDRS) gesetzlich vorgeschrieben, um Benzindämpfe, die beim Stillstand oder während des Betriebes eines Fahrzeugs aus dem Tank entweichen, aufzufangen und in den Motor zu leiten. Die Funktionsweise der Aktivkohlefilter lässt sich vereinfacht in zwei Prozesse unterteilen: Beim Stillstand des Motors verdampft der Kraftstoff und wird mittels Adsorption an der Aktivkohle angelagert, Emissionen werden somit reduziert. Beim laufenden Motor wird die Umgebungsluft vom Motor angesaugt und über die Aktivkohle geführt. Dadurch werden die Kraftstoffkomponenten wieder freigesetzt – Desorption – und dem Motor zugeführt und dort verbrannt.

KDRS-Testanlage beim Fraunhofer UMSICHT
Im Rahmen des Kooperationsprojektes des Fraunhofer UMSICHT und der Universität Siegen wurde eine Anlage (genaue Beschreibung des Aufbaus siehe Fachartikel) entwickelt, mit der das Adsorptionsverhalten der Aktivkohle über viele Zyklen – bestehend aus Ad- und Desorption – messtechnisch begleitet werden kann. Ein Ausschuss aus Automobil-, Aktivkohle-, Aktivkohlefilter-, Bioethanol-Herstellern und Analyselabors begleitete das Projekt.

»Diese Anlage ermöglicht es nun, entsprechend der ‚Lebensdauer‘ eines PKW bis zu 300 Zyklen an kontrolliert konditionierten Aktivkohlen zu untersuchen. Wir analysierten insbesondere den Einfluss von Wasser in der Spül- bzw. Umgebungsluft auf den Filter. Dabei setzten wir einfaches ‚Modell-Benzin‘ (n-Pentan mit einem 10-prozentigen Ethanol-Anteil) ein«, erläutert Eva Schieferstein, Projektleiterin des Fraunhofer UMSICHT.

Regelmäßige Untersuchungen der Filter erforderlich
Derzeit werden KDRS im Rahmen der gesetzlichen Vorschriften mit Modellbenzinen (u.a. E10) bei einer relativen Luftfeuchtigkeit von 50 plus/minus 10 Prozent getestet. Dieser Test wird bisher nur einmalig vor dem Einbau der Systeme durchgeführt. Im Rahmen des Projektes haben vergleichende Versuche ergeben, dass ein Zusatz von Ethanol zu Benzin (hier: E10) in Gegenwart von höheren, realitätsnäheren Luftfeuchtigkeitswerten das Langfrist-Adsorptionsverhaltens der Aktivkohle verschlechtert. Bei steigender Zyklenzahl bzw. zunehmender Einsatzdauer des KDRS nimmt daher dessen Kapazität deutlich ab.

Dieser Effekt kann ohne Ethanol-Zusatz nicht in demselben Maße beobachtet werden. Somit besteht also die Gefahr, dass Biokraftstoff mehr Emissionen verursacht, wenn die Aktivkohlefilter nach langfristigem Einsatz nicht mehr ausreichend adsorbieren. Mit dem zurzeit für KDR-Systeme vorgeschriebenen Prüfverfahren werden deutlich längere Lebensdauern erreicht, da sie den Einfluss der Luftfeuchtigkeit auf das Abscheideverhalten der Aktivkohle nicht realitätsnah abbilden. Dies steht im Einklang mit Untersuchungen des TÜV Nord und des schwedischen TÜV, die gezeigt haben, dass es nach langfristigem Einsatz der Kraftstoffdampfrückhaltesysteme (KDRS) mit Biokraftstoffen vermehrt zu Ausfällen kommen kann.

Das Forschungsteam empfiehlt nun dringend, die Funktionstüchtigkeit der Aktivkohlefilter – beispielsweise im Rahmen der TÜV-Untersuchungen – regelmäßig zu untersuchen. Wichtig wäre zudem, im Prüfprozess die Rahmenbedingungen anzupassen und die relative Feuchtigkeit der Spülluft zu erhöhen. Die Testanlage des Fraunhofer UMSICHT steht nach Projektabschluss auch für externe Untersuchungen zur Verfügung.

Förderhinweis
Das Projekt wurde vom Bundesministerium für Ernährung und Landwirtschaft (BMEL), vertreten durch die Fachagentur Nachwachsende Rohstoffe e.V. (FNR), unter den Förderkennzeichen 22403015 und 22403115 gefördert.

Wissenschaftliche Ansprechpartner:
Eva Schieferstein
eva.schieferstein@umsicht.fraunhofer.de

Weitere Informationen:
https://doi.org/10.1515/teme-2019-0119 Fachartikel
https://www.umsicht.fraunhofer.de/de/kompetenzen/produktentwicklung.html Abteilung Produktentwicklung

(nach oben)


Mit KI den Parkdruck auf der Straße messen

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Wie viele Autos sind auf der Straße geparkt? Reicht der Platz für alle Autos, die dort abgestellt werden, oder wäre es sinnvoll, eine Bewohner-Parkzone einzurichten? Um diese Frage zu beantworten, muss die Kommune viel Zeit in manuelle Zählungen und Beobachtungen vor Ort investieren. In Kooperation mit der Stadt Karlsruhe untersucht das Fraunhofer IAO, wie man mit KI den Parkdruck messen und gestalten kann.

Die Anzahl von parkenden PKWs in Städten steigt und dies hat Auswirkungen auf den öffentlichen Raum. Die Parksituation kann sowohl in Innenstädten wie auch in ruhigeren Wohngebieten für die Bewohner*innen unüberschaubar werden: Immer mehr Fahrzeuge werden auf der Straße abgestellt und es kostet oft Zeit und Nerven, einen Parkplatz zu finden. In solchen Fällen kann die Kommune z.B. Bewohnerparken anordnen, muss dafür aber den Parkdruck durch Gutachten und Parkraumerhebungen nachweisen. Um Aufwand und Kosten in diesem Prozess zu reduzieren, startete das Forschungs- und Innovationszentrum Kognitive Dienstleistungssysteme (KODIS) des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO mit Unterstützung der Stadt Karlsruhe ein Pilotprojekt zur KI-gestützten Analyse des Parkdrucks.

Ein vielversprechendes Tandem aus Drohnen und KI
Bereits die ersten Phasen in der Parkdruckmessung werden erheblich optimiert: Die aufwändige manuelle Datenerfassung wird durch Videoaufnahmen per Drohne ersetzt. Während des Flugs werden mehrere Kamerabilder erstellt, aus denen die Gesamtübersicht des Testgebiets entsteht.
Im nächsten Schritt erfolgt eine Optimierung in der Auswertung der Daten: Statt die Daten mühsam manuell zu analysieren, wird KI eingesetzt. Hierfür wird ein Deep Learning-Algorithmus entwickelt und ein künstliches neuronales Netz trainiert, um alle Fahrzeuge auf den Bildern finden und pixelgenau lokalisieren zu können. Damit der Algorithmus abgestellte Fahrzeuge von fahrenden Autos unterscheiden kann, wird das Testgebiet in bestimmte Parkzonen aufgeteilt und diese mit Geodaten verknüpft. Die KI analysiert nur Bildinhalte in diesem Bereich und markiert anschließend die dort abgestellten Fahrzeuge. Als Ergebnis wird die Anzahl von abgestellten Fahrzeugen zu jeweiligem Zeitpunkt ausgegeben und die Daten über die Auslastung von jeder Parkzone werden berechnet.

Von KI auch im öffentlichen Leben profitieren
Der Einsatz von KI im industriellen Umfeld ist mittlerweile weit verbreitet und allgemein akzeptiert. Die Parkdruckanalyse mit KI ist ein schönes Beispiel dafür, dass Künstliche Intelligenz (KI) auch für Kommunen einen großen Nutzen bringen kann: Dank dem entwickelten Algorithmus kann die Auslastung von Stellplätzen automatisch ausgewertet werden. So werden Zeit und Kosten der manuellen Datenerhebung erheblich reduziert und Parkprobleme in ausgewählten Stadtgebieten können dementsprechend schneller gelöst werden.

Perspektivisch möchte das Fraunhofer IAO die KI-gestützte Parkdruckanalyse als digitalen Cloud-Service für Kommunen anbieten. »Mit unserer automatisierten Analyse von Luftbildern werden Kommunen einen raschen und kostengünstigen Überblick über das Straßenparkverhalten im gesamten Stadtgebiet erhalten«, sagt Dr. Bernd Bienzeisler, Leiter des Forschungs- und Innovationszentrums Kognitive Dienstleistungssysteme am Fraunhofer IAO.

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/mit-ki-den-parkdruc…

(nach oben)


MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich

Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH
Ergänzung vom 27.01.2021
Dass Fachleute in der Corona-Krise eine so starke Rolle spielen und ihre Expertise von der Politik so intensiv nachgefragt wird, hat viel mit der Struktur des Erkenntnisprozesses zu tun: Die Forschungssynthese, die Ergebnisse aus Einzelstudien zusammenträgt, bewertet, resümiert und für Politikberatung verfügbar macht, ist in den Gesundheitswissenschaften besonders gut organisiert; eine Schlüsselrolle spielt hier das 1993 gegründete globale Wissensnetzwerk Cochrane mit Sitz in London. Dieses Erfolgsmodell soll jetzt vom Gesundheitsbereich auf den Bereich der Klimapolitik-Beratung übertragen werden.

Ein Motor dieser Modernisierung ist das Berliner Klimaforschungsinstitut MCC (Mercator Research Institute on Global Commons and Climate Change). „Im Kampf gegen die Klimakrise ist es enorm wichtig, dass sich die Politik auf optimal aufbereitetes Wissen zu Handlungsoptionen stützen kann“, sagt Jan Minx, Leiter der MCC-Arbeitsgruppe Angewandte Nachhaltigkeitsforschung. „Politikberatung sollte so wenig wie möglich auf Basis von Einzelstudien erfolgen – sondern auf Basis von gesicherten Einsichten aus mehreren, unabhängig voneinander erstellten Studien. Wie in der Primärforschung hängt auch bei Forschungssynthese viel an der Nutzung und Weiterentwicklung von leistungsfähigen Methoden. Diesen Prozess wollen wir jetzt für das Feld der Klimapolitik-Lösungen mit der Gründung eines neuen internationalen Netzwerks unter dem Dach der Campbell Collaboration unterstützen.“

Die Campbell Collaboration mit dem Hauptstandort Oslo organisiert die Forschungssynthese im Bereich der Sozialwissenschaften. Minx ist nun Co-Vorsitzender der „Campbell Climate Solutions Coordinating Group“, die sich im vergangenen Jahr formal konstituierte und jetzt ihre Arbeit aufnimmt. Schon länger gibt es Campbell-Koordinierungsgruppen etwa zu Unternehmensführung, Bildung und Kriminalitätsbekämpfung; eine Liste mit 50 frei verfügbaren Forschungssynthesen, die angesichts der Corona-Pandemie für Entscheidungen im Sozialwesen relevant sind, findet sich hier. Die neue Gruppe zu Klimalösungen wird in erster Linie Orientierung schaffen durch die internationale Koordination relevanter Metastudien. Zudem wird sie wissenschaftliche Symposien organisieren und erstmals einen formalen Rahmen für globalen fachlichen Austausch bieten.

„Mit der Errichtung eines solchen Netzwerks wollen wir den Stand der Forschung zu Klima-Lösungen beleuchten“, erklärt Neal Haddaway, Senior Researcher am MCC und ebenfalls Co-Vorsitzender der neuen Gruppe. „Viele Akteure werden davon profitieren, wenn wir sozusagen Landkarten des Forschungswissens erstellen – und dadurch auch Wissenslücken besser erkennbar machen. Zum Beispiel brauchen wir noch besser gesicherte Einsichten darüber, wie gut verschiedene Instrumente der Klimapolitik unter unterschiedlichen ökologischen, sozialen und politischen Rahmenbedingungen jeweils funktionieren.“

Die Literatur zur Klimaforschung wächst rasant, mit aktuell mehreren Zehntausend Studien pro Jahr. Für das MCC als wissenschaftlichen Thinktank ist die Kompetenz zu Forschungssynthese ein zentraler Baustein, wenn es darum geht, der Politik evidenzbasiert Handlungsoptionen aufzuzeigen. Das wird ergänzt durch die ausgeprägte Kompetenz zur wissenschaftlichen Bewertung von konkreten Maßnahmen der Vergangenheit (im Policy Evaluation Lab), und von der Policy Unit wird die Schnittstelle des Instituts zu Politik und Gesellschaft konzeptionell und inhaltlich gestaltet.

Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/minx-jan.html

Originalpublikation:
• Leitartikel zur Gründung der Campbell Climate Solutions Coordinating Group (CSSG):
Berrang-Ford, L., Döbbe, F., Garside, R., Haddaway, N., Lamb, W., Minx, C., Viechtbauer, W., Welch, V., White, H., Editorial: Evidence synthesis for accelerated learning on climate solutions, 2021, Campbell Systematic Reviews
https://doi.org/10.1002/cl2.1128
• Website der CSCG:
https://campbellcollaboration.org/contact/coordinating-groups/climate-solutions….

Weitere Informationen:
https://www.mcc-berlin.net/
https://www.mcc-berlin.net/forschung/policy-evaluation-lab.html
https://www.mcc-berlin.net/politik-dialog/policy-analysis-unit.html

Anhang
MCC: Forschung zu Klima-Lösungen soll so übersichtlich werden wie im Gesundheitsbereich

Ergänzung vom 27.01.2021
Die in der PM erwähnte Liste mit 50 frei verfügbaren Campbell-Forschungssynthesen, die angesichts der Corona-Pandemie für Entscheidungen im Sozialwesen relevant sind, findet sich hier: https://onlinelibrary.wiley.com/doi/toc/10.1002/1891-1803.covid-19-reviews

(nach oben)


Wie beeinflusst die Pandemie unser Denken und Fühlen?

Stefan Zorn Stabsstelle Kommunikation
Medizinische Hochschule Hannover
MHH-Forschungsgruppe will mit zweiter deutschlandweiter Corona-Umfrage die Auswirkungen des Lockdowns erfassen

Die Corona-Pandemie dauert an und mit ihr die immer stärkeren Einschränkungen in Berufs- und Privatleben. Bereits zu Beginn der ersten Infektionswelle im vergangenen Jahr haben Wissenschaftlerinnen und Wissenschaftler des Zentrums für Seelische Gesundheit der Medizinischen Hochschule Hannover (MHH) eine der ersten und größten Umfragen zu den Auswirkungen der Krise auf die Psyche erstellt. Dabei konnten sie zeigen, dass das Auftreten der Corona-Pandemie und die zu ihrer Eindämmung getroffenen Maßnahmen vermehrt zu Stress, Angst, depressiven Symptomen, Schlafproblemen, Reizbarkeit, Aggression und häuslicher Gewalt führten. Nun geht die webbasierte Studie in eine zweite Erhebungsphase. Neben dem psychischen Befinden nehmen die Wissenschaftler jetzt verstärkt auch die persönliche Haltung der Menschen in Deutschland in den Blick.

Schwindende Akzeptanz erwartet
„Wir möchten wissen, wie es den Bürgerinnen und Bürgern dieses Landes geht und was sie bewegt“, sagt Professor Dr. Tillmann Krüger, Leiter der Studie. „Außerdem geht es uns darum, die individuellen Hintergründe und Positionen der Menschen in Bezug auf die Pandemie und die getroffenen Maßnahmen zu erfassen.“ Dies sei eine Möglichkeit, die unterschiedlichen Reaktionen besser zu verstehen. Die Wissenschaftler erwarten eine anhaltende psychosoziale Belastung und – abhängig von der individuellen Situation – eine schwindende Akzeptanz der Anordnungen, die den Alltag der Bürger einschneidend verändert haben. Noch in der ersten Erhebung im April vergangenen Jahres gaben 60 Prozent der mehr als 3500 Teilnehmenden an, sehr gut oder gut mit der veränderten Situation und den entsprechenden Maßnahmen klarzukommen. Knapp ein Drittel der Befragten hingegen erklärten, schlecht oder sehr schlecht mit der Situation umgehen zu können. Dabei wiesen Frauen signifikant höhere Depressions- und Angstwerte auf als Männer.

Wie schon die erste Erhebung, beinhaltet auch die aktuelle Umfrage unterschiedliche Fragen zu aktuellem Befinden, Erleben und der jeweiligen Lebenssituation. Die webbasierte systematische Erfassung erfolgt anonym mit Hilfe von Selbstbeurteilungsskalen. Alle Bürgerinnen und Bürger ab 18 Jahren sind unter folgendem Link eingeladen, an der Erhebung teilzunehmen: https://ww2.unipark.de/uc/mhh_covid2021.

Weitere Informationen erhalten Sie bei Professor Dr. Tillmann Krüger, krueger.tillmann@mh-hannover.de, Telefon (0511) 532-3171.

Die Originalarbeit zur ersten Studie „Mental Health, Sense of Coherence, and Interpersonal Violence During the COVID-19 Pandemic Lockdown in Germany” finden Sie unter: https://www.mdpi.com/2077-0383/9/11/3708

Informationen zu den Ergebnissen einer ersten Auswertung der bisher erhobenen Daten finden Sie unter https://corona.mhh.de/corona-news-aus-der-mhh#c22157

(nach oben)


CO2 ist nicht alles: Klimapolitik braucht stärkeren Fokus auf kurzlebige Schadstoffe

Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Bei der Begrenzung des Klimawandels geht nicht nur um CO2. Auch die sogenannten kurzlebigen klimawirksamen Schadstoffe wie Ruß, Methan und bodennahes Ozon haben einen erheblichen Einfluss. Um sie stärker zu regulieren, ist eine bessere Kommunikation über ihre Auswirkungen notwendig.

In der Klimapolitik ist es üblich, alle wärmenden Schadstoffe zusammenzufassen und ihre Gesamtwirkung in Form von CO2-Äquivalenten auszudrücken. Die „Äquivalenz“ basiert dabei auf dem Vergleich der Klimawirkung auf einer 100-Jahres-Zeitskala. Das ist problematisch, wie IASS-Wissenschaftlerin Kathleen Mar in einem neuen Forschungsartikel erläutert: „Tatsächlich sind Klimatreiber nicht einfach ‚äquivalent‘ – ihre Auswirkungen auf das Klima und die Ökosysteme unterscheiden sich. Kurzlebige klimawirksame Schadstoffe haben einen großen Einfluss auf kurzfristige Klimaänderungen, während CO2 das langfristige Klima stärker beeinflusst.“ Die 100-Jahres-Skala führe dazu, dass die Wirkungen der kurzfristigen klimawirksamen Schadstoffe (SLCPs) unterschätzt werden – und in der Folge auch die positiven Auswirkungen ihrer Reduzierung.

Reduzierung von SLCPS bringt Vorteile für Klima, Gesundheit und Ernte
Eine der schädlichsten Eigenschaften von CO2 ist, dass es sich langfristig in der Atmosphäre anreichert. SLCPS haben im Vergleich zu CO2 nur eine kurze Verweildauer. Auf eine Reduzierung reagieren die Atmosphäre und das Klimasystem daher viel schneller.

Aus politischer Sicht sei das ein Vorteil, argumentiert Mar: „Die kurzfristige Klimaerwärmung wird verlangsamt, die Luftverschmutzung reduziert, die Ernteerträge verbessern sich – das sind positive Auswirkungen, die die Bürgerinnen und Bürger heute und in naher Zukunft erfahren können.“ Es gebe auch Hinweise, dass eine rasche Reduzierung der SLCP-Emissionen das Risiko verringere, an kritische Schwellen im Klimasystem zu gelangen – die so genannten Kipppunkte, die zu unumkehrbaren Veränderungen führen. Engagiertes Handeln würde also auch mehr Zeit für Anpassungsmaßnahmen an den Klimawandel gewähren.

Technologien und Praktiken zur Reduzierung von SLCP-Emissionen gibt es bereits, viele sind auch wirtschaftlich, zum Beispiel die Verwertung von Deponiegas zur Energiegewinnung. Um SLCPs weiter zu reduzieren, müssten sich aber auch andere Sektoren umstellen. Die Landwirtschaft und die Abfallwirtschaft müssen ihre Methan- und Rußemissionen reduzieren, die Industrie ihre Verwendung von Fluorkohlenwasserstoffen (HFKWs) als Kältemittel.

Wirksamer Klimaschutz darf SLCPS nicht ignorieren
Als Grundlage für eine engagiertere SLCP-Politik sieht Mar eine klare Kommunikation über die unterschiedlichen Zeithorizonte, die für die CO2- und SLCP-Minderung relevant sind: „Um die Folgen des Klimawandels abzumildern, müssen wir sowohl die kurzfristigen als auch die langfristigen Klimaauswirkungen minimieren. Die Vorteile der Reduzierung von kurzfristigen klimawirksamen Schadstoffen werden aber einfach nicht erfasst, wenn man die 100-Jahre-Zeitskala als einzigen Maßstab für die Bewertung der Klimaauswirkungen verwendet.“

Mehrere Länder haben die Vorteile der SLCP-Reduzierung erkannt und sie zu einem zentralen Element ihrer nationalen Klimastrategien gemacht. Einige, zum Beispiel Chile, Mexiko und Nigeria, haben SLCPs bereits in ihre nationalen Verpflichtungen unter dem Pariser Abkommen aufgenommen. Wenn weitere Regierungen diesem ganzheitlichen Ansatz des Klimaschutzes folgen, so Mar, werde dies ein Gewinn nicht nur für das Klima, sondern auch für Luftqualität, Gesundheit und nachhaltige Entwicklung insgesamt sein.

Wissenschaftliche Ansprechpartner:
Dr. Kathleen Mar
Kathleen.Mar@iass-potsdam.de

Originalpublikation:
Kathleen A. Mar, Putting the brakes on climate change – it’s about more than just CO2, Climanosco Research Articles 3, 14 Jan 2021, https://doi.org/10.37207/CRA.3.1

(nach oben)


Plastik in der Umwelt finden und vermeiden

Alexander Knebel Presse- und Öffentlichkeitsarbeit
Zuse-Gemeinschaft
In der Corona-Krise zeigen Kunststoffe ihren Mehrwert und zugleich auf den Handlungsbedarf beim Kampf gegen Umweltverschmutzung. Denn während Kunststoffe z.B. in Medizinprodukten oder Lebensmittelverpackungen der Gesundheit dienen, werden sie falsch entsorgt als Makro- und Mikroplastik zur Gefahr. Forschende aus der Zuse-Gemeinschaft beschreiten mit innovativen Monitoring- und Analysetools neue Wege bei der Erfassung und Bestimmung solcher Stoffe. Teil 1 unserer Serie zur Vermeidung von Plastik in der Umwelt fokussiert auf großes Mikro- und auf Makroplastik.

Welch große Verantwortung sowohl Verbraucher als auch Handel und Industrie tragen, damit weniger Kunststoff in die Umwelt gelangt, zeigt das aktuelle, vom Bundesforschungsministerium geförderte Projekt InRePlast. In dem Verbundprojekt hat das Forschungsinstitut für Wasser- und Abfallwirtschaft (FiW) in vier Gemeinden im Raum Aachen, vom Dorf bis zur Großstadt, Plastikreste systematisch gesammelt, katalogisiert und klassifiziert. Die Forschenden erfassten Partikel aus großem Mikroplastik (1-5 mm) ebenso wie Makroplastik mit noch sichtbarem ebenso wie mit nicht mehr erkennbarem Produktursprung. „Nach einjähriger Arbeit mit einem Stab von acht Forschenden haben wir rund 165 verschiedene Produkte und Vor-Produkte aus Makro- und großem Mikroplastik im Abwasser identifiziert“, erklärt FiW-Projektleiter Dr. Marco Breitbarth. Untersuchungsorte waren die Kläranlagen der Gemeinden, aber auch Niederschlagsabläufe auf Verkehrswegen. Von den Straßen bringt Niederschlagswasser Fremdstoffe häufig in Gewässer.

In den Kläranlagen überall unter den „Top5“ bei den Kunststoffprodukten zu finden: Zigarettenfilter. Ihr Anteil am vom FiW erfassten Mikro- und Makroplastik reichte dort je nach Standort von 9 bis 28 Prozent. Eine weitere Problemkategorie sind Bestandteile von Hygieneartikeln. Tampon- und Bindenverpackung ebenso wie Wattestäbchen waren an allen vier Kläranlagen unter den „Top20“ der gefundenen und katalogisierten Kunststoffprodukte. Bei den Verbundmaterialien wie auch insgesamt nahm die Kategorie Feucht-/Desinfektionstücher/Küchenpapier die traurige Spitzenposition ein.

Was die Kläranlage nicht stoppt
„All diese Dinge gehören nicht in die Toilette, zumal je nach Wetterlage erhebliche Mengen Schmutzwasser aus der Kanalisation zuweilen nicht in die Klärwerke gelangen. Bei Starkregen werden z.B. häufig Abwasserströme in Überlaufbecken gelenkt, die bei Überschreitung der Kapazitätsgrenzen ungeklärtes Abwasser in die Gewässer einleiten – so dass achtlos weggeworfene Verpackungen und Kunststoffprodukte zum großen Umweltproblem geworden sind“, warnt Breitbarth. Laut Schätzungen des Umweltbundesamtes (UBA) erreichen die nicht in Klärwerken behandelten Abschläge aus der Mischkanalisation in Deutschland jährlich ein Volumen von rd. 1,3 Mrd. Kubikmeter (cbm), während sich die ebenfalls nicht von Klärwerken erfasste Einleitung von Niederschlagswasser auf eine Menge von knapp 4 Mrd. cbm beläuft. Die hingegen in Kläranlagen erfasste Abwassermenge erreicht rd. 9,9 Mrd cbm.

Verhaltensänderung nicht nur bei Verbrauchern notwendig
Nicht nur die Verbraucher müssen ihr Verhalten ändern, wie die Zwischenergebnisse des bis Ende 2021 zusammen mit Verbundpartnern laufenden Projekts deutlich machen. So waren Kügelchen aus der Kunststoffindustrie, so genannte Pellets, an drei der vier Klärwerks-Standorte des Projekts unter den „Top 10“ der vom FiW gefundenen Produkte. Auch an Straßenrändern fanden die Forschenden laut Breitbarth immer wieder Kunststoff-Pellets, die genaue Auswertung steht noch bevor. „Zwar hat die Kunststoffindustrie immer wieder Info-Kampagnen zur Vermeidung von Produktausträgen aufgelegt, doch müssen die Gefahren offenbar noch deutlicher gemacht werden. Angesichts von rund 3.000 klassischen Kunststoffverarbeitern in Deutschland und vielen weiteren Unternehmen, die Kunststoffe nutzen, ist das eine zentrale Aufgabe“, betont der Forscher des FiW, einem Mitglied der Zuse-Gemeinschaft. Eine weitere wichtige Zielbranche zur Vermeidung von Kunststoffeinträgen in die Umwelt ist für ihn die Baubranche, die u.a. beim Umgang mit Dämmmaterialien an Häusern besonders umsichtig sein muss, so bei der Verwendung von Styropor. Bei InRePlast geht es nach der Umwelt-Analyse nun im letzten Projektabschnitt an die Formulierung von Handlungsempfehlungen, u.a. für Kommunen.

Weitere Informationen:
https://www.zuse-gemeinschaft.de/presse/pressemitteilungen

Anhang
PM der Zuse-Gemeinschaft: Mikroplastik finden und vermeiden

(nach oben)


Folgen des Klimawandels an der Küste

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
Forschungsergebnisse aus dem BMVI-Expertennetzwerk zum Einfluss
des Klimawandels auf Seeschifffahrtstraßen – Durch den Klimawandel werden sich äußere Einflüsse auf den Betrieb und die Unterhaltung der Seehafenzufahrten und Seehäfen, wie zum Beispiel der Meeresspiegel oder der binnenseitige Abfluss, ändern. Für strategische und langfristige Investitionsentscheidungen hinsichtlich der Wasserstraßen- und Hafeninfrastruktur entstehen dadurch wichtige Fragen.

Wie werden sich Meeresspiegelanstieg, Abflussänderung und andere klimawandelbedingte Veränderungen auf die Seehäfen auswirken? Kann die Sicherheit und Leichtigkeit des Schiffsverkehrs sowie die Erreichbarkeit der Häfen in Zukunft gewährleistet werden? Welche Anpassungsmaßnahmen sind gegebenenfalls notwendig und nachhaltig?

Auch im Hinblick auf die Umweltverträglichkeitsprüfung geplanter Maßnahmen an den Bundeswasserstraßen ist die Forschung zu Fragen des Klimawandels bedeutend. Im Rahmen der Umweltverträglichkeitsprüfung muss sowohl die Widerstandsfähigkeit des geplanten Vorhabens gegenüber den Folgen des Klimawandels als auch die Rückwirkungen des Vorhabens auf das Klima auf Basis wissenschaftlicher Erkenntnisse untersucht werden. Diese Fragestellungen können nur in interdisziplinärer Zusammenarbeit beantwortet werden. Hierfür bietet das behördenübergreifend angelegte BMVI-Expertennetzwerk die geeigneten Strukturen.

Zum Hintergrund: Internationale Seehäfen, wie zum Beispiel der Hamburger Hafen, bilden wichtige Knotenpunkte in der Verkehrsinfrastruktur. Von hier werden Güter in die ganze Welt verschifft bzw. ankommende Güter auf Schiene, Straße und Wasserstraße weitertransportiert. Die Häfen sind in vielen Fällen über Flüsse mit dem Meer verbunden. Von der Nordsee kommend erfolgt z. B. die Zufahrt zum Hamburger Hafen entlang des Elbeästuars . Als Folge des Klimawandels sind gravierende Auswirkungen sowohl auf die verkehrliche Nutzung der Ästuare als auch auf den Naturraum zu erwarten.

Im Rahmen des BMVI-Expertennetzwerks werden bei der Bundesanstalt für Wasserbau (BAW) mithilfe eines hochaufgelösten dreidimensionalen numerischen Modells der Deutschen Bucht und der Ästuare von Ems, Jade-Weser und Elbe komplexe Prozesse wie die Tidedynamik sowie der Transport von Salz, Wärme und Sediment für heutige und mögliche zukünftige Verhältnisse simuliert. Die bisherigen Untersuchungen haben gezeigt, dass eine hohe Auflösung der küstennahen Topographie im Modell für die Abschätzung der Auswirkungen des Meeresspiegelanstiegs besonders wichtig ist.

Weiterhin zeigen die Modellergebnisse, dass aufgrund des Meeresspiegelanstiegs mit einer Zunahme der Strömungsgeschwindigkeiten während der Flutphase in den Rinnen des Wattenmeers und den Ästuaren zu rechnen ist. Der Flutstrom wird in vielen Bereichen relativ zum Ebbstrom stärker. Vorausgesetzt, dass genügend Sediment vorhanden ist, nimmt der Sedimenttransport in die Ästuare und ins Wattenmeer zu. Für die Ästuare bedeutet dies, dass als Folge des Klimawandels mit erhöhten Baggermengen gerechnet werden muss, falls sich die Wassertiefe aufgrund des erhöhten Sedimentimports und damit verbundener Sedimentation stärker verringert als sie sich durch den Meeresspiegelanstieg vergrößert. Für das Wattenmeer heißt das, die Watten können aufwachsen. Dennoch ist bei einem beschleunigten Meeresspiegelanstieg mit einem Verlust an Wattflächen zu rechnen, da die morphologische Anpassungsfähigkeit begrenzt ist. Die Abschätzung der zukünftigen topographischen Entwicklung der Watten und der Ästuare stellt neben dem Umgang mit anderen mit dem Klimawandel verbundenen Unsicherheiten eine große Herausforderung dar.

Aufgrund ihrer dissipierenden Wirkung auf die Tideenergie haben die Wattgebiete eine hohe Bedeutung. Ein Verlust oder eine Reduzierung der Wattgebiete könnte die Tidedynamik in den Ästuaren verstärken sowie den Küstenschutz beeinträchtigen. Aber auch der einzigartige Lebensraum Wattenmeer wäre bedroht. Aus diesem Grund wird im BMVI-Expertennetzwerk auch an Maßnahmen geforscht, die ein Aufwachsen der Watten bei einem beschleunigten Anstieg des Meeresspiegels fördern.

Das BMVI-Expertennetzwerk ist das verkehrsträgerübergreifende Forschungsformat in der Ressortforschung des BMVI. Unter dem Leitmotiv „Wissen – Können – Handeln“ haben sich sieben Ressortforschungseinrichtungen und Fachbehörden des Bundesministeriums für Verkehr und digitale Infrastruktur 2016 zu einem Netzwerk zusammengeschlossen. Ziel ist es, drängende Verkehrsfragen der Zukunft unter anderem in den Bereichen Klimawandel, Umweltschutz, alternde Infrastruktur und Digitalisierung zu erforschen und durch Innovationen eine resiliente und umweltgerechte Gestaltung der Verkehrsträger zu ermöglichen.

Wissenschaftliche Ansprechpartner:
Dr. rer. nat. Rita Seiffert
rita.seiffert@baw.de

Weitere Informationen:
https://www.bmvi-expertennetzwerk.de/DE/Home/home_node.html

(nach oben)


Höhere Tierwohlstandards lassen Milchpreise steigen

Finja Thiede Pressestelle
Fachhochschule Kiel
In einer Studie untersuchten Forscher*innen des ife Instituts für Ernährungswirtschaft Kiel und der Fachhochschule Kiel erstmals die Kosten höherer Tierwohlstandards bei der Milchproduktion und die daraus resultierenden Preiserhöhungen für Milch im Einzelhandel. Die Berechnungen ergaben, dass eine Preissteigerung von 10 bis 20 Cent pro Liter nötig wäre, um die Mehrkosten für Produzent*innen und Molkereien zu decken. Die Autor*innen sprechen sich für die Einführung eines staatlichen Tierwohllabels aus. Es könnte für mehr Transparenz bei der Milchproduktion sorgen und die Bereitschaft von Verbraucher*innen steigern, mehr für Milch zu bezahlen, die unter höheren Tierwohlstands produziert wird.

Was kostet die Einhaltung höherer Tierwohlstandards bei der Milchproduktion? Wie hoch müsste der Preisaufschlag ausfallen, damit Landwirt*innen und Molkereien ihre Zusatzkosten decken können? Dies haben Forscher*innen des ife Instituts für Ernährungswirtschaft Kiel (ife Kiel) und der Fachhochschule (FH) Kiel in einer gemeinsamen Studie erstmals untersucht. Ihre Ergebnisse sollen vor allem Produzent*innen helfen, die Kosten und langfristigen Folgen einer Umstellung auf Milch mit höheren Tierwohlstandards abschätzen zu können.

Immer mehr Konsument*innen achten beim Kauf tierischer Produkte auf die Einhaltung von Tierwohlstandards. Doch eine generelle Kennzeichnungspflicht gibt es nicht, stattdessen erschweren eine Fülle unterschiedlicher Labels eine Orientierung und Bewertung. In ihrer Studie verglichen die Fachleute des ife Kiel und der FH Kiel zunächst die Anforderungen der unterschiedlichen Labels, erfassten die Präferenzen der Verbraucher*innen hinsichtlich der Einhaltung von Tierwohlstandards und ermittelten die Mehrkosten für die Betriebe und den Aufwand, der für Molkereien durch ein zusätzliches Angebot von Tierwohlmilch entsteht.

Die betrieblichen Mehrkosten erhoben die Forscher*innen durch eine Befragung der Betriebsbedingungen von 235 Milchbetrieben aus acht Bundesländern. Auf deren Basis berechneten sie, welche Investitionen notwendig wären, um höhere Tierwohlstandards zu erreichen. Als Referenz nutzen sie das Tierwohllabel „Für mehr Tierschutz“ vom Deutschen Tierschutzbund e.V., das nach ihrer Analyse die höchsten Standards an die Haltung von Milchkühen setzt und in eine Einstiegs- und eine Premiumstufe unterteilt ist. In der Einstiegsstufe betragen die Mehrkosten für die Betriebe im Durchschnitt 2,28 Cent pro Liter, in der Premiumstufe durchschnittlich 2,64 Cent pro Liter, mit hohen Variationen je nach betrieblicher Ausgangssituation. In den Molkereien belaufen sich die Mehrkosten auf 5,7 bis 18,9 Cent pro Liter.

„Eine nach höheren Standards produzierte Milch müsste im Endeffekt mindestens 10 bis 20 Cent mehr kosten“, sagt Prof. Dr. Holger Thiele (FH Kiel) und fährt fort: „Das wollen aber die wenigsten zahlen, obwohl sie sich höhere Tierwohlstandards wünschen.“ Einen Grund dafür sehen die Forscher*innen in der geringen Bekanntheit einzelner Tierwohllabels. Viele Verbraucher*innen wüssten nicht, woran sie Produkte mit höheren Tierwohlstandards erkennen könnten. Der Mehrwert durch die Einhaltung von Tierwohlstandards müsste klar nachvollziehbar und vertrauenswürdig dargestellt werden. Dies könne zum Beispiel durch ein einheitliches und leicht verständliches staatliches Tierwohllabel erreicht werden. Eine gesetzlich verpflichtende Kennzeichnung aller tierischen Produkte würde außerdem sicherstellen, dass das Label schnell einen hohen Bekanntheitsgrad erlangt.

Wissenschaftliche Ansprechpartner:
Fachhochschule Kiel
Prof. Dr. Holger Thiele
E-Mail: holger.thiele@fh-kiel.de

Weitere Informationen:
http://www.tierschutzlabel.info Hier finden Sie Informationen zu den Anforderungen des Labels „Für mehr Tierschutz“.

Anhang
ife Diskussionspapier_Zusatzkosten in der Milcherzeugung und -verarbeitung unter Einhaltung verschiedener Tierwohlstandards

(nach oben)


Fußball und Inklusion: Auf das richtige Trainingsklima kommt es an

Susann Huster Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig
Fußballspielen kann die Inklusion von Jugendlichen fördern, die nicht aus der vorherrschenden Kultur eines Landes kommen, also von Jugendlichen mit Migrationshintergrund. Entscheidend für das Gefühl, dazuzugehören und angenommen zu werden, ist dabei die Art des Trainings, genauer gesagt das vom Trainer vermittelte Motivationsklima. So eignet sich ein aufgabenorientiertes Training maßgeblich besser als ein leistungs- und wettbewerbsorientiertes Training.

Dies geht aus der aktuellen Studie eines internationalen Wissenschaftlerteams hervor, dem auch Anne-Marie Elbe angehört, Professorin für Sportpsychologie an der Universität Leipzig. Gesellschaftlich bedeutsam ist diese Erkenntnis, da insbesondere Erfahrungen im Jugendalter prägenden Einfluss auf die Einstellungen und Haltungen eines Menschen haben.

Fußballspielen kann die Inklusion von Jugendlichen fördern, die nicht aus der vorherrschenden Kultur eines Landes kommen, also von Jugendlichen mit Migrationshintergrund. Entscheidend für das Gefühl, dazuzugehören und angenommen zu werden, ist dabei die Art des Trainings, genauer gesagt das vom Trainer vermittelte Motivationsklima. So eignet sich ein aufgabenorientiertes Training maßgeblich besser als ein leistungs- und wettbewerbsorientiertes Training. Dies geht aus der aktuellen Studie eines internationalen Wissenschaftlerteams hervor, dem auch Anne-Marie Elbe angehört, Professorin für Sportpsychologie an der Universität Leipzig. Gesellschaftlich bedeutsam ist diese Erkenntnis, da insbesondere Erfahrungen im Jugendalter prägenden Einfluss auf die Einstellungen und Haltungen eines Menschen haben.

Fußball gilt als Mustersport der Inklusion. „Erstaunlicherweise mangelt es nach unserem Kenntnisstand jedoch an Theorie und Forschung in Bezug auf das Inklusionsgefühl Jugendlicher im Teamsport“, schreiben die Autorinnen und Autoren in ihrer Studie. Diese Lücke zu füllen sei wichtig, denn Teamsport habe nicht zwangsläufig Inklusionscharakter.
Für ihre Untersuchung befragte das dänisch-niederländisch-deutsche Wissenschaftlerteam 245 Jungen im Alter von 10 bis 16 Jahren zu ihren Erfahrungen. „Wir haben uns auf diese Altersgruppen konzentriert, weil insbesondere in diesem Zeitfenster positive interkulturelle Kontakterfahrungen zu positiveren Gruppeneinstellungen im Erwachsenenalter führen“, so die Autoren. Die Probanden gehören zu zwei niederländischen Fußballclubs, bei denen sehr diverse Teams trainieren. Die Mehrheit der Studienteilnehmer, das sind 61,6 Prozent, hat einen Migrationshintergrund. Das heißt, der Spieler selbst oder wenigstens ein Elternteil wurde außerhalb der Niederlande geboren.

Inklusion besteht für das Forscherteam dabei aus zwei Komponenten, erläutert Anne-Marie Elbe von der Universität Leipzig: „Wie stark fühle ich mich einer Mannschaft zugehörig? Und wie stark habe ich das Gefühl, dass ich so sein kann, wie ich bin – also authentisch mit beispielsweise meiner anderen kulturellen Herkunft?“ Dieses Inklusionsverständnis stützt sich auf bereits anerkannte Forschungsarbeiten anderer Wissenschaftlerinnen und Wissenschaftler.

„Unsere Annahme in der Studie war, dass das Gefühl von Inklusion damit zusammenhängt, was für ein motivationales Klima in dieser Mannschaft existiert, das heißt, vom Trainer erzeugt wird“, so Elbe weiter. Unterschieden wird dabei zwischen einem leistungsorientierten Motivationsklima auf der einen Seite, wo es gilt, besser zu sein als andere Spieler im eigenen Team, sowie einem aufgabenorientierten Motivationsklima auf der anderen Seite. Bei der Aufgabenorientierung gilt der Blickpunkt dem einzelnen Spieler und der Verbesserung seiner eigenen Fähigkeiten. Es geht um die Motivation eines jeden, hinzuzulernen: Gelingt es ihm, eine Aufgabe gut zu machen beziehungsweise kann er vermeiden, sie schlechter als zuvor zu machen?

Die Wissenschaftlerinnen und Wissenschaftler um Prof. Anne-Marie Elbe konnten nun zeigen, dass ein aufgabenorientiertes Trainingsklima positiv mit dem Inklusionsempfinden der jugendlichen Spieler zusammenhängt, ein wettbewerbsorientiertes Klima hingegen negativ. Wenn beide Trainingsarten nebeneinander angewendet wurden, konnten Spieler ohne Migrationshintergrund noch gut damit umgehen, ohne dass ihr Zugehörigkeitsgefühl zu sehr litt. Bei Spielern mit Migrationshintergrund jedoch war zu beobachten, dass ihr Inklusionsgefühl nur dort stabil war, wo ein hohes Maß an Aufgabenorientierung vorherrschte und der Wettbewerbsansatz innerhalb der eigenen Mannschaft nicht oder nur wenig verfolgt wurde.

„Man kann also nicht per se sagen, dass es positive Auswirkungen hat, Mitglied einer Fußballmannschaft zu sein. Um positive Auswirkungen mit dem Fußballtraining zu erzielen, muss sich der Trainer in einer bestimmten Art und Weise verhalten und ein spezifisches Klima während der Trainingseinheit herstellen. Darin steckt sehr großes Potential, und dies ist von enormer gesellschaftlicher Bedeutung“, sagt Anne-Marie Elbe. „Mit unserer Studie haben wir dazu beigetragen, die quantitative Forschung zu Inklusion und Sport etwas zu erweitern.“

Anne-Marie Elbe war bis 2017 an der Universität Kopenhagen tätig, wo sie die Studie – das Promotionsvorhaben von Silke Dankers – mitbetreute. Das Vorhaben wurde im Rahmen des Zentrums „Team Sports and Health“ der Universität Kopenhagen durchgeführt und durch den Nordea-Fonds gefördert. Die Ergebnisse veröffentlichten die Forscherinnen und Forscher nun in der renommierten Fachzeitschrift „Psychology of Sport and Exercise“.

Originaltitel der Fachveröffentlichung in „Psychology of Sport and Exercise“:
„Perceived inclusion in youth soccer teams: The role of societal status and perceived motivational goal climate“,

Psychology of Sport and Exercise, Volume 53, 2021,
doi: 10.1016/j.psychsport.2020.101882 , ISSN: 1469-0292
Birgit Pfeiffer

Wissenschaftliche Ansprechpartner:
Prof. Dr. Anne-Marie Elbe
Institut für Sportpsychologie und Sportpädagogik
Telefon: +49 341 97-31633
E-Mail: amelbe@uni-leipzig.de

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S1469029220308670
http://www.spowi.uni-leipzig.de/fakultaet/institute-fachgebiete/psychpaed/personal/prof-dr-anne-marie-elbe/

(nach oben)


Saurer Regen war gestern? Sulfat in Gewässern ist und bleibt dennoch ein Problem

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Saurer Regen gehört eigentlich der Vergangenheit an, doch noch immer steigen die Sulfatkonzentrationen in vielen Binnengewässern weltweit. Forschende unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der dänischen Universität Aarhus geben in einer neuen Studie einen Überblick, aus welchen Quellen das Sulfat heute stammt und welche Folgen es hat. Sie weisen darauf hin, dass die negativen Folgen für Ökosysteme und Trinkwassergewinnung bisher nur regional wahrgenommen werden und empfehlen, Sulfat stärker in rechtlichen Umweltstandards zu berücksichtigen.

„Saurer Regen“ war ein Phänomen der 1980er Jahre, als bei der Verbrennung fossiler Brennstoffe große Mengen an Schwefel in die Atmosphäre gelangten. Nachdem Kraftwerke in Nordamerika und Europa zur Rauchgasentschwefelung nachgerüstet wurden, schien die Gefahr zunächst gebannt. In Deutschland sanken die atmosphärischen Schwefeleinträge um 90 Prozent. In Binnengewässern blieben die Konzentrationen an Sulfat, das aus Schwefel gebildet wird, in den letzten Jahrzehnten dennoch nahezu unverändert; in einigen Regionen stiegen sie sogar. Für die Forschenden ein klares Zeichen dafür, dass andere Quellen an Bedeutung gewonnen haben.

Entwässerung, Kunstdünger und Braunkohletagebau zählen zu den Hauptursachen:
Gelöstes Sulfat entsteht in Binnengewässern natürlicherweise durch die Verwitterung von Mineralien, bei Vulkanismus oder beim Abbau von organischem Material. Doch vor allem menschliche Aktivitäten lassen die Konzentrationen von Sulfat im Wasser deutlich ansteigen. Neben den atmosphärischen Einträgen sind dafür insbesondere die Entwässerung von Mooren, die Absenkung des Grundwasserspiegels für den Braunkohletagebau, Düngerauswaschungen aus landwirtschaftlich genutzten Böden sowie Abwässer aus Landwirtschaft und Industrie verantwortlich. Weltweit macht der landwirtschaftliche Einsatz von schwefelhaltigen Substanzen rund 50 Prozent des jährlich in die Umwelt eingetragenen Schwefels aus. So gelangt in einigen Regionen der Welt heute mehr Schwefel in Böden und Gewässer als zum Höhepunkt des sauren Regens.

Der Klimawandel verschärft die Situation:
Die Folgen des Klimawandels tragen zu einer Verschärfung bei: „Zunehmender Starkregen spült schwefelhaltige Böden und Dünger in Gewässer; größere Flächen von Feuchtgebieten fallen trocken; durch steigende Meeresspiegel gelangt sulfatreiches Salzwasser ins Grundwasser und in Flüsse, wo es die Sulfatkonzentrationen erheblich erhöhen kann“, fasst Dr. Dominik Zak von der dänischen Universität Aarhus die Prognosen zusammen, die er und seine Mitautor*innen in der Übersichtsstudie zusammengetragen haben.

Negative Folgen für Mensch und Ökosysteme:
Die Spree ist ein Beispiel für Flüsse, in denen die Sulfatkonzentrationen als Folge des Braunkohletagebaus angestiegen sind. In einigen Abschnitten überschreitet sie schon heute den Trinkwassergrenzwert von 250 Milligramm pro Liter. „Das ist problematisch, da diese Gewässer als Trinkwasserquelle genutzt werden – typischerweise über Grundwasserentnahme und durch Uferfiltration. Nach wie vor spielt der Braunkohleabbau in vielen Regionen der Welt eine bedeutende Rolle, und überall dort sind Sulfatbelastungen in Gewässern und dem Trinkwasser ein Thema. Auch wenn wir in Deutschland den Ausstieg aus der Braunkohleförderung beschlossen haben, werden uns die Sulfateinträge in unsere Gewässer als Umweltproblem längerfristig erhalten bleiben“, prognostiziert IGB-Forscher Dr. Tobias Goldhammer, einer der Autoren der Studie.

Sulfat beeinträchtigt nicht nur die Trinkwasserqualität, es beeinflusst auch die Stoffkreisläufe von Kohlenstoff, Stickstoff und Phosphor. Das steigert unter anderem den Nährstoffgehalt in Gewässern und damit das Pflanzen- und Algenwachstum sowie das Nahrungsangebot für aquatische Organismen. Die Folge ist ein Sauerstoffmangel im Wasser, der die weitere Freisetzung von Phosphat aus dem Sediment fördert – ein Teufelskreis. Sulfat und seine Abbauprodukte – insbesondere Sulfid – können zudem giftig auf aquatische Lebewesen wirken.

Renaturierte Moorflächen binden Schwefel:
Die biologische Sanierung mithilfe lebender Organismen wie Prokaryonten, Pilzen oder Pflanzen ist eine Möglichkeit, um Schadstoffe aus Ökosystemen zu entfernen. Pflanzenkläranlagen, Bioreaktoren und durchlässige reaktive Barrieren können auch die Sulfatbelastungen in Gewässern mindern. Viel versprechen sich die Wissenschaftler*innen dabei von der Renaturierung von Mooren: Durch die flächendeckende Trockenlegung von Feuchtgebieten wurden Schwefel und schwefelhaltige Eisenverbindungen freigesetzt. Die Wiedervernässung dieser Flächen kann die Freisetzung stoppen und sogar Schwefel speichern: Gelangt dann mit Sulfat angereichertes Wasser über Grund- oder Oberflächenwasser in diese Feuchtgebiete, wird es dort gefiltert.

Sulfat ist ein globales Umweltproblem:
„Es besteht großer Handlungsbedarf, die Sulfatkonzentrationen in Gewässern zu verringern. Da die Probleme im Zusammenhang mit hohen Sulfateinträgen bisher vor allem regional wahrgenommen werden, sind die Auswirkungen auf Binnengewässer noch nicht als global aufkommendes Umweltproblem erkannt. So haben viele Länder dafür keine Umweltstandards definiert. Wir möchten mit unserer Studie auf die Problematik aufmerksam machen, den derzeitigen Stand zur Sulfatbelastung aufzeigen und gleichzeitig auf die noch zahlreichen Wissenslücken hinweisen“, fasst Dominik Zak zusammen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von sieben natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/

Wissenschaftliche Ansprechpartner:
Dr. Tobias Goldhammer
Leiter der IGB-Forschungsgruppe „Nährstoffkreisläufe und chemische Analytik“
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: goldhammer@igb-berlin.de

Dr. Dominik Zak
Department of Bioscience
Aarhus University, Dänemark
Email: doz@bios.au.dk

Originalpublikation:
Zak D, Hupfer M, Cabezas A, Jurasinski G, Audet J, Kleeberg A, McInnes R, Munch Kristiansen S, Petersen RJ, Liu H, Goldhammer T (2020) Sulphate in freshwater ecosystems: A review of sources, biogeochemical cycles, ecotoxicological effects and bioremediation. Earth Science Reviews doi:10.1016/j.earscirev.2020.103446

Weitere Informationen:
https://www.igb-berlin.de/news/saurer-regen-war-gestern

(nach oben)


Neue Untersuchungen bestätigen Munitionsbelastung in der Ostsee erneut

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Schon seit einigen Jahren wird die Belastung der Ostsee durch Kampfmittelaltlasten intensiv untersucht. Auf einer im Herbst 2020 unter der Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel durchgeführten Expedition konnten unter Anwendung neuer Verfahren große mit Munition belastete Flächen untersucht werden. Im Jahr 2021 soll das Thema mit einer Reihe neuer Projekte und Veranstaltungen vertieft werden, um nun rasch vom Wissen zum Handeln zu kommen.

Der Meeresboden der westlichen Ostsee ist in großen Gebieten durch Altmunition belastet, die insbesondere nach Ende des 2. Weltkrieges dort versenkt wurde. Bei einer im Herbst 2020 unter der Leitung der GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel durchgeführten Expedition (AL548) wurden die munitionsbelasteten Gebiete in der westlichen Ostsee erneut untersucht. Ähnlich wie schon im Oktober 2018 wurden von Bord des Forschungsschiffes ALKOR umfangreiche Wasserproben genommen, um die Belastung mit krebserregenden Sprengstoffsubstanzen zu ermitteln. Hierbei kam erstmals auch ein Echtzeit-Analysesystem zum Einsatz, das im Rahmen des EU-finanzierten Projektes ExPloTect am GEOMAR entwickelt wird (www.explotect.eu). Darüber hinaus hatte die Fahrt das Ziel, Methoden zur Objekt-Verifizierung mittels autonomer Unterwasserfahrzeuge (AUVs) zu testen. Um große Ansammlungen von Minen und versenkten Munitionskisten sichtbar zu machen, wurden Meeresboden-Fotomosaike von mehreren 1000 m² Größe generiert. Zudem wurden an Verdachtspunkten gezielt magnetische Messungen durchgeführt. Beides erwies sich als sehr erfolgreich, wobei die zügige und erfolgreiche Implementierung der magnetischen Sensoren auf dem AUV LUISE selbst die im Projekt BASTA (www.basta-munition-eu) arbeitenden Forscher überraschte: „Das wir so schnell eine Implementierung ohne störende Einflüsse durch die Antriebe des AUVs hinbekommen haben und aussagekräftige Messungen machen konnten, hat uns sehr gefreut“, so Projektmitarbeiter Dr. Marc Seidel vom GEOMAR. Hierbei wurde das Projekt durch eine Leihgabe von Magnetometern der Firma Sensys GmbH unterstützt.

„Die Fahrt AL548 war für die technologischen Ziele der beiden Projekte BASTA und ExPloTect sehr erfolgreich“, sagte Fahrtleiter Professor Dr. Jens Greinert. „Zudem haben wir insbesondere in der Lübecker Bucht erhebliche Mengen an Munition gefunden, die außerhalb bekannter Belastungsflächen liegt. Damit konnten wir erneut nachweisen, dass die auf Seekarten vermerkten Gebiete nicht vollständig sind“, so Greinert weiter. Zur Ausfahrt AL548 und den dabei erzielten ersten Ergebnissen sendet ARTE am 19. Januar 2021 um 19:40 eine Reportage.

Wie geht es nun weiter? Derzeit werden am GEOMAR weitere Projektanträge zum Thema Munition im Meer vorbereitet. So befinden sich die Anträge ProBaNNt (KI-basierte Evaluation von Räummethoden) und AMMOTRACE (In-situ Sprengstoffanalyse) in der finalen Bewilligungsphase. Ein Antrag zur Entwicklung eines Räum- und Zwischenaufbewahrungssystems wird in Kürze unter dem Namen CLEAR mit der SeaTerra GmbH in Seevetal eingereicht. Ziel ist es, eine umweltverträgliche Technologie für die Räumung von Munitionsversenkungsgebieten zu entwickeln. „Wenn der Antrag bewilligt wird, sind wir zuversichtlich in zwei Jahren mit einer ersten echten Testräumung in der Kolberger Heide zu starten“, so Dieter Guldin von SeaTerra.

Neben diesen Projekten zur Technologieentwicklung koordiniert GEOMAR das Projekt CONMAR. „In diesem Projekt integrieren wir die gesamte wissenschaftliche Expertise zu Munition im Meer in Deutschland, um die ökologischen Auswirkungen durch die chemische Belastung der Munition in Ost- und Nordsee zu bestimmen“, legt Koordinator Prof. Greinert dar. Neben Kollegen vom Thünen-Institut, dem Institut für Ostseeforschung, der Universität Rostock, dem Umweltbundesamt, dem Alfred-Wegener-Institut, Senckenberg am Meer und dem Global Climate Forum, sind das von Prof. Dr. Edmund Maser geleitete Toxikologische Institut der Universität Kiel und die Kieler Firma EGEOS GmbH Projektpartner. Nach Ansicht von Professor Greinert hat sich Kiel als zentraler Hub für die deutsche Forschung zu Munition im Meer etabliert und wird so auch von Politik und Behörden wahrgenommen. Daher ist es nicht verwunderlich, dass dort auch die erste internationale ‚Kiel Munition Clearance Week‘ im September 2021 stattfinden soll. „Meine Vision ist eine altlastenfreie Ostsee bis 2050“, sagt Jann Wendt, Geschäftsführer der EGEOS GmbH und Initiator der Konferenz. „Die Technik dazu ist bereits heute auf den Reißbrettern der Industrie verfügbar. Woran es momentan noch scheitert, ist der politische Wille und damit die Finanzierung und Umsetzung. Auf unserer Konferenz wollen wir ganz konkrete Lösungsvorschläge erarbeiten, um die Munition großflächig und dabei umweltschonend, kostengünstig und sicher zu räumen“, so Wendt.

„Auch das GEOMAR möchte sich weiter für dieses Thema stark engagieren und den Standort Kiel mit dem GEOMAR als wichtigem wissenschaftlichen und koordinierenden Zentrum etablieren“, sagt GEOMAR-Direktorin Professorin Katja Matthes.

Weitere Informationen:
http://www.geomar.de GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.explotect.eu Projekt ExPloTect
http://www.basta-munition.eu Projekt BASTA

(nach oben)


An der Uhr gedreht: Wie Zeit das Arbeitsgedächtnis beeinflusst

Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
Wenn die Arbeit eintönig ist, wirkt es, als ob die Zeit stehen bliebe. Wird man hingegen geistig gefordert, vergeht die Zeit gefühlt wie im Flug. Wissenschaftler am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) haben nun gezeigt, dass die Beziehung zwischen der Auslastung des Arbeitsgedächtnisses und der Zeitwahrnehmung auch andersherum bestehen kann. Dazu haben sie Anzeigen zur Dauer der verstrichenen Zeit beschleunigt oder verlangsamt, ohne dass die Versuchspersonen davon wussten. Hatten die Teilnehmenden den Eindruck, die Zeit verginge schneller, verbesserten sich ihre Leistungen.

Wenn wir eine Arbeit gerne machen oder uns auf eine Aufgabe konzentrieren, kann der Arbeitstag schneller vorbei sein – obwohl es sich für uns nicht wie acht Stunden Arbeit angefühlt hat. Dass kognitive Prozesse beeinflussen, wie wir die zeitliche Dauer von Ereignissen wahrnehmen, ist ein bekanntes Phänomen in der Forschung. Kaum untersucht sind hingegen Effekte in die andere Richtung: Beeinflussen experimentell veränderte Angaben zur zeitlichen Dauer ebenfalls kognitive Prozesse? Neurowissenschaftler des IfADo sind dieser Frage in einer aktuellen Studie nachgegangen. Dabei haben sie erstmals untersucht, was im Gehirn passiert, wenn zeitliche Informationen manipuliert werden.

An der Studie haben 30 Versuchspersonen teilgenommen. Sie sollten am PC komplexe Arbeitsgedächtnisaufgaben lösen. Zwischen den Aufgabenblöcken wurden die Versuchspersonen nach ihrer eigenen Leistung gefragt. Auf dem PC wurde nebenbei die Uhrzeit eingeblendet. Dabei handelte es sich zu Beginn des Versuchs um die tatsächliche Uhrzeit. Im weiteren Verlauf wurde eine um 20 Prozent beschleunigte sowie eine um 20 Prozent verlangsamte Uhrzeit eingeblendet. Je nach Gruppenzuteilung wurde zuerst die schnellere oder die langsamere Uhrzeit angezeigt.

Schnellere Uhr verbessert kognitive Leistung
Es zeigte sich, dass die Versuchspersonen die Arbeitsgedächtnisaufgaben während des Blocks mit der schnelleren Uhr signifikant besser bearbeiteten. Die Forschenden haben zusätzlich zu den Verhaltensdaten die Hirnaktivität mittels Elektroenzephalografie (EEG) gemessen. Sie konnten zeigen, dass die Theta-Aktivität während des Blocks mit der experimentell beschleunigten Uhrzeit deutlich erhöht war im Vergleich zu den anderen Blöcken. Frontale Theta-Wellen werden mit Arbeitsgedächtnis- und Aufmerksamkeitsprozessen in Verbindung gebracht. Sie sind in diesem Zusammenhang ein Anhaltspunkt, wie viele kognitive Ressourcen in die Bearbeitung einer Aufgabe investiert werden.

„Diese Befunde für die Versuche mit beschleunigter Zeit können damit zusammenhängen, dass die Probanden die an sich nicht so spannende Versuchsaufgabe als positiver wahrgenommen haben, weil die Zeit scheinbar schneller vorbeigegangen ist. Das wiederum führt dazu, dass sie der Aufgabe ihre volle Aufmerksamkeit zuwenden“, erklärt Studienautor Dr. Daniel Schneider vom IfADo.

Die Studie zeigt, dass bereits kleine, äußere Veränderungen die Leistung des Arbeitsgedächtnisses beeinflussen können. Diese Erkenntnis könnte zum Beispiel für die Arbeitsplatzgestaltung relevant sein, etwa wenn es um die Frage geht, ob sich die bloße An- oder Abwesenheit von zeitlichen Informationen auf die Arbeitsleistung auswirken kann. Um dazu verlässliche Aussagen treffen zu können, ist weitere Forschung nötig. Diese muss auch Wissen darüber generieren, wie dieser Zusammenhang im Gehirn verarbeitet wird.

Das Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) umfasst die Forschungsbereiche Ergonomie, Immunologie, Psychologie & Neurowissenschaften und Toxikologie. Die rund 220 Beschäftigten erforschen Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Das IfADo ist Mitglied der Leibniz-Gemeinschaft, die 96 selbstständige Einrichtungen umfasst. Finanziert wird das Institut durch eine gemeinsame institutionelle Förderung von Bund und Land sowie aus Drittmitteln.

Wissenschaftliche Ansprechpartner:
Dr. Daniel Schneider
Leiter des Themenbereichs „Informationsverarbeitung“, Fachbereich Ergonomie
E-Mail: schneiderd@ifado.de
Telefon: +49 231 1084-265

Originalpublikation:
Thönes S, Arnau S, Wascher E, Schneider D (2021): Boosting working memory with accelerated clocks. NeuroImage, Volume 226. 117601.
doi: 10.1016/j.neuroimage.2020.117601

Weitere Informationen:
https://www.ifado.de/2021/01/18/zeit-arbeitsgedaechtnis/ IfADo-Website
https://doi.org/10.1016/j.neuroimage.2020.117601 Originalpublikation (Open Access)

(nach oben)


CO2-Bepreisung allein bringt technologischen Wandel kaum voran

Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Um die Ziele des Pariser Klimaabkommens zu erreichen, muss die Staatengemeinschaft bis 2050 klimaneutral wirtschaften. Für das wichtigste klimapolitische Instrument halten viele Regierungen und Fachleute die CO2-Bepreisung – auch Deutschland hat sie gerade für Verkehr und Wärme eingeführt. Eine Studie zeigt jedoch, dass deren Lenkungswirkung nicht so stark ist wie erhofft.

Zwar haben Kohlenstoffpreissysteme in einigen Ländern zu sinkenden Emissionen geführt, einen umfassenden technologischen Wandel bewirken sie alleine jedoch nicht. Um die erforderlichen Veränderungen voranzutreiben, braucht es eine sektorspezifische Förderung von klimafreundlichen Technologien, zum Beispiel Änderungen des Strommarktdesigns und ein besseres Ladenetz für Elektroautos. Dafür sind erhebliche Investitionen erforderlich. Die Bilanz der CO2-Besteuerung ist in dieser Hinsicht enttäuschend, wie die Wissenschaftler Johan Lilliestam (IASS/Uni Potsdam), Anthony Patt (ETH Zürich) und Germán Bersalli (IASS Potsdam) zeigen. Sie untersuchten empirische Studien zu den Wirkungen der Kohlenstoffpreissysteme in der EU, Neuseeland, der kanadischen Provinz British Columbia und den nordischen Ländern.

„Wir beobachten zum Teil beachtliche Senkungen der Emissionen, allerdings nicht durch die dringend nötigen Investitionen in CO2-freie Technologien, sondern durch einen Umstieg auf andere, etwas weniger CO2-intensive Nutzungen. Für die angestrebte Klimaneutralität ist ein Umstieg von Benzin auf Diesel oder von Kohle- auf Gasstrom aber praktisch irrelevant“, sagt Leitautor Johan Lilliestam. Um netto null Emissionen zu erreichen, seien größere, systemische Veränderungen nötig.

Auch hohe CO2-Preise bewirkten kaum Investitionen in CO2-freie Technologien
Die meisten der untersuchten Studien nennen einen niedrigen CO2-Preis und eine zu große Zahl ausgegebener CO2-Zertifikate als Hauptursache für die unzureichende Lenkungswirkung der CO2-Bepreisung. Allerdings ist dies laut Lilliestam, Patt und Bersalli keine hinreichende Erklärung. Denn sogar in den nordischen Ländern mit ihren verhältnismäßig hohen CO2-Preisen war die Lenkungswirkung in Richtung eines technologischen Wandels nicht beobachtbar.

Einen Grund dafür sehen sie darin, dass andere Politikmaßnahmen – vor allem Förderprogramme für erneuerbare Energien – die Energiewende in Schwung gebracht haben. Solche spezifischen Fördermaßnahmen boten Investoren stärkere Investitionsanreize als das gleichzeitig umgesetzte Kohlenstoffpreissystem, und der dadurch ausgelöste Ausbau führte zu starken Kostensenkungen vor allem für Wind- und Solarstrom. Zudem schwanken die Preise für fossile Energien oft stärker als der Aufschlag, der durch die CO2-Bepreisung entsteht. Diese Schwankungen, zum Beispiel des Benzinpreises, überschatten damit die Lenkungswirkung der CO2-Steuer.

Als Teil eines Maßnahmenpakets kann CO2-Bepreisung nützlich sein
Trotz der schwachen Bilanz sehen die Wissenschaftler zwei Chancen für CO2-Preise. „Einerseits können sie genutzt werden, um Einnahmen für dringend nötige Fördermaßnahmen und öffentliche Investitionen zu erzielen. Andererseits können sie in bestimmten Sektoren, wie der Kohleverstromung, dazu beitragen, dass die CO2-intensivsten Technologien endgültig ihre Wettbewerbsfähigkeit verlieren, wenn eine alternative Technologie bereit steht“, erläutert Lilliestam. Nicht als zentrales Instrument, aber als Teil eines breit angelegten Maßnahmenpaketes könne die CO2-Bepreisung also zu den Klimazielen beitragen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Johan Lilliestam
johan.lilliestam@iass-potsdam.de

Originalpublikation:
Lilliestam, J., Patt, A., Bersalli, G. (2021): The effect of carbon pricing on technological change for full energy decarbonization: A review of empirical ex‐post evidence. – Wiley Interdisciplinary Reviews – Climate Change, 12, 1, e681. https://doi.org/10.1002/wcc.681

(nach oben)


Stress an den deutschen Flüssen: Der Klimawandel setzt Umwelt und Wirtschaft unter Druck

Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Ende des Jahrhunderts (2071-2100) ist mit erheblichen Änderungen der Umwelt- und Wirtschaftsbedingungen an den großen Flüssen in Deutschland zu rechnen, wenn globale Klimaschutzmaßnahmen nur unzureichend ergriffen werden. Aktuelle Ergebnisse der Bundesanstalt für Gewässerkunde zeigen die besonders betroffenen Flussabschnitte und wo dringlicher Anpassungsbedarf besteht.

Die Bundesanstalt für Gewässerkunde hat in den vergangenen vier Jahren untersucht, wie sich die prognostizierten klimatischen Bedingungen auf die großen Flüsse in Deutschland auswirken. Hierfür hat sie mit den Partnerbehörden des BMVI-Expertennetzwerks detaillierte Modelle entwickelt und neueste Klimaszenarien genutzt. Ein untersuchtes Szenario unterstellt, dass die globalen Klimaschutzmaßnahmen zu gering ausfallen, was bis zum Ende des 21. Jahrhunderts zu einem Anstieg der globalen Mitteltemperatur um bis zu fünf Grad Celsius gegenüber dem vor-industriellen Zeitalter führen würde. Die Auswertungen legen nahe, wie wichtig die angestrebte weitere Reduktion der Treibhausgasemissionen auch für die Flüsse ist. Bei diesem Szenario können intensivere Hochwasserereignisse die Verkehre auf Schiene, Straße und Wasserstraße beeinträchtigen. Die Binnenschifffahrt hätte zudem unter längeren Niedrigwasserphasen zu leiden. Am Rhein-Pegel Kaub würden beispielsweise kritische Schwellenwerte gegen Ende des Jahrhunderts an 22 bis 48 Tagen unterschritten. Aber auch die Lebewesen in den Gewässern gerieten öfter in Stress. Grund dafür sind steigende Wassertemperaturen, die ebenso erwartet werden. „Die Zuspitzung von Niedrigwassersituationen am Mittel- und Niederrhein kann die Logistikbranche zukünftig vor beträchtliche Herausforderungen stellen.“ befürchtet BfG-Wissenschaftler Dr. Enno Nilson. „Deshalb ist die gemeinsame und einheitliche Erforschung der Klimawirkungen auf alle Verkehrsträger im BMVI-Expertennetzwerk so wichtig. Basierend auf den neuen Erkenntnissen, können stimmige Anpassungsmaßnahmen für das Verkehrssystem abgeleitet werden.“

Die Ergebnisse wurden auf der Homepage des BMVI-Expertennetzwerks veröffentlicht und werden auf der interaktiven Veranstaltung „BMVI-Expertennetzwerk online – Forschungsergebnisse kompakt“ am 19. Januar 2021 der Fachöffentlichkeit präsentiert.

Die Forschungsarbeiten im Rahmen des BMVI-Expertennetzwerks bestätigen, präzisieren und erweitern die Ergebnisse aus dem Jahr 2015, die vom Klimafolgenforschungsprogramm KLIWAS zu Auswirkungen des Klimawandels auf Wasserstraßen und Schifffahrt stammten. Diese Arbeiten werden seit 2016 im behördenübergreifenden BMVI-Expertennetzwerk fortgeführt. Neben der Verwendung von aktuellen Klimadaten und der Entwicklung von neuen Methoden ermöglicht das BMVI-Expertennetzwerk auch die gemeinsame Betrachtung von Klimawirkungen auf Straßen, Schienen und Wasserstraßen. Die Erkenntnisse und Methoden werden künftig durch den DAS-Basisdienst „Klima und Wasser“ operationalisiert. So sind die aktuellen wissenschaftlichen Erkenntnisse der Öffentlichkeit und Fachleuten dauerhaft zugänglich und ermöglichen der Entscheidungsebene unter anderem eine Anpassung der Wasserwirtschaft und der Binnenschifffahrt an die Folgen des Klimawandels.

Wissenschaftliche Ansprechpartner:
Dr. Enno Nilson, Referat Wasserhaushalt Vorhersagen und Prognosen, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0 261 1306 5325, E-Mail: Nilson@bafg.de

(nach oben)


Regionaler Wasserstoff aus Biomasse – sauber und effizient!

Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
An der Hochschule Hof macht eine Unternehmensgründung auf sich aufmerksam, die wichtige Lösungen für die Energiewende liefern könnte: Die BtX energy GmbH bietet unterschiedliche Verfahren, um aus Biomasse hochwertigen Wasserstoff herzustellen. Neben dem Vertrieb schlüsselfertiger Anlagen zur Dampfreformierung von Biogas möchte die junge Firma zunächst für die Region Hof ein Gesamtkonzept zur regionalen Erzeugung und Nutzung von grünem Wasserstoff erstellen – ein wegweisendes Unterfangen.

Andy Gradel ist gelernter Maschinenbauer und Leitender Ingenieur am Institut für Wasser- und Energiemanagement der Hochschule Hof (iwe). Der 30Jährige, der vor kurzem seine Doktorarbeit fertigstellte, beschäftigt sich in seiner Forschung seit 2016 mit der Frage, wie aus Biomasse saubere Energie und Wärme gewonnen werden kann. In Zusammenarbeit mit seinem Industriepartner, der WS – Wärmeprozesstechnik GmbH aus dem schwäbischen Renningen gelang Gradel im Rahmen einer Promotion im Kontext der Technologieallianz Oberfranken (TAO) nun über viele Versuche die Entwicklung eines neuartigen Holzvergasers.

Auszeichnung für Forschung
„Unser Vergaser basiert auf der Nutzung der prozesseigenen Holzkohle als Teerfilter. Dadurch erreichen wir einen deutlich wartungsärmeren und gleichzeitig flexibleren Betrieb der Anlage – gemessen am derzeitigen Stand der Technik. Das macht unseren Holzvergaser finanziell attraktiv“, erklärt Andy Gradel. Für seine Forschung am Verfahren wurde der gebürtige Bayreuther unlängst bei einer Fachkonferenz in Zittau mit dem „Young Academics Award for Bioenergy 2020“ als bester Nachwuchsforscher des Bereichs ausgezeichnet.

Marktgang mit Profis
Die erfolgreiche Technik möchte Andy Gradel nun auf den Markt bringen. Anders als anzunehmen ist die deshalb neu gegründete BtX energy GmbH kein Niemand in der Branche: Mitgesellschafter sind die renommierten Unternehmer Joachim Wünning und Martin Schönfelder, Geschäftsführer der WS Wärmeprozesstechnik GmbH, welche 2011 den deutschen Umweltpreis für die FLOX® Technologie (flammenlose Verbrennung) erhielt. Darüber hinaus beteiligt ist Prof. Tobias Plessing, Wissenschaftlicher Leiter des Instituts für Wasser- und Energiemanagement (iwe) an der Hochschule Hof. Gemeinsam möchte man einen Beitrag für die Energiewende leisten.

Hoffnung für Biogasbranche
Neben der Weiterentwicklung des Holzvergasers bis zur Marktreife wird das junge Unternehmen vor allem Wasserstoffproduktionsstätten für Biogasanlagen auf den Markt bringen. Wie wichtig derartige Erfindungen für die Biogasbranche sind, zeigt ein Blick auf deren aktuelle Herausforderungen: In den kommenden Jahrzehnten ist die Biogas-Industrie nach Experteneinschätzungen von einem kompletten Rückbau bedroht. Grund dafür ist die auf 20 Jahre befristete Einspeisevergütung für grünen Strom aus diesen Anlagen. Anschlussverträge ermöglichen derzeit oft keinen wirtschaftlichen Weiterbetrieb der bestehenden Anlagen. Die Lösung für das Problem wollen nun die Akteure der BtX energy GmbH bieten.

Wasserstoff in hoher Menge möglich
Wasserstoff ist ein bereits heute viel genutzter Grundstoff und gleichzeitig ein wesentlicher Energieträger der Zukunft. Wo und wie grüner Wasserstoff zu wirtschaftlichen Preisen industriell und in Masse produziert werden kann, ist allerdings nach wie vor eine ungelöste Frage: „Während sich die meisten Akteure im Energiemarkt auf die Elektrolyse aus dem regenerativem Überschussstrom konzentrieren, werden durch die neue Technik schlüsselfertige Anlagen zur Dampfreformierung von Biogas möglich. Dies kann für die kriselnde Biogasbranche von enormem Nutzen sein“, so Prof. Tobias Plessing von der Hochschule Hof.

Platzsparende Containerlösung
Die schlüsselfertige Komplettlösung für die Biogasreformierung soll nun den Markt revolutionieren – in Form einer unauffälligen und platzsparenden Containerlösung. „Die Produktionskosten je Kilogramm Wasserstoff können dabei sogar deutlich niedriger ausfallen als bei der Elektrolyse“, so die Hoffnung des Jungunternehmers. Durch die dezentrale Erzeugung würde zudem der aufwändige und energieintensive Straßentransport des Wasserstoffs minimiert oder bestenfalls ganz vermieden, was sich ebenfalls positiv auf die Wirtschaftlichkeit der Anlage und die Gesamtenergiebilanz des Vorhabens auswirkt.

Unterstützung für Betreiber
Neben Produktion und Vertrieb der Anlagen möchte die neugegründete Firma auch die zukünftigen Betreiber dazu befähigen, den Wasserstoff auf den Märkten abzusetzen. Betreiber von Biogasanlagen seien schließlich meist in der Landwirtschaft verankert und daher keine klassischen Energiehändler. „Sicherzustellen, dass die Anlage genug Gewinn abwirft, ist unbedingt notwendig. Dieser Herausforderung stellt sich die BtX energy GmbH als Anbieter von Komplettlösungen“, so Geschäftsführer Andy Gradel. Von der Produktion bis zum Verkauf an der Zapfsäule, der Nutzung für Müllfahrzeuge, Landmaschinen oder im ÖPNV: „Überall, wo Wasserstoff die Energiewende vorantreiben kann, können die Landwirtschaft, die Bioabfallverwertungsbranche sowie viele weitere Akteure ihren Beitrag leisten: dezentral, sofort umsetzbar, rund um die Uhr auf Volllast und aufgrund der direkten stofflichen Umwandlung mit bestechend hohem Wirkungsgrad. Wir wollen dabei unterstützen.“

Konzept für die Region
Ziel der Forscher und Unternehmer ist darüber hinaus, anhand der Region Hof gemeinsam mit den regionalen Playern ein Beispielkonzept für die Erzeugung und die Nutzung grünen Wasserstoffs aufzulegen, das anschließend national oder gar international adaptiert werden kann. „Die Region ist wie die meisten bayerischen Regionen in Summe ländlich und landwirtschaftlich geprägt und gleichzeitig dicht mit Unternehmen im Bereich der Logistik besiedelt. Dies ist eine ideale Voraussetzung, um beispielhaft eine gesamte regionale Wertschöpfung von Wasserstoff aus Biomasse zu skizzieren und voranzutreiben. Wir sind dazu aktuell auf der Suche nach Partnern aus Politik und von kommunaler Seite. Unser klares Ziel ist es, dies vor Ort umzusetzen und so auch die Mobilitätswende in der Region Hof voranzubringen“, so Geschäftsführer Andy Gradel. Die erste Anlage zur Demonstration der Funktionsweise und Wirtschaftlichkeit ist für dieses Vorhaben bereits im Bau.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tobias Plessing
Ingenieurwissenschaften
Maschinenbau
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
E-Mail: tobias.plessing@hof-university.de

Anhang
Regionaler Wasserstoff aus Biomasse – sauber und effizient!

(nach oben)


Permanenter Hitzezustand / Klimawandel fördert das Aufheizen von Seen

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Perioden mit außergewöhnlich warmem Oberflächenwasser in stehenden Gewässern, sogenannte „Seen-Hitzewellen“, werden bis zum Ende des 21. Jahrhunderts an Intensität und Dauer zunehmen. Das schreibt ein internationales Wissenschaftler*innen-Team unter Beteiligung des Helmholtz-Zentrums für Umweltforschung (UFZ) im Fachjournal Nature. Dies bedrohe die Artenvielfalt und bringe die Ökosysteme dieser Gewässer an die Grenzen ihrer Belastbarkeit.

Das Forscher*innen-Team modellierte unter Leitung der Europäischen Weltraumorganisation ESA die Auswirkungen der Klimaerwärmung auf 702 Seen weltweit, darunter der Chiemsee und der Müritzsee in Deutschland. Sie bezogen sich dabei auf drei Szenarien künftiger Treibhausgasemissionen, die sogenannten „Repräsentativen Konzentrationspfade“ (RCPs). Diese beschreiben, ob der Ausstoß von Kohlendioxid bis zum Jahr 2100 gestoppt wird (RCP 2.6), weiter steigt (RCP 6.0) oder sich ungebremst fortsetzt (RCP 8.5). Im letzten Fall würde laut des Weltklimarats IPCC bis Ende des Jahrhunderts die Erwärmung im weltweiten Durchschnitt mehr als vier Grad betragen, was der aktuellen Entwicklung entspricht.

Doch welche Auswirkungen hat diese Entwicklung auf die Seen? Für das RCP 8.5-Szenario zeigen die Modelle der Forscher, dass sich die durchschnittliche Intensität der Seen-Hitzewellen bis zum Jahr 2100 um 1,7 Grad von derzeit 3,7 Grad Celsius auf 5,4 Grad Celsius erhöhen wird. Zudem wird ihre durchschnittliche Dauer von derzeit etwa einer Woche auf mehr als drei Monate ansteigen. Geht man dagegen von einem RCP 2.6-Szenario aus, klettert die durchschnittliche Intensität einer Hitzewelle lediglich um 0,3 Grad auf rund 4,0 Grad Celsius bei einer durchschnittlichen Dauer von einem Monat.

Außerdem zeigte sich, dass die Tiefe der Seen, die in der Studie zwischen 2 und 60 Metern variierte, entscheidenden Einfluss darauf hat, wie stark die Hitzewellen ausfallen: In tieferen Seen halten sie länger an, sind aber weniger intensiv. Zum Beispiel dauern Hitzewellen in einem 30 Meter tiefen See ungefähr doppelt so lang und sind um ca. 2 Grad Celsius weniger intensiv wie in einem See, der nur 3 Meter tief ist.

Die Forscher gehen davon aus, dass sich – bedingt durch die prognostizierte Klimaerwärmung – in den kommenden Jahrzehnten Seen-Hitzewellen über mehrere Jahreszeiten erstrecken werden. „Außergewöhnliche Seen-Hitzewellen werden in Zukunft in vielen Fällen zur Normalität“, sagt der UFZ-Forscher und Mitautor der Studie Dr. Tom Shatwell. Bis zu 40 Prozent der untersuchten Seen könnten beim RCP 8.5-Szenario einen permanenten Hitzezustand erreichen, der sich über das ganze Jahr erstreckt und sich deutlich auf die physikalische Struktur und die chemischen Eigenschaften auswirkt. „Konkret heißt das zum Beispiel, dass sich die Durchmischungsverhältnisse in den Seen verändern können und damit die Verfügbarkeit von Sauerstoff im Wasser negativ beeinflussen. Auch die Gefahr der durch Cyanobakterien hervorgerufenen giftigen Blaualgenteppiche würde steigen. Und schließlich ist auch die biologische Vielfalt bedroht, weil manche in und an Seen lebenden Arten nicht sehr hitzetolerant sind“, sagt Tom Shatwell. Diese Entwicklung könne die Ökosysteme an die Grenzen ihrer Belastbarkeit treiben, resümieren die Autoren*innen der Studie.

Dass die Erwärmung von Gewässern auch für den Menschen Konsequenzen haben kann, zeigten UFZ-Wissenschaftler um den Seenforscher Dr. Karsten Rinke in einer anderen Studie. Ende des vergangenen Jahres berichteten sie in der Zeitschrift Science of the Total Environment, dass auch in Trinkwassertalsperren wie der Rappbodetalsperre im Harz die Wassertemperaturen deutlich steigen können – mit entsprechenden Auswirkungen auf das Management der Trinkwasserversorgung.

Wissenschaftliche Ansprechpartner:
Dr. Tom Shatwell
UFZ-Department Seenforschung
tom.shatwell@ufz.de

Originalpublikation:
RI Woolway, E Jennings, T Shatwell, M Golub, D Pierson and S Maberly: Lake heatwaves under climate change. Nature (2021), https://doi.org/10.1038/s41586-020-03119-1

(nach oben)


Benzinpreise steigen nach CO2-Bepreisung und Mehrwertsteuererhöhung weniger als erwartet

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Zu Jahresbeginn startete in Deutschland das Zeitalter der CO2-Bepreisung von fossilen Kraft- und Brennstoffen. Darüber hinaus ist der Mehrwertsteuersatz nach einer temporären Senkung wieder auf das ursprüngliche Niveau von 19 Prozent gestiegen. Dadurch sind die Preise an den Zapfsäulen gegenüber dem Ende des Jahres 2020 zwar gestiegen, bislang jedoch deutlich weniger als das nach Berechnungen des RWI zu erwarten gewesen wäre. Scheinbar wurde die Erhöhung der Abgaben auf die Kraftstoffpreise bisher nicht vollständig an die Autofahrerinnen und Autofahrer weitergegeben. Das ergibt die Auswertung der Benzin- und Rohölpreisdaten im Rahmen des RWI-Benzinpreisspiegels.

Das Wichtigste in Kürze:
• Zu Jahresbeginn startete in Deutschland das Zeitalter der CO2-Bepreisung von fossilen Kraft- und Brennstoffen. Zudem wurde der Mehrwertsteuersatz nach einer temporären Senkung auf 16 Prozent wieder auf das ursprüngliche Niveau von 19 Prozent angehoben. Die Preiserhöhung infolge der CO2-Bepreisung macht rein rechnerisch knapp 8 Cent bei Diesel und etwas mehr als 7 Cent bei Benzin aus. Die Mehrwertsteuererhöhung sollte bei Benzin zu einer zusätzlichen Preiserhöhung von etwas mehr als 3 Cent führen. Infolge beider staatlichen Maßnahmen müsste sich der Benzinpreis rein rechnerisch daher um etwas mehr als 10 Cent je Liter erhöhen. Bei Diesel sollte die Mehrwertsteuererhöhung zu einer zusätzlichen Preiserhöhung von knapp 3 Cent führen, insgesamt sollte sich der Dieselpreis ebenfalls um mindestens 10, eher aber um knapp 11 Cent je Liter erhöhen.

• Tatsächlich ist der Preis für Diesel vom 31. Dezember 2020 auf den 1. Januar 2021 im Durchschnitt lediglich um 4,9 Cent pro Liter gestiegen (Abbildung 1). Allerdings wurde die Preiserhöhung in Teilen bereits vor dem Jahresende 2020 vorweggenommen. Am höchsten fiel die durchschnittliche Preissteigerung vor und nach dem Jahreswechsel zwischen dem 28. Dezember 2020 und dem 6. Januar 2021 aus, sie betrug bei Diesel im Mittel 8,2 Cent.

• Beim Benzin (E10) lag der Preisanstieg vom 31. Dezember 2020 auf den 1. Januar 2021 noch etwas niedriger als bei Diesel, im Durchschnitt lediglich bei 4,7 Cent pro Liter (Abbildung 2). Auch bei Benzin ergab sich die höchste durchschnittliche Preissteigerung vor und nach dem Jahreswechsel zwischen dem 28. Dezember 2020 und dem 6. Januar 2021 und betrug im Mittel 8,4 Cent.

• Die Auswertung im Rahmen des RWI-Benzinpreisspiegels hat darüber hinaus ergeben, dass die Differenz zwischen Benzin- und Rohölpreisen während den Zeiten des ersten Corona-Lockdowns in den Monaten März und April 2020 besonders hoch ausfiel (Abbildung 1 und 2). Diese Differenz hat sich erst nach mehreren Monaten wieder reduziert. Im zweiten Halbjahr 2020 fiel die Differenz zwischen Benzin- und Rohölpreisen verglichen mit dem ersten Halbjahr sogar besonders niedrig aus. Dies lag wohl auch an der Senkung des Mehrwertsteuersatzes von 19 auf 16 Prozent.

Zur Entwicklung der Kraftstoffpreise sagt der Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI, Manuel Frondel: „Die durch die Einführung der CO2-Bepreisung und die Mehrwertsteuererhöhung rein rechnerisch erwartbaren Preiserhöhungen haben sich noch nicht gänzlich an den Zapfsäulen niedergeschlagen. Scheinbar wurde die Erhöhung der Abgaben auf die Kraftstoffpreise bisher nicht vollständig an die Autofahrerinnen und Autofahrer weitergegeben.“

Ihre Ansprechpartner/in dazu:
Prof. Dr. Manuel Frondel, Tel. 0201 8149-204
Sabine Weiler (Kommunikation), Tel.: 0201 81 49-213

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manuel Frondel, Tel. 0201 8149-204

Originalpublikation:
https://www.rwi-essen.de/presse/mitteilung/425/

Weitere Informationen:
http://www.rwi-essen.de/benzinpreisspiegel Weitere Informationen zum RWI-Benzinpreisspiegel. Über die Ergebnisse berichtet heute die „FAZ“ unter der Überschrift „Benzinpreis steigt weniger stark als erwartet“.

(nach oben)


Klimawandel und Wasserstraßen

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
„Wir verfügen rechtzeitig über geeignete Konzepte, um auch künftig unter den Bedingungen des Klimawandels wirtschaftliche und zuverlässige Schiffstransporte zu ermöglichen, und dies bei geringen Eingriffen in Wasserwirtschaft und Umwelt.“ So lautete das Fazit im Vortrag von Prof. Dr.-Ing. Christoph Heinzelmann, Leiter der Bundesanstalt für Wasserbau (BAW), beim 51. virtuellen Internationalen Wasserbau-Symposium Aachen 2021. Im Mittelpunkt des Vortrags standen die künftig zu erwartenden Auswirkungen des Klimawandels auf die Wasserstraßen sowie mögliche Anpassungsoptionen am Beispiel des Rheins.

Langfristig werden die veränderten Klimabedingungen gravierende Auswirkungen auf das Wasserdargebot in den Wasserstraßen haben. Vermehrte und anhaltend extreme Wetterereignisse sind zu erwarten, verbunden mit häufigeren und extremeren Hoch- und Niedrigwasserereignissen. „Als Folge des Klimawandels kann auf längere Sicht das Szenario, das wir im zweiten Halbjahr 2018 beim extremen und lang anhaltenden Niedrigwasserereignis am Rhein erlebt haben, zum Regelfall werden“, so Heinzelmann.

Für die Anpassung an künftig geringere Niedrigwasserabflüsse sind unterschiedliche Handlungsoptionen denkbar, die auch kombiniert werden können: Ein Handlungsstrang zielt auf bauliche Änderungen an den Schiffsgefäßen ab, wie z. B. kleinere Schiffsgefäße, leichtere Schiffe sowie höhere Effizienz der Schiffsantriebe bei Niedrigwasser. Ein weiterer Handlungsstrang umfasst Änderungen an der Wasserstraßeninfrastruktur. Diese reichen von verbesserten Wasserstandsvorhersagen über die Bereitstellung aktueller Tiefeninformationen der Wasserstraße bis hin zu flussbaulichen Anpassungsmaßnahmen. Hierzu zählen der Bau oder die Anpassung von Buhnen und Parallelwerken, die Verfüllung von Übertiefen sowie der Sohlenabtrag durch Baggerungen, die in felsigen Abschnitten ggf. mit Fräsung oder Meißelung kombiniert werden. Diese klassischen Maßnahmen sind in weiten Bereichen der frei fließenden Wasserstraßen zielführend. Mitunter stoßen sie aber auch an Grenzen, wenn z. B. ihre Hochwasserneutralität nicht sichergestellt werden kann. „Für diesen Fall haben wir im Rahmen einer Konzeptstudie für den Mittelrhein zwischen Mainz und St. Goar innovative flussbauliche Lösungen entwickelt, die einerseits die Regelungsziele erfüllen und andererseits geringe Auswirkungen auf Wasserwirtschaft und Umwelt haben“, sagte Heinzelmann.

Das Konzept mit dem Namen „Niedrigwasserkorridor“ beruht darauf, dass im Niedrigwasserfall der Verkehrsflächenbedarf der Schiffe kleiner ist als bei höheren Abflüssen. Bei klimabedingt geringeren Niedrigwasserabflüssen sind damit wirtschaftliche Schiffstransporte auch künftig möglich, indem die Fahrrinne nicht über die gesamte Breite vertieft wird und natürlich vorhandene Übertiefen genutzt werden. Fahrdynamische Untersuchungen der BAW für den Mittelrhein haben ergeben, dass bei Niedrigwasserabfluss im Begegnungsfall ca. 50 bis 80 % der heute vorhandenen Breite ausreichen. Diese reduzierte Breite kann nochmals deutlich verringert werden, wenn der Niedrigwasserkorridor nicht für den Begegnungsfall sondern für die Richtungsfahrt dimensioniert wird. Maßgebend hierfür ist die Fahrt zu Berg, da zum einen die Gütertransporte im Mittelrheinabschnitt überwiegend zu Berg gerichtet sind und zum anderen die dynamische Einsinktiefe der Schiffe in der Bergfahrt größer ist als in der Talfahrt. Für dieses Szenario sind im untersuchten Streckenabschnitt nur ca. 30 % der heutigen Fahrrinnenbreite erforderlich.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Christoph Heinzelmann
christoph.heinzelmann@baw.de

Weitere Informationen:
Der Video-Mitschnitt des Vortrags steht auf der eLearning-Plattform IZW-Campus bereit: https://izw-campus.baw.de/goto.php?target=cat_1842&client_id=iliasclient

(nach oben)


Erfolgsfaktoren für die Gestaltung einer teamorientierten Arbeitswelt

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Die Studie »Teamarbeit und ihre Arbeitsumgebung« des Fraunhofer IAO zeigt die Bedeutung der Bürogestaltung für eine erfolgreiche Zusammenarbeit im Team

Die Arbeitswelt verändert sich mit zunehmendem Tempo. Um eine schnelle Anpassung an die ständigen Veränderungen und dynamischen Prozesse zu ermöglichen, ist die Arbeitswelt mehr denn je auf Projekt- und Teamarbeit angewiesen. Die Studie des Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO, die im Verbundforschungsprojekt OFFICE 21® entstanden ist, veranschaulicht Erfolgsfaktoren für die Gestaltung einer teamorientierten Arbeitswelt.

Die Corona-Pandemie hat zu einer kritischen Auseinandersetzung mit der Büro- und Arbeitswelt, vor allem hinsichtlich der Zusammenarbeit geführt. Aufgrund der vermehrten Arbeit im Homeoffice mussten innerhalb kurzer Zeit neue digitale Kommunikations- und Austauschplattformen in den Arbeitsalltag integriert werden, um sowohl die Zusammenarbeit innerhalb der Arbeitsorganisation, als auch mit Externen aufrecht zu erhalten und eine Einschränkung der Informationsflüsse zu verhindern. Trotz der Etablierung digitaler Tools als Kommunikationsalternative, wurde vor allem der Verlust an spontanen und informellen Interaktionen mit Kolleg*innen vermisst. Begegnungen stärken nicht nur das Zugehörigkeitsgefühl, sondern sind nachweislich auch essenziell für kreative Prozesse und Innovation. Dass gute Ideen und Kreativität vor allem im persönlichen Austausch entstehen, zeigte bereits die »Office Analytics«-Studie des Fraunhofer IAO aus dem Jahr 2017.

Bei einer teilweisen Rückkehr in die Bürogebäude nach der Corona-Pandemie, stellt sich unweigerlich die Frage, wie das New Normal aussehen wird und wie das Büro gestaltet sein muss, um den (neuen) Anforderungen gerecht zu werden. Wie können und sollten Teams zusammenarbeiten, um erfolgreich zu sein? Und wie muss die Arbeitsumgebung gestaltet werden, um die Zusammenarbeit bestmöglich zu unterstützen? Diese Fragen stehen im Zentrum der Studie »Teamarbeit und ihre Arbeitsumgebung« des Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. Die Publikation schließt auch die aktuelle Forschungsphase zum Thema »Office Analytics« ab. Nach momentanem Stand wird davon ausgegangen, dass das Büro noch stärker als zuvor ein Ort der Begegnung, des informellen Austauschs und des kreativen Arbeitens werden wird. Daher ist es von großer Bedeutung, sich bereits jetzt anzuschauen, wie eine erfolgsförderliche Umgebung gestaltet sein muss, um Teamarbeit bestmöglich zu unterstützen.
Teamarbeit ist vielfältig – und so auch die Arbeitsumgebung
Teams sind in der Lage, schneller auf Veränderungen in der Umwelt von Unternehmen zu reagieren und schneller Entscheidungen zu treffen als Einzelpersonen. Es ist daher nicht verwunderlich, dass die Zeit, die Mitarbeitende in Teamarbeit verbringen, in den letzten zwei Jahrzehnten um 50 Prozent gestiegen ist. Besonders agile Teams haben durch ihre flexible Arbeitsweise und damit hohe Anpassungsfähigkeit an die wirtschaftliche Dynamik an Bedeutung gewonnen. So vielfältig wie die Zusammensetzung von Teams und ihre Arbeitsweise sein kann, so vielfältig und umfassend muss auch die Arbeitsumgebung gedacht werden. Momentan finden sich in Teamumgebungen verstärkt klassische Raumstrukturen. Demgegenüber fehlt es oftmals an Rückzugsmöglichkeiten und Kollaborationsflächen. Dabei besteht ein großer Anteil der Teamarbeit aus konzentrierten Einzelarbeitsphasen. Die Studienergebnisse zeigen unter anderem, dass 41 Prozent der Arbeitszeit in Stillarbeit stattfindet. Zukünftig ist also darauf zu achten, dass den Mitarbeitenden je nach Aufgabe unterschiedliche Raummodule zur Verfügung stehen.

Auch die technische Ausstattung sowie die Nutzung virtueller Kollaborationsplattformen wird die Teamumgebung in Zukunft stark prägen und zu einer Veränderung der Arbeitslandschaft führen. Tendenziell wird auch die Anzahl räumlich verteilter Teams zunehmen und die Anforderungen an die Arbeitsumgebung sich zusätzlich verändern. »Aufgrund der steigenden Komplexität und Dynamik in der Arbeitswelt, wird die Zusammenarbeit in interdisziplinären Team immer entscheidender. Die Gestaltung der Arbeitsumgebung hat dabei einen signifikanten Einfluss auf die Qualität der Teamarbeit und sollte demensprechend aufmerksam geplant werden«, betont Katharina Dienes, Studienautorin und Wissenschaftlerin am Fraunhofer IAO.

Starke Voraussetzungen für zukünftige Teamarbeit schaffen
Festzuhalten ist, dass sich die Rolle des Büros verändert – durch die Corona-Pandemie in noch schnelleren Schritten. »Eine Rückkehr zu klassischen Strukturen ist undenkbar. Gerade deshalb ist jetzt der richtige Zeitpunkt, bisherige Ansätze und Strukturen zu überdenken und gute Voraussetzungen für unterschiedliche Tätigkeiten bei der Rückkehr ins Büro zu schaffen«, sagt Dienes. Die TEAMAS-Studie bietet eine Übersicht über die Zusammenstellung von erfolgreichen Teams und benennt Erfolgsfaktoren für eine teamunterstützende Arbeitsumgebung.

Wissenschaftliche Ansprechpartner:
Yeama Bangali
Multichannel-Content Managerin »FutureWork360«
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2124
E-Mail yeama.bangali@iao.fraunhofer.de

Originalpublikation:
Kostenloser Download: http://publica.fraunhofer.de/dokumente/N-605596.html

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/erfolgsfaktoren-fue…
https://office21.de/

(nach oben)


KIT: Thermomagnetische Generatoren wandeln Abwärme auch bei kleinen Temperaturunterschieden in Strom

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Die Verwertung von Abwärme trägt wesentlich zu einer nachhaltigen Energieversorgung bei. Wissenschaftlerinnen und Wissenschaftler des Karlsruher Institut für Technologie (KIT) und der Universität Tōhoku in Japan sind dem Ziel, Abwärme bei geringen Temperaturdifferenzen in Strom zu wandeln, nun wesentlich näher gekommen. Wie sie in der Zeitschrift Joule berichtet, haben sie bei thermomagnetischen Generatoren, die auf Dünnschichten einer Heusler-Legierung basieren, die elektrische Leistung im Verhältnis zur Grundfläche um den Faktor 3,4 gesteigert. (DOI: 10.1016/j.joule.2020.10.019)

Die Verwertung von Abwärme trägt wesentlich zu einer nachhaltigen Energieversorgung bei. Wissenschaftlerinnen und Wissenschaftler des Karlsruher Institut für Technologie (KIT) und der Universität Tōhoku in Japan sind dem Ziel, Abwärme bei geringen Temperaturdifferenzen in Strom zu wandeln, nun wesentlich näher gekommen. Wie sie in der Zeitschrift Joule berichtet, haben sie bei thermomagnetischen Generatoren, die auf Dünnschichten einer Heusler-Legierung basieren, die elektrische Leistung im Verhältnis zur Grundfläche um den Faktor 3,4 gesteigert. (DOI: 10.1016/j.joule.2020.10.019)

Die Presseinformation finden Sie unter: https://www.kit.edu/kit/pi_2021_001_thermomagnetische-generatoren-wandeln-abwarm…

Viele technische Prozesse nutzen die für sie eingesetzte Energie nur zum Teil; der Rest verlässt das System als Abwärme. Häufig entweicht diese Wärme ungenutzt in die Umgebung. Sie lässt sich jedoch auch zur Wärmebereitstellung oder zur Stromerzeugung verwenden. Je höher die Temperatur der Abwärme, desto einfacher und kostengünstiger ihre Verwertung. Eine Möglichkeit, niedrig temperierte Abwärme zu nutzen, bieten thermoelektrische Generatoren, welche die Wärme direkt in Strom wandeln. Bisher verwendete thermoelektrische Materialien sind allerdings teuer und teilweise toxisch. Thermoelektrische Generatoren erfordern zudem große Temperaturdifferenzen für Wirkungsgrade von nur wenigen Prozent.

Eine vielversprechende Alternative stellen thermomagnetische Generatoren dar. Sie basieren auf Legierungen, deren magnetische Eigenschaften stark temperaturabhängig sind. Die wechselnde Magnetisierung induziert in einer angelegten Spule eine elektrische Spannung. Bereits im 19. Jahrhundert stellten Forschende die ersten Konzepte für thermomagnetische Generatoren vor. Seitdem hat die Forschung mit verschiedenen Materialien experimentiert. Die elektrische Leistung ließ bisher allerdings zu wünschen übrig.

Wissenschaftlerinnen und Wissenschaftlern am Institut für Mikrostrukturtechnik (IMT) des KIT sowie an der Universität Tōhoku in Japan ist es nun gelungen, die elektrische Leistung von thermomagnetischen Generatoren im Verhältnis zur Grundfläche erheblich zu steigern. „Mit den Ergebnissen unserer Arbeit können thermomagnetische Generatoren erstmals mit etablierten thermoelektrischen Generatoren konkurrieren. Wir sind damit dem Ziel, Abwärme bei kleinen Temperaturunterschieden in Strom zu wandeln, wesentlich näher gekommen“, sagt Professor Manfred Kohl, Leiter der Forschungsgruppe Smart Materials and Devices am IMT des KIT. Die Arbeit des Teams ist Titelthema in der aktuellen Ausgabe der Energieforschungszeitschrift Joule.

Vision: Abwärmenutzung nahe Raumtemperatur
Sogenannte Heusler-Legierungen – magnetische intermetallische Verbindungen – ermöglichen als Dünnschichten in thermomagnetischen Generatoren eine große temperaturabhängige Änderung der Magnetisierung und eine schnelle Wärmeübertragung. Auf dieser Grundlage basiert das neuartige Konzept der resonanten Selbstaktuierung. Selbst bei geringen Temperaturunterschieden lassen sich die Bauelemente zu resonanten Schwingungen anregen, die effizient in Strom gewandelt werden können. Doch die elektrische Leistung einzelner Bauelemente ist gering, und bei der Hochskalierung kommt es vor allem auf Materialentwicklung und Bauweise an. Die Forschenden am KIT und an der Universität Tōhoku stellten in ihrer Arbeit anhand einer Nickel-Mangan-Gallium-Legierung fest, dass die Dicke der Legierungsschicht und die Grundfläche des Bauelements die elektrische Leistung in entgegengesetzter Richtung beeinflussen. Aufgrund dieser Erkenntnis gelang es ihnen, die elektrische Leistung im Verhältnis zur Grundfläche um den Faktor 3,4 zu steigern, indem sie die Dicke der Legierungsschicht von fünf auf 40 Mikrometer erhöhten. Die thermomagnetischen Generatoren erreichten eine maximale elektrische Leistung von 50 Mikrowatt pro Quadratzentimeter bei einer Temperaturänderung von nur drei Grad Celsius. „Diese Ergebnisse ebnen den Weg zur Entwicklung maßgeschneiderter parallel geschalteter thermomagnetischer Generatoren, die das Potenzial zur Abwärmenutzung nahe Raumtemperatur besitzen“, erklärt Kohl. (or)

Originalpublikation
Joel Joseph, Makoto Ohtsuka, Hiroyuki Miki, and Manfred Kohl: Upscaling of Thermomagnetic Generators Based on Heusler Alloy Films. Joule, 2020. DOI: 10.1016/j.joule.2020.10.019

Zur Veröffentlichung in Joule (Abstract): https://www.cell.com/joule/fulltext/S2542-4351(20)30508-0

Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Kontakt für diese Presseinformation:
Martin Heidelberger, Pressereferent, Tel.: +49 721 608-41169, E-Mail: martin.heidelberger@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9.300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 24.400 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php

Originalpublikation:
Zur Veröffentlichung in Joule (Abstract): https://www.cell.com/joule/fulltext/S2542-4351(20)30508-0

(nach oben)


Kommt Trinkwasser bald aus dem Meeresboden?

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Es klingt paradox – in vielen Regionen unseres blauen Planeten könnte die Trinkwasserversorgung in naher Zukunft problematisch werden. Meerwasser ist salzhaltig und daher nicht trinkbar. Doch unter dem Meeresboden gibt es bislang ungenutzte Frischwasserreserven, auf die die Geowissenschaften erst seit Kurzem ihre Aufmerksamkeit richten. Eine neue Übersichtsstudie, die in der internationalen Fachzeitschrift Reviews of Geophysics veröffentlicht wurde, zeigt Möglichkeiten, die mit diesen Wasserressourcen verbunden sind, aber auch bestehende Wissenslücken.

Trinkwasser ist eine lebenswichtige Ressource. Obwohl 70 Prozent der Erdoberfläche von Wasser bedeckt sind, ist der Großteil davon – etwa 97 Prozent – salzhaltig und damit ungenießbar. Der Klimawandel, das globale Bevölkerungswachstum, die veränderte Landnutzung und andere Faktoren setzen die vorhandenen Trinkwasservorräte unter Druck. Nicht umsonst haben die Vereinten Nationen eine sichere Wasserversorgung in die Liste ihrer nachhaltigen Entwicklungsziele aufgenommen.

In den 1960er Jahren wurden erstmals Frischwasservorkommen unter dem Meeresboden nachgewiesen. Wissenschaftler*innen aus sechs Ländern unter der Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel und der Universität Malta haben nun in der internationalen Fachzeitschrift Reviews of Geophysics die erste globale Bestandsaufnahme solcher Offshore- Grundwasservorkommen (Offshore Freshened Groundwater, OFG) veröffentlicht. „Zusammenfassend lässt sich sagen, dass OFG definitiv kein lokales Phänomen ist. Es ist vor den meisten Kontinentalrändern rund um den Globus dokumentiert worden“, sagt Dr. Aaron Micallef vom GEOMAR, Erstautor der Studie.

Für die Übersichtsstudie wertete das Team insgesamt 300 dokumentierte Aufzeichnungen von OFG aus. Es schätzt das globale Volumen dieser Vorkommen auf eine Million Kubikkilometer. Das ist etwa doppelt so viel wie das Volumen des Schwarzen Meeres und etwa fünf Prozent des geschätzten globalen Grundwasservolumens in den oberen zwei Kilometern der kontinentalen Kruste. Die Vorkommen befinden sich hauptsächlich in Gebieten bis zu 55 Kilometer von den jeweiligen Küsten entfernt und bis zu einer Wassertiefe von 100 Metern. Die OFG entstanden überwiegend während Perioden mit besonders niedrigem Meeresspiegel in den letzten 2,5 Millionen Jahren.

Geochemische Untersuchungen von OFG-Proben haben Aufschluss über die Mechanismen bei der Grundwassereinlagerung gegeben. „Die neueste*n seismischen und elektromagnetischen Methoden der Meeresbodenerkundung sowie verbesserte Grundwassermodelle haben in den letzten Jahren unser Verständnis von Form und Ausdehnung der lange Zeit wenig beachteten Grundwasservorkommen vor den Küsten deutlich verbessert“, betont Aaron Micallef.

Im Rahmen des vom Europäischen Forschungsrat geförderten MARCAN-Projekts wurde der Meeresboden vor Neuseeland und Malta, Dr. Micallefs Heimatland, mit solchen Techniken gezielt untersucht. „Die bisherigen Ergebnisse sind ermutigend, weil wir OFG in sehr unterschiedlichen geologischen Umgebungen kartieren und detaillierte Kenntnisse darüber gewinnen konnten, wie es abgelagert wurde“, sagt Dr. Micallef.

Die Studie zeigt aber auch wichtige Lücken im Verständnis von OFG auf, wie zum Beispiel den genauen Zeitpunkt der jeweiligen Entstehung und ob die Vorkommen derzeit neu befüllt werden. „Diese Informationen sind aber entscheidend, wenn wir die mögliche Nutzung von OFG als unkonventionelle Wasserquelle beurteilen wollen“, schließt Dr. Micallef.

Originalpublikation:
Micallef, A., M. Person, C. Berndt et. al. (2019): Offshore Freshened Groundwater in Continental Margins. Review of Geophysics, https://doi.org/10.1029/2020RG000706

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://marcan.eu/ Das MARCAN-Projekt

(nach oben)


Grundwasser beeinflusst die Chemie des Ozeans

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Metalle und andere chemische Substanzen, die von den Kontinenten in den Ozean gelangen, beeinflussen dessen Chemie erheblich. Flüsse sind als Transportwege für diese Substanzen schon lange im Fokus der Forschung. Eine neue Studie mit Beteiligung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, die jetzt in der internationalen Fachzeitschrift Nature Communications erschienen ist, zeigt aber, dass auch Grundwasseraustritte in Küstengewässern ungefähr ein Zehntel zu diesem Transport beitragen. In globalen Modellen von Stoffflüssen müssen sie daher stärker berücksichtigt werden als bisher.

Flüsse transportieren nicht nur Süßwasser aus dem Inneren der Kontinente bis in den Ozean. Auch Sedimente und gelöste Elemente wie beispielsweise Lithium, Calcium oder Strontium gelangen so ins Meer. Dass dieses Material Einfluss auf die Chemie des Meerwassers ausübt, ist schon lange bekannt und Gegenstand von genauen Untersuchungen. Doch jetzt hat ein internationales Team mit Beteiligung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel in der Fachzeitschrift Nature Communications eine Studie veröffentlicht, die zeigt, dass auch an den Küsten austretendes Grundwasser die Ozeanchemie erheblich prägt und bei der Modellierung globaler Stoffkreisläufe mit berücksichtigt werden muss. Die Erkenntnisse haben auch Auswirkungen auf die Interpretation von natürlichen Archiven zur Klimageschichte der Erde.

Während Flussmündungen einfach zu finden und zu beproben sind, sind Grundwasseraustritte vor den Küsten deutlich schwerer zu identifizieren und zu charakterisieren. „Daher bildeten sie immer eine Quelle für Unsicherheiten bei der Modellierung globaler Stoffzyklen“, sagt Kimberley Mayfield, die die Studie als Doktorandin an der University of California Santa Cruz (UCSC) leitete. „Forschende auf der ganzen Welt haben jetzt große Anstrengungen unternommen, um genauere Daten zu erhalten.“

Das an der Studie beteiligte Team konzentrierte sich auf fünf Schlüsselelemente – Lithium, Magnesium, Calcium, Strontium und Barium – und hat deren Konzentrationen und Isotopenverhältnisse in Grundwasseraustritten an 20 Standorten auf der ganzen Welt gemessen. Zusätzlich hat es zuvor veröffentlichte Daten in die Studie einfließen lassen.

„Genau diese Elemente sind wichtig, weil sie aus der Verwitterung von Gesteinen stammen. Die Verwitterung von Silikatgesteinen führt über lange Zeiträume zu einer enormen Aufnahme von Kohlendioxid aus der Atmosphäre“, erklärte Mayfield. Es handelt sich also um Elemente, die auch für das Verständnis der Klimageschichte der Erde große Bedeutung haben.

„Unsere Ergebnisse zeigen, dass der Eintrag dieser chemischen Substanzen und Metalle über das Grundwasser in den Ozean aufgrund der schlechten Datenlage immer unterschätzt, der Eintrag über Flüsse dafür überschätzt wurde“, sagt Prof. Dr. Anton Eisenhauer vom GEOMAR, Zweitautor der Studie. „Diese Informationen sind nützlich, um zu verstehen, wie die Verwitterung von Gesteinen nicht nur in der Gegenwart, sondern auch in der Vergangenheit mit dem Klima zusammenhängt“, führt Professor Eisenhauer weiter aus.

Der Studie zur Folge beträgt die Menge der genannten Elemente, die mit dem Grundwasser ins Meer gelangen, zwischen fünf und 16 Prozent von dem, was aus Flüssen stammt. Die Ergebnisse zeigen auch, dass sich die Isotopenzusammensetzung der Elemente aus dem Grundwasser von der aus Flüssen unterscheiden kann. Die Eigenschaften des Grundwassers sind stark abhängig von der Geologie der Küsten, während das Flusswasser stärker vom Inneren der Kontinente beeinflusst wird.

„Es ist wichtig zu erkennen, dass das Grundwasser global gesehen einen Unterschied bei den Stoffflüssen macht. Jetzt, da wir über diesen großen Datensatz verfügen, können diese Flüsse auch durch weitere Probenahmen weiter verbessert und präzisere Modelle für die globalen Grundwasseraustritte entwickelt werden“, fasst Professor Eisenhauer zusammen.

Originalpublikation:
Originalarbeit:
Mayfield, K. K., A. Eisenhauer, D. P. Santiago Ramos, J. A. Higgins, T. J. Horner, M. Auro, T. Magna, N. Moosdorf, M. A. Charette, M. E. Gonneea, C. E. Brady, N. Komar, B. Peucker-Ehrenbrink, A. Paytan (2021): Groundwater discharge impacts marine isotopebudgets of Li, Mg, Ca, Sr, and Ba. Nature Communications, https://doi.org/10.1038/s41467-020-20248-3

(nach oben)


Corona-Warn-App auf dem Prüfstand

Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Studie untersucht, wie die Corona-Warn-App genutzt wird, wie sie Überzeugungen und Verhalten beeinflusst und ob sie sich als Instrument für Notfälle eignet – Förderung durch die VolkswagenStiftung

Im Kampf gegen Corona gehört die Corona-Warn-App der Bundesregierung zu den Eckpfeilern, um Ansteckungsrisiken zu erkennen und Infektionsketten zu unterbrechen. Die App wurde Mitte Juni 2020 in Deutschland eingeführt und bisher über 20 Millionen Mal heruntergeladen. Wissenschaftlerinnen und Wissenschaftler der Johannes Gutenberg-Universität Mainz (JGU) untersuchen in einem aktuellen Forschungsprojekt, wie die Corona-Warn-App mittlerweile beurteilt wird und wie sie das Entscheidungsverhalten der Bevölkerung beeinflusst. Die VolkswagenStiftung unterstützt die Forschungen, die im Arbeitsbereich Technik- und Innovationssoziologie, Simulationsmethoden unter der Leitung von Prof. Dr. Petra Ahrweiler durchgeführt werden, mit knapp 120.000 Euro.

Einfluss der Corona-Warn-App auf Einstellung und Verhalten der Nutzer im Fokus
Die Forschenden untersuchen in ihrer Fallstudie die Bedeutung der Corona-Warn-App aus zwei Perspektiven: aus Sicht von Beteiligten der Regierung, des Robert Koch-Instituts und der Entwickler einerseits und aus Sicht der Nutzer andererseits. „Wir kontaktieren zurzeit die Akteure, die an der Erstellung der Corona-Warn-App beteiligt waren, um sie nach ihren Absichten und ihren Erwartungen über die Verwendung der App zu befragen“, erklärt Maia Janowitz, Mitarbeiterin in der Arbeitsgruppe von Petra Ahrweiler. Gleichzeitig ermittelt das Forscherteam, wie Nutzer mit der Corona-Warn-App umgehen und welche Erfahrungen sie gemacht haben. Hierzu werden insbesondere Studierende befragt. Schließlich soll erforscht werden, wie sich die Nutzung der App darauf auswirkt, welche Überzeugungen über die Pandemie vertreten werden und welches Verhalten zur Infektionseindämmung daraus folgt.

Die Erkenntnisse aus der Fallstudie sollen uns eine bessere Vorstellung davon geben, wie sich künstliche Intelligenz – hier in Form der Smartphone-App – auf das menschliche Denken, auf das Notfallmanagement und auf die Covid-19-Pandemie in Deutschland auswirkt. „Der Erfolg der App ist ein Eckpfeiler in der Covid-19-Strategie der Bundesregierung“, so Maia Janowitz. „Die Erkenntnisse über den Einfluss der App auf Überzeugungen und auf das tatsächliche Verhalten, um das Ansteckungsrisiko zu verringern, haben eine große Bedeutung für die Gesellschaft insgesamt.“ Janowitz weist darauf hin, dass die App in nur 50 Tagen entwickelt worden ist und unter anderem aus Datenschutzgründen nicht genau verfolgen kann, wie sich Covid-19 unter der Bevölkerung ausbreitet.

Förderung erfolgt als Zusatzmodul zu AI Navi – Einfluss künstlicher Intelligenz auf Populismus
Die VolkswagenStiftung fördert das Projekt mit dem Titel „Artificial Intelligence Navigation of Complex Social Landscapes (AI Navi) – Coronavirus Module” im Rahmen ihrer Initiative „Corona Crisis and Beyond – Perspectives for Science, Scholarship and Society“. Die Förderung erfolgt als Zusatzmodul zum Hauptprojekt AI Navi, das ebenfalls im Arbeitsbereich von Petra Ahrweiler angesiedelt ist. AI Navi soll erforschen, ob und wie künstliche Intelligenz gesellschaftspolitische Entscheidungen beeinflusst und zu den gegenwärtigen Erscheinungsformen des Populismus weltweit beiträgt. Die VolkswagenStiftung hat hierzu einen „Planning Grant“ gewährt. Die Ergebnisse aus der Fallstudie sollen in diese Vorarbeiten einfließen.

Der Arbeitsbereich Technik- und Innovationssoziologie, Simulationsmethoden setzt sich in verschiedenen Projekten aktiv mit den dramatischen Auswirkungen der Corona-Pandemie auseinander: Abgesehen von den Untersuchungen über den Einfluss der Corona-Warn-App befasst sich das Team mit Entscheidungshilfen für das Corona-Krisenmanagement und auch mit Ansätzen zur Verbesserung der Situation von Einwanderungsarbeitern in der Krise.

Weiterführende Links:
https://technikundinnovation.soziologie.uni-mainz.de/ – Technik- und Innovationssoziologie, Simulationsmethoden
https://www.volkswagenstiftung.de/unsere-foerderung/unser-foerderangebot-im-uebe… – Förderangebot der VolkswagenStiftung

Wissenschaftliche Ansprechpartner:
Maia Janowitz
Technik- und Innovationssoziologie, Simulationsmethoden
Institut für Soziologie
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-29240
Fax +49 6131 39-26525
E-Mail: mjanowit@uni-mainz.de
https://technikundinnovation.soziologie.uni-mainz.de/team/maia-janowitz-m-sc/

(nach oben)


Corona-Trend Angeln: Die Artenvielfalt könnte profitieren

Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Neue Studie belegt, dass von Anglern genutzte Baggerseen mindestens genauso viele Arten beherbergen wie solche mit Fischfangverbot

Seit dem Ausbruch von Corona erlebt der private Fischfang als pandemisch unbedenkliches Frischlufthobby eine Renaissance. Eine neue Studie des Forschungsprojekts BAGGERSEE beschäftigt sich kritisch mit dem Einfluss des Angelns und der anglerischen Gewässerbewirtschaftung auf die Artenvielfalt an Baggerseen. Das Ergebnis: Von Angelvereinen genutzte und bewirtschaftete Baggerseen stehen unbeangelten Seen in ihrer Artenvielfalt in nichts nach.

Zum Forschungsprojekt BAGGERSEE gehören Professor Dr. Robert Arlinghaus von der Humboldt-Universität zu Berlin in Kooperation mit dem Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), der Universität Bremen, der Technischen Universität Berlin und dem Anglerverband Niedersachsen.

Die Forschenden untersuchen seit 2016 den Einfluss des Angelns auf die Artenvielfalt an insgesamt 26 niedersächsischen Baggerseen. Erste Resultate wurden nun im Fachmagazin Aquatic Conservation veröffentlicht.

„Die Ergebnisse zeigen, dass Schutz der Artenvielfalt und Nutzung von Fischpopulationen und Gewässern über Angler vereinbar sein können“, fasst Fischereiprofessor Robert Arlinghaus von der Humboldt-Universität zu Berlin und dem Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) zusammen. „Künstlich entstandene Baggerseen dienen als Ersatzlebensraum für viele ans Wasser gebundene Arten. Diese werden in ihrer Artenvielfalt nicht vom Angeln oder der anglerischen Gewässerhege beschränkt, jedenfalls nicht unter den von uns untersuchten Gewässerbedingungen in Niedersachsen.“, ergänzt Erstautor Robert Nikolaus vom IGB.

Europaweit gibt es einen beträchtlichen Anteil kleiner künstlicher Gewässer wie Baggerseen und Teiche. In Niedersachsen sind sogar 99% aller Seen künstlichen Ursprungs.

Beim Projekt BAGGERSEE testen die Forschenden gemeinsam mit Angelvereinen, wie diese Baggerlöcher ökologisch aufgewertet werden können. Den Anglern kommt dabei als Gewässerpflegern eine Schlüsselrolle zu. Sie bringen in Baggerseen Totholz ein und schaffen Flachwasserzonen, um diese für Tiere und Pflanzen wirtlicher zu gestalten. Das Vorhaben wird gemeinsam gefördert durch das Bundesministerium für Bildung und Forschung (BMBF) sowie das Bundesamt für Naturschutz (BfN) mit Mitteln des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit (BMU).

Für ihre Teilstudie verglichen die Fischereiforschenden die 16 von Angelvereinen genutzte und gepflegte Baggerseen mit zehn Seen ohne angelfischereiliche Nutzung stattfand. Für den Vergleich beider Seetypen fassten die Wissenschaftlerinnen und Wissenschaftler die dort vorkommenden Arten in sieben Artengruppen zusammen: Uferpflanzen, Wasserpflanzen, Groß- und Kleinlibellen, Amphibien, Sing- und Wasservögel.

Anglerinnen und Angler können die Tiere auf mannigfache Weise beeinflussen. Beispielsweise indem sie brütende Vögel aufscheuchen, Trittschäden verursachen oder beim Freischneiden von Angelstellen Uferpflanzen entfernen. Durch das Einsetzen bodenwühlender Fische kann auch das Unterwasserkraut zurückgehen. Abgerissene Angelhaken und Schnüre können insbesondere für Wasservögel zur Falle werden.

Das BAGGERSEE Team schließt nicht aus, dass es im Einzelfall zu solchen Störungen kommen kann. Vergleicht man jedoch die Artengruppen als Ganzes, sind beangelte Baggerseen der Studie zufolge mindestens genauso artenreich wie nicht beangelte. Auch das Vorkommen bedrohter Arten unterschied sich zwischen den unterschiedlich genutzten Seen nicht. Zudem fanden die Forscher in den Angelgewässern sogar mehr Unterwasserpflanzen als in den Vergleichsseen. Möglicherweise begünstigen die mosaikartig angelegten Angelstellen das Wachstum von Wasserpflanzen, da dort mehr Licht einfallen kann.

Die Ergebnisse deuten an, dass naturschutzfachlich begründete Angelverbote nicht zwangsläufig der Artenvielfalt helfen.
„Angelvereine sind zentrale Gewässerpfleger und wesentliche Gewässernutzer. Unsere Studie zeigt, dass Anglerinnen und Angler ihrem Hobby nachgehen können, ohne die biologische Vielfalt an und um die Gewässer herum zu schädigen. Das ist ein wichtiges Signal in der heutigen Zeit, in der das Interesse am Angeln aufgrund der Pandemie so hoch ist wie nie“, resümiert Fischereiprofessor und Communicator Preisträger 2020 Robert Arlinghaus.

Wissenschaftliche Ansprechpartner:
Robert Arlinghaus
Fachgebiet für Integratives Fischereimanagement und Integrative Research Institute on Transformations of Human-Environment Systems (IRI THESys)
Lebenswissenschaftliche Fakultät, Humboldt-Universität zu Berlin
Telefon: 030/64181653
E-Mail: arlinghaus@igb-berlin.de

Originalpublikation:
Nikolaus R, Schafft M, Maday A, Klefoth T, Wolter C, Arlinghaus R. Status of aquatic and riparian biodiversity in artificial lake ecosystems with and without management for recreational fisheries: Implications for conservation. Aquatic Conservation: Marine And Freshwater Ecosystems. 2020; https://doi.org/10.1002/aqc.3481

Weitere Informationen:
http://www.baggersee-forschung.de
https://www.ifishman.de/

Anhang
PM HU: Corona-Trend Angeln: Die Artenvielfalt könnte profitieren

(nach oben)


Schlaf für Erholung des Gehirns unersetzlich

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Forscher*innen des Universitätsklinikums Freiburg weisen erstmals direkt nach, dass während des Schlafens im Gehirn aktive Erholungsprozesse ablaufen, die sich nicht durch Ruhe ersetzen lassen / Erkenntnisse relevant für optimale Leistung

Schlaf ist im Tierreich allgegenwärtig und lebensnotwendig. Auch seine Bedeutung für die Verstetigung und Verstärkung von Leistungen des Gehirns ist seit langem bekannt. Strittig war bislang allerdings, ob dies vor allem darauf zurückzuführen ist, dass das Gehirn im Schlaf keine neuen Reize verarbeiten muss oder ob aktive neuronale Prozesse unwichtige Informationen und Verbindungen im Gehirn schwächen. Nun ist es Forscher*innen des Universitätsklinikums Freiburg gelungen nachzuweisen, dass Schlaf für die Verbesserung kognitiver Fähigkeiten mehr ist als die Abwesenheit äußerer Reize. Die Erkenntnisse, die am 6. Januar 2021 im Fachmagazin Sleep erschienen sind, geben wichtige Hinweise für die Planung intensiver Lernphasen wie das Abitur oder Prüfungsabschlüsse.

„Schlaf ist für die Erholung des Gehirns unersetzlich. Er lässt sich für eine Leistungsverbesserung nicht durch Ruhephasen ersetzen. Das zeigen wir in dieser Studie erstmals eindeutig. Der Zustand des Gehirns während des Schlafs ist einmalig“, sagt Prof. Dr. Christoph Nissen, der als Forschungsgruppenleiter an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg die Studie leitete und mittlerweile an der Universität Bern, Schweiz, tätig ist. Bereits in früheren Studien konnten Nissen und sein Team zeigen, dass Schlaf eine Doppelfunktion für das Gehirn hat: Nicht benötigte Verbindungen werden geschwächt und relevante Verbindungen gestärkt.

In der aktuellen Studie führten die Forscher*innen ein visuelles Lernexperiment mit 66 Proband*innen durch. Zunächst übten alle Teilnehmer*innen, bestimmte Muster zu unterscheiden. Im Anschluss war eine Gruppe wach und sah dabei Videos oder spielte Tischtennis. Eine Gruppe schlief für eine Stunde und die dritte Gruppe blieb wach, war jedoch in einem abgedunkelten Raum ohne äußere Reize und unter kontrollierten Schlaflaborbedingungen. Die Gruppe, die geschlafen hatte, schnitt im Anschluss nicht nur deutlich besser ab als die Gruppe die wach und aktiv war. Auch die passiv-wache Gruppe konnte sie übertreffen. Die Leistungsverbesserung war an typische Tiefschlafaktivität des Gehirns gebunden, die eine wichtige Funktion für die Verknüpfungsstärke von Nervenzellen hat. „Das zeigt, dass es der Schlaf selbst ist, der den Unterschied macht“, sagt Ko-Studienleiter Prof. Dr. Dieter Riemann, Leiter des Schlaflabors an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg. In Kontrollexperimenten stellten die Freiburger Forschenden sicher, dass Müdigkeit und andere allgemeine Faktoren keinen Einfluss auf das Ergebnis hatten.

Die Studie zeigt, dass Schlaf in Phasen von intensiven Leistungsanforderungen in Beruf oder Alltag nicht durch Ruhe ersetzt werden kann.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Nissen
Forschungsgruppenleiter
Klinik für Psychiatrie und Psychotherapie
Universitätsklinikum Freiburg
Christoph.Nissen@upd.ch

Originalpublikation:
Original-Titel der Studie: Sleep is more than rest for plasticity in the human cortex
DOI: 10.1093/sleep/zsaa216
Link zur Studie: https://academic.oup.com/sleep/advance-article-abstract/doi/10.1093/sleep/zsaa21…

(nach oben)


Das neue Gesicht der Antarktis

Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Die Antarktis könnte künftig ergrünen und von neuen Arten besiedelt werden. Andererseits dürften Spezies verschwinden.

Diese und viele andere Ergebnisse haben 25 Forscherinnen und Forscher in einem internationalen Großprojekt zusammengetragen, in dem sie Hunderte von Fachartikeln über die Antarktis aus dem letzten Jahrzehnt ausgewertet haben. Damit liefert das Team eine ungewöhnlich umfassende Einschätzung des aktuellen und künftigen Zustands des Kontinents und des ihn umgebenden Südlichen Ozeans.

Noch nie zuvor haben Wissenschaftlerinnen und Wissenschaftler so viele neue Erkenntnisse über die biologischen und biochemischen Vorgänge in der Antarktis gesammelt wie im vergangenen Jahrzehnt. Dieses Wissen haben jetzt 25 Fachleute unter der Leitung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) im Projekt „AnT-ERA“ ausgewertet und zusammengefasst. Alles in allem musste das AnT-ERA-Team dafür mehrere Hundert Fachartikel zur Antarktis durcharbeiten. Die wichtigsten Erkenntnisse hat es jetzt in einem Übersichtsartikel in zehn Kernbotschaften zusammengefasst, die verschiedene Aspekte wie die Ozeanversauerung, die Artenvielfalt oder die Bedeutung des Meereises für die Lebewesen thematisieren. „Betrachtet man den Zeitraum von 1970 bis heute, dann sind allein in den Jahren 2010 bis 2020 rund 80 Prozent aller wissenschaftlichen Publikationen zur Biologie und Biochemie in der Antarktis erschienen. Für uns war das der Grund, dieses enorme Wissen in einem Fachartikel zu kondensieren“, sagt Meeresbiologe und Projektkoordinator Julian Gutt vom AWI. Die Projektergebnisse sind jetzt im Fachjournal Biological Reviews erschienen.

Zunahme der Artenvielfalt
Eine Erkenntnis der Forscher ist, dass die Erwärmung der antarktischen Gewässer im Zuge des Klimawandels sehr wahrscheinlich ist, und dass damit Pflanzen- und Tierarten aus wärmeren Regionen in die Antarktis einwandern dürften. Wobei nicht nur die Temperatur, sondern auch die künftige Eisbedeckung eine Rolle spielen wird. So wird für die kommenden Jahrzehnte unter anderem damit gerechnet, dass sich das Ergrünen eisfreier Küstengebiete während des Südsommers verstärken wird, weil Moose oder Flechten einwandern. Alles in allem dürfte die Artenvielfalt zunächst zunehmen. Bei einer andauernden Erwärmung aber werden die an extrem tiefe Temperaturen angepassten Arten das Nachsehen haben. „Wir rechnen damit, dass sich solche Arten in die letzten verbliebenen sehr kalten Bereiche der Antarktis zurückziehen werden“, sagt Julian Gutt. „Das heißt auch, dass man diese Regionen wird unter Schutz stellen müssen, um diese Arten zu erhalten.“

Mit der Versauerung leben?
Was die Ozeanversauerung angeht, sieht die Zukunft laut Studie düster aus. Bis zum Ende dieses Jahrhunderts rechnen die Experten mit einer weitgehenden Versauerung der antarktischen Gewässer. „Es steht außer Frage, dass vor allem jene Lebewesen Probleme bekommen, die Kalkschalen bilden“, sagt Gutt. „Ob sie ganz aussterben oder ob einige Arten ihren Stoffwechsel an die veränderten Bedingungen anpassen, können wir aktuell ebenfalls nicht mit Sicherheit sagen.“ Eine überraschende Erkenntnis der letzten zehn Jahre Forschung war auch, dass die scheinbar so trägen Organismen am Meeresboden der Antarktis wie etwa einige Schwämme oder Seescheiden sehr schnell auf gute Lebensbedingungen reagieren – schnell wachsen oder sich stark vermehren. Das Beunruhigende: Bei ungünstigen Umweltbedingungen reagieren sie aber auch besonders empfindlich. Mit den starken Veränderungen, die der Klimawandel mit sich bringt, könnten diese Arten ebenfalls Probleme bekommen.

Während sich seit längerem vor allem die antarktische Halbinsel erwärmt hat, die in den Südatlantik hineinragt, haben die Erwärmung und damit der Verlust von Meereis in den vergangenen drei Jahren auch auf die Ostantarktis übergegriffen. Ob das ein langfristiger Trend ist oder nur eine kurzfristige Veränderung, können die Experten noch nicht sagen. In jedem Fall aber ist diese Veränderung der physikalischen Umweltparameter beunruhigend, weil sie einen erheblichen Einfluss auf die künftige Entwicklung des Lebens im Südlichen Ozean haben könnte.

Wie viel CO2 kann die Antarktis schlucken?
Unklar ist bislang auch noch, inwieweit ein Verlust von Meereis dazu beiträgt, dass die Gewässer um die Antarktis durch verstärktes Algenwachstum künftig mehr Kohlendioxid aus der Atmosphäre aufnehmen werden oder nicht. Grundsätzlich nehmen Fachleute an, dass das Algenwachstum zunimmt, wenn sich das Meereis zurückzieht, weil die Algen dann beispielsweise stärker vom Licht beschienen werden. Da Algen beim Wachsen über die Photosynthese Kohlendioxid aus der Atmosphäre aufnehmen, kann das dem Klimawandel entgegenwirken. Seit längerem deuten einfache Prognosen darauf hin, dass die Algen in den Gewässern um die Antarktis rund 25 Prozent mehr CO2 schlucken würden, wenn das Gebiet künftig im Südsommer gänzlich frei von Meereis wäre. Doch zeigt die aktuelle Studie, dass solche pauschalen Aussagen schwierig sind. „Die von uns analysierten Publikationen machen klar, dass die Situation geographisch sehr unterschiedlich ist“, sagt Julian Gutt. „Aber immerhin wissen wir jetzt, welche Meeresgebiete und Messgrößen wir uns künftig genauer anschauen müssen, um Antworten zu finden.“

Knackige Kernbotschaften
Dass ausgerechnet in den vergangenen Jahren so viele neue Fakten zusammengetragen worden sind, führen die Autorinnen und Autoren der Studie vor allem auf die technische Entwicklung zurück – etwa von molekularbiologischen Methoden, von neuen Schiffen und Stationen oder auch autonomen Unterwasserfahrzeugen, von denen einige sogar unter dem Eis navigieren können. Neue numerische und konzeptionelle Modelle wiederum helfen dabei, die Zusammenhänge in den Ökosystemen besser zu verstehen. Für Julian Gutt besteht die Leistung dieser Studie vor allem darin, dass es den 25 Autorinnen und Autoren gelungen ist, sich auf zehn Kernbotschaften zu einigen, die recht plakativ die Ergebnisse zusammenfassen und auch einen Blick in die Zukunft werfen.

Hinweise für Redaktionen
Die Studie ist unter folgendem Titel im Online-Portal des Fachjournals Biological Reviews erschienen: Julian Gutt et al.: Antarctic ecosystems in transition – life between stresses and opportunities. DOI: 10.1111/brv.12679

Ihr wissenschaftlicher Ansprechpartner im Alfred-Wegener-Institut ist Prof. Dr. Julian Gutt (E-Mail: Julian.Gutt@awi.de).

Aufgrund der Corona-Arbeitsregelungen kann es sein, dass die beteiligten Wissenschaftler im Home-Office arbeiten. Wir bitten Sie daher, Interviewanfragen per E-Mail zu schicken (die Pressestelle in cc). Die Kollegen rufen Sie dann schnellstmöglich zurück.

Für weitere Rückfragen steht Ihnen die Pressestelle des Alfred-Wegener-Instituts per E-Mail (medien@awi.de) zur Verfügung.

Druckbare Bilder finden Sie in der Online-Version dieser Pressemitteilung: https://www.awi.de/ueber-uns/service/presse.html

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 19 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Originalpublikation:
https://doi.org/10.1111/brv.12679

Weitere Informationen:
https://www.awi.de/ueber-uns/service/presse.html Pressemeldungen des Instituts

(nach oben)


Wenn ältere Beschäftigte ihr Wissen nicht mit Jüngeren teilen

Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Studie aus der Arbeits- und Organisationspsychologie der Justus-Liebig-Universität Gießen zur Altersdiskriminierung und ihre Folgen für Unternehmen

Ältere Beschäftigte, die sich wegen ihres Alters diskriminiert fühlen und aufgrund negativer Erlebnisse ein zu geringes Zutrauen in die eigene Kompetenz („Selbstwirksamkeit“) haben, teilen ihre Kenntnisse und Erfahrungen zu selten mit jüngeren Kolleginnen und Kollegen. Für den Erfolg eines Unternehmens ist der Erfahrungsschatz älterer Mitarbeiterinnen und Mitarbeiter jedoch eine wertvolle Ressource, die zum Unternehmenserfolg maßgeblich beitragen kann. In einer aktuellen Publikation „To share or not to share: A social-cognitive internalization model to explain how age discrimination impairs older employees’ knowledge sharing with younger colleagues“ weisen Dr. Ulrike Fasbender und ihr Team aus der Arbeits- und Organisationspsychologie der Justus-Liebig-Universität Gießen (JLU) diese Effekte nach und legen dazu die Ergebnisse zweier Untersuchungen mit knapp 600 Mitarbeiterinnen und Mitarbeitern vor.

„Bei Diskriminierung gibt es mehr zu verstehen als man zunächst denkt“, erklärt Dr. Fasbender: „Für die Weitergabe von Wissen an jüngere Kolleginnen und Kollegen spielt die soziale Wahrnehmung älterer Mitarbeiterinnen und Mitarbeiter eine zentrale Rolle. Wir untersuchen wahrgenommene Diskriminierung aufgrund des Alters und argumentieren, dass diese nicht nur ein Problem älterer Mitarbeiterinnen und Mitarbeiter ist, sondern vielmehr ein Problem für das gesamte Unternehmen.“ Diskriminierung verändere das Verhalten Betroffener am Arbeitsplatz, erläutert die Psychologin: Ältere Beschäftigte verinnerlichen das negative soziale Urteil anderer kognitiv und fühlen sich daher weniger sicher, ihr Fachwissen mit jüngeren Kolleginnen und Kollegen zu teilen. Dies bedeute letztendlich, dass wertvolles Wissen verloren gehe und jüngere Beschäftigte sich nicht weiterentwickeln könnten, indem sie von ihren erfahreneren Kolleginnen und Kollegen lernen.

Was können Organisationen und Unternehmen dagegen tun? Eine offensichtliche Folgerung ist, dass sie Diskriminierung mit allen möglichen Mitteln bekämpfen müssen. Das Wissen älterer Mitarbeiterinnen und Mitarbeiter zu bewahren, sei für den Erfolg von Unternehmen wichtig und gewinne vor dem Hintergrund des demografischen Wandels und dem bevorstehenden Eintritt des geburtenstarken Babyboomer-Jahrgangs ins Rentnerleben weiter an Bedeutung, betont Dr. Fasbender, die als Akademische Rätin in der Arbeits- und Organisationspsychologie der JLU forscht und lehrt und zudem Visiting Research Fellow an der Oxford Brookes Universität und Birkbeck, University of London in England ist.

Mit ihrem Team hat sie im Rahmen der Studie auch die Effekte verschiedener altersangepasster Personalentwicklungsmaßnahmen – insbesondere Weiterbildung und Zugeständnisse –
untersucht. Diese sind ein wichtiger Ansatzpunkt für Unternehmen, einen förderlichen Kontext für den Wissenstransfer zu schaffen. Dennoch fiel die Bewertung solcher Maßnahmen insgesamt eher ernüchternd aus: Human Resources- (HR)-Praktiken, die sich gezielt an ältere Mitarbeiterinnen und Mitarbeiter richten, sind aus Sicht des Gießener Forschungsteams zwar nützlich, können den negativen Auswirkungen einer wahrgenommenen Diskriminierung aufgrund des Alters jedoch nicht entgegenwirken.

Die 1607 gegründete Justus-Liebig-Universität Gießen (JLU) ist eine traditionsreiche Forschungsuniversität, die rund 28.000 Studierende anzieht. Neben einem breiten Lehrangebot – von den klassischen Naturwissenschaften über Rechts- und Wirtschaftswissenschaften, Gesellschafts- und Erziehungswissenschaften bis hin zu Sprach- und Kulturwissen¬schaften – bietet sie ein lebenswissenschaftliches Fächerspektrum, das nicht nur in Hessen einmalig ist: Human- und Veterinärmedizin, Agrar-, Umwelt- und Ernährungswissenschaften sowie Lebensmittelchemie. Unter den großen Persönlichkeiten, die an der JLU geforscht und gelehrt haben, befindet sich eine Reihe von Nobelpreisträgern, unter anderem Wilhelm Conrad Röntgen (Nobelpreis für Physik 1901) und Wangari Maathai (Friedensnobelpreis 2004). Seit dem Jahr 2006 wird die Forschung an der JLU kontinuierlich in der Exzellenzinitiative bzw. der Exzellenzstrategie von Bund und Ländern gefördert.

Wissenschaftliche Ansprechpartner:
Kontakt
Dr. Ulrike Fasbender
Arbeits- & Organisationspsychologie
Telefon: 0641 99-26234
E-Mail: Ulrike.Fasbender@psychol.uni-giessen.de

Originalpublikation:
Publikation
Ulrike Fasbender, Fabiola H. Gerpott: „To share or not to share: A social-cognitive internalization model to explain how age discrimination impairs older employees’ knowledge sharing with younger colleagues“. European Journal of Work and Organizational Psychology Volume 29, 2020 https://www.tandfonline.com/eprint/E9SX8N9N9NZC9XAHMSHB/full?target=10.1080/1359…
DOI: 10.1080/1359432X.2020.1839421

Weitere Informationen:
https://www.uni-giessen.de/fbz/fb06/psychologie/abt/aop

(nach oben)


Seilbahnen als umweltfreundliche Alternative zum Autoverkehr

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
DBU fördert Vorhaben zur Analyse künftiger Mobilitätsformen

Innenstädte leiden vielfach unter stockendem Verkehr und schlechter Luftqualität. Immer mehr Hoffnung ruht auf einer umweltfreundlichen Alternative im Stadtverkehr: Seilschwebebahnen als Ergänzung zum öffentlichen Personennahverkehr (ÖPNV). Das Ingenieurbüro „SSP Consult Beratende Ingenieure GmbH“ sowie das Institut für Fördertechnik und Logistik (IFT) der Universität Stuttgart entwickeln deshalb derzeit Methoden und Werkzeuge, um dieses neue Verkehrsmittel im urbanen Raum besser planen und entwerfen zu können. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das zweijährige Vorhaben fachlich und finanziell mit rund 300.700 Euro.

Teil der Untersuchung ist auch, den Vergleich mit anderen Mobilitätsformen zu erleichtern. In vielen Stadtzentren sind die Verkehrswege ebenso wie öffentliche Verkehrsmittel überlastet. Staus und hohe Umweltbelastung, etwa durch Feinstaub-Stickoxide (NOx) und Lärm, sind die Folgen. „Wir brauchen Alternativen, um den Autoverkehr zu reduzieren und den ÖPNV zu ergänzen“, sagt DBU-Referatsleiterin für Architektur und Bauwesen, Sabine Djahanschah.

Über den Dächern der Stadt
Eine Möglichkeit könnten Seilbahnsysteme sein, wie sie in Berggebieten oder bei großen Gartenbauveranstaltungen zum Einsatz kommen. „Im Vergleich zu anderen Verkehrsmitteln fehlen für deren Anwendung und Bewertung im Stadtraum jedoch bisher praktische Planungshilfen“, sagt Projektleiter Michael Welsch. Dabei hätten Seilschwebebahnen deutliche umweltrelevante Vorteile. Die Bauzeit sei kürzer, es müsse weniger Fläche versiegelt werden und der Material- und Ressourcenbedarf für Stützen und Stationen sei geringer als zum Beispiel bei Stadt- und S-Bahnen. Welsch: „Seilschwebebahnen sind sehr geräuscharm, zerschneiden kaum Natur- oder Bewegungsräume und bieten eine sehr gute CO2-Bilanz sowohl in der Herstellung als auch im Betrieb.“

Planungssicherheit für Kommunen
Mit Hilfe der nun zu entwickelnden Empfehlungen aus dem Förderprojekt soll Planungssicherheit für die kommunale Verwaltung und die lokale Politik entstehen. Das Ziel: möglichst bald Seilbahnsysteme als Ergänzung zum ÖPNV in deutschen Städten zu installieren. Projektleiter Welsch zu dem nun im zweijährigen Vorhaben zu entwickelnden Werkzeug: „Es soll die Bereiche Wirtschaftlichkeit, Umweltaspekte, Bevölkerungsakzeptanz und den gesamten Lebenszyklus betrachten.“ Dabei werden nach Welschs Worten unter anderem Indikatoren zum CO2-Fußabdruck, Lärm, Spiegelung und Schattenwurf und Flächenversiegelung einbezogen. Begleitet wird das DBU-Projekt durch einen Experten-Beirat aus Vertretern von Kommunen, Verbänden, Politik und Wissenschaft.

(nach oben)


Erste Daten des Corona-Impfstoffes zeigen gute Verträglichkeit, aber schwache Immunreaktion

Saskia Lemm Unternehmenskommunikation
Universitätsklinikum Hamburg-Eppendorf
Start der zweiten Studienphase des Vektor-Impfstoffes gegen COVID-19 wird verschoben.

Die weitere Entwicklung des Vektor-Impfstoffes MVA-SARS-2-S gegen COVID-19 der IDT Biologika GmbH und des Deutschen Zentrums für Infektionsforschung (DZIF) verschiebt sich. Der Vektor-Impfstoff wurde von der Ludwig-Maximilian-Universität (LMU) in München entwickelt. Ergebnisse der ersten klinischen Prüfung des Universitätsklinikums Hamburg-Eppendorf (UKE) und des Instituts für Virologie der Philipps-Universität Marburg auf Sicherheit, Verträglichkeit und die immunologische Wirksamkeit des Impfstoffes liegen jetzt vor. Die Impfungen sind sicher und gut verträglich mit geringem Nebenwirkungsprofil, allerdings liegen die Immunreaktionen in den vorläufigen Ergebnissen unter den Erwartungen. Sobald die Ursachen dafür abgeklärt sind, soll die klinische Erprobung fortgesetzt werden.

Der Vektor-Impfstoff MVA-SARS-2-S wurde 30 Probandinnen und Probanden in zwei unterschiedlich hohen Dosierungen bis Mitte Dezember verabreicht. Hatte er in präklinischen Modellen robuste Immunantworten und eine Schutzwirkung gezeigt, fielen diese in der ersten Phase der klinischen Überprüfung jedoch geringer aus. Die Ursachen dafür werden gegenwärtig untersucht. Die für Anfang des Jahres geplante Phase-II-Studie wird daher bis zur Abklärung verschoben.

„Die bisher ausgewerteten Daten zeigen, dass Immunantworten zwar nachweisbar sind, aber nicht im erwarteten Ausmaß generiert wurden. Da wir uns unserer hohen Verantwortung für die Gesundheit der Bevölkerung und eine bestmögliche Schutzwirkung des Impfstoffes bewusst sind, arbeiten wir nun an einer Optimierung des Impfstoffes, um dieses Ziel zu erreichen“, sagt Prof. Dr. Marylyn Addo, verantwortliche Prüfärztin der klinischen Studie und Leiterin der Infektiologie des UKE, stellvertretend für alle beteiligten Partnerinnen und Partner des Konsortiums.

Anhang
Erste Daten des Corona-Impfstoffes zeigen gute Verträglichkeit, aber schwache Immunreaktion

(nach oben)


Stadtlogistik: Wie lässt sich die „Letzte Meile“ möglichst nachhaltig gestalten?

Marylen Reschop Pressestelle
Bergische Universität Wuppertal
Immer mehr Online-Bestellungen sowie kleinteilige Lieferungen bleiben nicht unbemerkt: Das Thema Stadtlogistik gewinnt auch deswegen an Bedeutung, da Auswirkungen wie überfüllte Innenstädte und das Zweite-Reihe-Parken zunehmen – nicht zuletzt auf Kosten der Umwelt. Um darüber genauere Aussagen treffen zu können, beleuchtet der Lehrstuhl für Güterverkehrsplanung und Transportlogistik der Bergischen Universität im Auftrag der Gesellschaft für internationale Zusammenarbeit die politischen und wirtschaftlichen Rahmenbedingungen für die Branche der deutschen Kurier-, Express- und Paketdienste (KEP) sowie aktuelle Trends im Bereich der Belieferung auf der sogenannten „Letzten Meile“.

Damit insbesondere der Letzte-Meile-Verkehr in sensiblen Gebieten wie Fußgängerzonen, Wohngebieten, etc. konfliktarm, nachhaltig und wirtschaftlich durchgeführt werden kann, bedarf es der richtigen Setzung von Rahmenbedingungen. In einer Studie wollen die Wuppertaler Wissenschaftler daher zunächst die geltenden und absehbaren Vorgaben in Deutschland auf nationaler Ebene sowie am Beispiel der Stadt Berlin auf lokaler Ebene herausarbeiten. Zudem werden konkrete Tourenwege analysiert, um Aussagen über Kennwerte wie Emissionen und Fahrleistung zu treffen. Eine vergleichbare Studie in der Stadt Suzhou führt das dem chinesischen Verkehrsministerium angegliederte „Transport Planning and Research Institute“ durch, mit dem das Lehrstuhl-Team in ständigem Austausch steht.

„Anders als in China werden Innovationen in Deutschland häufig durch zuvor definierte Regulierungen erschwert“, erklärt Tim Holthaus, Wissenschaftlicher Mitarbeiter am Lehrstuhl von Prof. Leerkamp. So seien hierzulande Lastenrädern ohne Kennzeichen auf eine Motorleistung von 250 Watt beschränkt, was wiederum den Transport von schwereren Sendungen insbesondere in topografisch anspruchsvolleren Regionen oder bei einer stadtüblichen Belieferung über eine Rampe in der Tiefgarage erschweren oder verhindern würde. Generell sei die KEP-Branche in jedem Land anderen Rahmenbedingungen ausgesetzt, an die sie sich anpassen müsse. „Das erschwert eine einfache Übertragung von Konzepten zur Organisation der KEP-Verkehre von Land zu Land sowie die Einführung von Innovationen und ist problematisch, da die KEP-Unternehmen international agieren“, so Holthaus.

Nach Abschluss der Studie sollen die Ergebnisse gemeinsam mit den Erkenntnissen aus China in eine Vergleichsstudie münden. „Neben dem Aufzeigen eines Status quo kann eine solche Gegenüberstellung wertvolle Lösungsansätze für die zukünftige Gestaltung des Letzte-Meile-Verkehrs liefern“, so Holthaus.

Wissenschaftliche Ansprechpartner:
Tim Holthaus, M.Sc.
Lehr- und Forschungsgebiet Güterverkehrsplanung und Transportlogistik
Telefon 0202/439-4016
E-Mail holthaus@uni-wuppertal.de

(nach oben)


Menschen hören das, was sie zu hören erwarten

Konrad Kästner Pressestelle
Technische Universität Dresden
Dresdner Neurowissenschaftler:innen zeigen, dass die menschliche Hörbahn Geräusche entsprechend vorheriger Erwartungen widergibt. Die Ergebnisse sind jetzt in der renommierten Fachzeitschrift eLife veröffentlicht worden.

Der Mensch ist auf seine Sinne angewiesen, um die Welt, sich selbst und andere wahrzunehmen. Obwohl die Sinne das einzige Fenster zur Außenwelt sind, hinterfragen Menschen nur selten, wie wahrheitsgetreu sie die Außenwelt tatsächlich wahrnehmen. In den letzten 20 Jahren hat die neurowissenschaftliche Forschung gezeigt, dass die Großhirnrinde ständig Vorhersagen darüber erstellt, was als nächstes passieren wird. Neuronen, die für die sensorische Verarbeitung zuständig sind, erfassen nur den Unterschied zwischen den Vorhersagen und der Realität.

Ein Team von Neurowissenschaftler:innen der TU Dresden unter der Leitung von Prof. Katharina von Kriegstein stellt in einer aktuellen Publikation neue Erkenntnisse darüber vor, dass nicht nur die Großhirnrinde, sondern die Hörbahn Geräusche entsprechend vorheriger Erwartungen widergibt. Die Hörbahn verbindet das Ohr mit der Großhirnrinde.

Für die Studie nutzte das Team die funktionelle Magnetresonanztomographie (fMRT), um die Gehirnreaktionen von 19 Teilnehmenden zu messen, während diese Tonfolgen hörten. Die Teilnehmenden wurden angewiesen, herauszufinden, welcher der Klänge in der Reihenfolge von den anderen abweicht. Die Erwartungen der Probanden wurden so verändert, dass sie den abweichenden Ton an bestimmten Stellen der Sequenz erwarten würden. Die Neurowissenschaftler:innen untersuchten die Reaktionen, die die abweichenden Geräusche in zwei wichtigen Kernen der Hörbahn, die für die auditorische Verarbeitung verantwortlich sind, auslösten: dem colliculus inferior (‚unterer Hügel‘) und dem medialen corpus geniculatum mediale (‚mittig-liegender Kniehöcker‘). Obwohl die Teilnehmenden die abweichenden Töne schneller erkannten, wenn sie an Positionen platziert wurden, an denen sie diese erwarteten, verarbeiteten die Kerne der Hörbahn die Töne nur, wenn sie an unerwarteten Positionen platziert wurden.

Diese Ergebnisse lassen sich am besten im Rahmen einer allgemeinen Theorie der sensorischen Verarbeitung interpretieren, die die Wahrnehmung als einen Prozess der Hypothesenprüfung beschreibt. Man nennt diese Theorie ‚prädiktive Kodierung‘. Die prädiktive Kodierung geht davon aus, dass das Gehirn ständig Vorhersagen darüber generiert, wie die physische Welt im nächsten Moment aussehen, klingen, sich anfühlen und riechen wird, und dass die Neuronen, die für die Verarbeitung der Sinne zuständig sind, Ressourcen sparen, indem sie nur die Unterschiede zwischen diesen Vorhersagen und der tatsächlichen physischen Welt darstellen.

Dr. Alejandro Tabas, Erstautor der Veröffentlichung, erklärt die Ergebnisse folgendermaßen: „Unsere Überzeugungen haben einen entscheidenden Einfluss darauf, wie wir die Realität wahrnehmen. Jahrzehntelange Forschung in den Neurowissenschaften hatte bereits gezeigt, dass die Großhirnrinde, der Teil des Gehirns, der bei Menschen und Affen am weitesten entwickelt ist, Überzeugungen mit sensorischen Informationen abgleicht. Wir haben nun gezeigt, dass dieser Prozess auch in den einfachsten und evolutionär ältesten Teilen des Gehirns vorherrscht. Alles, was wir wahrnehmen, könnte zutiefst durch unsere subjektiven Überzeugungen über die Welt geprägt sein.“

Diese Ergebnisse ermöglichen der neurowissenschaftlichen Forschung, einen neuen Blick auf die Hörbahn und auch auf andere sensorische Bahnen, wie der Sehbahn. Bisher wurde der Rolle, die subjektive Überzeugungen auf Repräsentationen in den sensorischen Bahnen haben könnten, wenig Aufmerksamkeit geschenkt. Vielleicht ist dies der festen Annahme geschuldet, dass Subjektivität ein Merkmal des Menschen ist und die Großhirnrinde der Hauptunterscheidungspunkt zwischen den Gehirnen von Menschen und anderen Säugetieren ist.

Angesichts der Bedeutung, die Vorhersagen für das tägliche Leben haben, könnten Beeinträchtigungen der Art und Weise, wie Erwartungen an die sensorischen Bahnen übermittelt werden, tiefgreifende Auswirkungen auf die Kognition haben. Lese-Rechtschreib-Schwäche, die am weitesten verbreitete Lernstörung, wurde bereits mit veränderter Verarbeitung in der Hörbahn und mit Schwierigkeiten in der auditorischen Wahrnehmung in Verbindung gebracht. Die neuen Ergebnisse könnten eine einheitliche Erklärung dafür liefern, warum Menschen mit Lese-Rechtschreibschwäche Schwierigkeiten bei der Wahrnehmung von Sprache haben. Weiterhin liefern sie klinischen Neurowissenschaftler:innen neue Hypothesen über den Ursprung auch anderer neuronaler Störungen, die mit der sensorischen Verarbeitung in Verbindung stehen.

Wissenschaftliche Ansprechpartner:
Dr. Alejandro Tabas (englisch)
Tel.: +49 351 463-43894
Email: alejandro.tabas@tu-dresden.de

Prof. Katharina von Kriegstein (deutsch)
Tel.: +49 351 463-43901
Email: katharina.von_kriegstein@tu-dresden.de

Originalpublikation:
Alejandro Tabas, Glad Mihai, Stefan Kiebel, Robert Trampel, Katharina von Kriegstein: Abstract rules drive adaptation in the subcortical sensory pathway. eLife 2020;9:e64501
DOI: 10.7554/eLife.64501

(nach oben)


Verzicht auf Silvesterfeuerwerk erspart der Umwelt Tausende Tonnen Kunststoffe

Axel Grehl Pressestelle
Hochschule Pforzheim
Pforzheimer Wirtschaftsingenieure präsentieren Forschungsergebnisse auf internationalem Abfallwirtschaftskongress

Das Verbot, für den Silvesterabend 2020 Feuerwerk zu kaufen und abzufeuern, hat Krankenhäuser vor zusätzlicher Überlastung durch Verletzungen in Zusammenhang mit Raketen & Co. geschützt. Ein weiterer positiver Nebeneffekt: Die Umwelt wurde erheblich geschont – wie genau, das wurde im Rahmen eines Forschungsprojekts der Hochschule Pforzheim untersucht. Lukas Deuschle, Student im Bachelorstudiengang „Wirtschaftsingenieurwesen“ analysierte gemeinsam mit Jörg Woidasky, Professor für Nachhaltige Produktentwicklung an der Fakultät für Technik, die Frage „Wieviel Kunststoff gelangt durch Silvesterfeuerwerk in die Umwelt?“.

„Auch, wenn man den diesjährigen Verzicht aus kulturellen Aspekten bedauern mag, so war er für die Umwelt sehr vorteilhaft: Ohne Silvesterfeuerwerk bleibt der Umwelt in Deutschland die Freisetzung von etwa 3 500 Tonnen Kunststoff erspart – neben der Vermeidung von Lärm, Luftverunreinigungen und Verletzungen“, fasst Professor Dr.-Ing. Jörg Woidasky die Arbeitsergebnisse zusammen. Diese präsentierte das Pforzheimer Duo, gemeinsam mit weiteren Partnern, Ende 2020 auf dem internationalen Abfallwirtschaftskongress „Recy & DepoTech“ in Leoben/Österreich online.

Die Arbeitsergebnisse basieren auf einer umfangreichen Sortier- und Werkstoffanalyse von Feuerwerkskörpern an der Hochschule Pforzheim, die durch Kundenbefragungen und Zulassungsanalysen im Rahmen von Lukas Deuschles Bachelorarbeit ergänzt wurden. „Wir haben in der Literatur keine genauen Angaben zu Kunststoff-Emissionen aus Feuerwerken finden können“, so Jörg Woidasky, „also haben wir ein eigenes Forschungskonzept zur Kunststoffemission aus Feuerwerken entwickelt und umgesetzt.“

Das Ergebnis dieser Forschungen wurde in Kooperation mit Professor Dr. Kai Oßwald von der Fakultät für Technik der Hochschule Pforzheim und dem Fraunhofer-Institut für Chemische Technologie in Pfinztal (ICT) als Buchbeitrag publiziert.

Vor Beginn der Corona-Epidemie wurden in Deutschland jährlich über 130 Millionen Euro für etwa 40 000 Tonnen Feuerwerkskörper ausgegeben. Die bisher vor allem diskutierten Umweltauswirkungen der Silvesternacht sind Luftverunreinigungen: „In Deutschland werden durch das Silvesterfeuerwerk nach Aussagen des Umweltbundesamtes jährlich bundesweit etwa 4 500 Mg Feinstaubpartikel innerhalb weniger Stunden freigesetzt, die Schwermetalle enthalten können“, so Jörg Woidasky. Neben den Staub- und Lärmemissionen führen Silvesterfeuerwerke aber auch zu einem großen Abfallanfall: „Die Treib- und Effektsätze der pyrotechnischen Artikel machen davon lediglich etwa ein Drittel aus, der Rest sind feste Abfälle aus Pappe, Papier, Holz, Ton und Kunststoffen. Sie werden für Hüllen, Kappen und Verpackungen eingesetzt.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Jörg Woidasky
joerg.woidasky@hs-pforzheim.de

Weitere Informationen:
http://www.hs-pforzheim.de/profile/joergwoidasky

(nach oben)


Stellungnahme des KKNMS zur Methode der mRNA Vakzinierung

Lena Forster Presse- und Öffentlichkeitsarbeit
Krankheitsbezogenes Kompetenznetz Multiple Sklerose
Neue Technik der mRNA Vakzinierung, die gegenwärtig so erfolgreich als COVID Impfung eingesetzt wird, ist nicht ohne weiteres auf Erkrankungen wie die Multiple Sklerose übertragbar

In einer bemerkenswerten Studie ist es gelungen, die Entstehung von experimenteller autoimmuner Enzephalomyelitis bei Mäusen durch einen entzündungshemmenden Impfstoff zu unterdrücken (Krienke et al., Science 2020). Bei bereits erkrankten Tieren konnte der Krankheitsverlauf durch die Gabe des mRNA Impfstoffes abgemildert bzw. rückgängig gemacht werden. Die Ergebnisse von Christina Krienke und Kollegen, unter der Studienleitung von Prof. Sahin, dem Mitbegründer von Biontech, wecken Hoffnungen bei MS-Betroffenen. Die Resonanz in den Medien ist hoch, es wird teilweise von der Möglichkeit gesprochen hier eine Impfung gegen die Multiple Sklerose generieren zu können.
Die Technik der mRNA Vakzinierung wird derzeit intensiv diskutiert. Zumal sie erstmals erfolgreich als Strategie zur Entwicklung eines Impfstoffes gegen das SARS-COV2 Virus etabliert wurde. Mit Datum vom 08.01.2021 sind gegenwärtig zwei Impfstoffe zugelassen, die beide das gleiche Prinzip verwenden. Das Kompetenznetzwerk hatte in einer Stellungnahme vom 18.12.2020 hierzu informiert und Empfehlungen für MS Patienten herausgegeben.
Nun wurde die mRNA Vakzinierung im Tierexperiment und an einem Modell, welches Aspekte der MS nachstellt, verwendet. Die Studie ist höchstwertig und wissenschaftlich von größter Bedeutung und dokumentiert erneut auch das Potential der mRNA Vakzinierungsstrategie insgesamt. Allerdings: was in Mäusen mit experimenteller autoimmuner Enzephalomyelitis als Impfstrategie funktioniert, ist als Strategie für eine Autoimmunerkrankung beim Menschen nicht so einfach zu übersetzen. Hauptproblem beim Menschen – im Gegensatz zum Tiermodell – ist, dass die Zielantigene bei der MS nicht bekannt sind. Über Jahrzehnte haben Wissenschaftler bereits versucht, die für Multiple Sklerose relevanten Antigene zu identifizieren, dies gelang jedoch nicht.
Ganz im Gegenteil: In den 90er Jahren haben Antigen-spezifische Therapieansätze bei der Übertragung aus Laborbedingungen auf den Menschen sogar teilweise unerwartet zu einer Verstärkung der Entzündung im Gehirn geführt, indem Immunantworten gegen das ZNS sogar befördert und nicht unterdrückt wurden. Die MS gilt heute als komplexe Störung immunregulatorischer Netzwerke. Nach der Gabe einer Selektion von Antigenen zur Therapie einer Autoimmunerkrankung, kann es sogar zu einer fehlgesteuerten Aktivierung von Ab-wehrzellen kommen. Denn im Verlauf der Erkrankung gibt es offensichtlich sehr viele Antigene sowie HLA Moleküle, welche den T Zellen helfen anhand der zellulären Oberflächenstruktur kranke von gesunden Zellen zu unterscheiden, und diese sind individuell unterschiedlich. Weiterhin beruht das Phänomen der Verstärkung der Entzündung wohl auf speziellen Bindungsstärken der gegen den eigenen Körper gerichteten Immunabwehr. Somit ist es nicht verwunderlich, dass bislang kein Antigen-spezifischer Therapieansatz in der Multiplen Sklerose (und auch nicht bei anderen Autoimmunerkrankungen) erfolgreich war.
Eine Autoimmunkrankheit wie die Multiple Sklerose ist im Kontext der entwickelten Impfung damit nicht gleichzusetzen mit einer Infektion, die ja eine sehr gerichtete Antwort auf sehr definierte (Virus)Antigene darstellt. Die Strategie eine „Impfung gegen MS“ zu entwickeln ist zwar charmant und wissenschaftlich ein hochwertvolles Ziel. Es fehlt aber beim Menschen nicht die richtige Labortechnik, sondern die Biologie der Entzündungsprozesse bei der MS ist ganz anders zu bewerten als bei einer Infektion.

Quellen
[1] Krienke et al., Science 371, 145–153 (2021)

Autorinnen und Autoren:
Prof. Dr. Frauke Zipp, Klinik für Neurologie, Johannes Gutenberg-Universität, Mainz
Prof. Dr. Heinz Wiendl, Klinik für Neurologie mit Institut für Translationale Neurologie, Universitätsklinikum Münster
Prof. Dr. Ralf Gold, Neurologische Klinik der Ruhr-Universität Bochum
Prof. Dr. Ralf Linker, Neurologische Klinik des Universitätsklinikums Erlangen
Prof. Dr. Martin Kerschensteiner, Institut für Klinische Neuroimmunologie der LMU München

Originalpublikation:
Krienke et al., Science 371, 145–153 (2021)

Anhang
KKNMS Pressemitteilung

(nach oben)


Ein unbehandelter Bluthochdruck erhöht das Risiko für schwere COVID-19-Verläufe

Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Bereits in der ersten Welle der SARS-CoV-2-Pandemie wurde Bluthochdruck (arterielle Hypertonie) als Risikofaktor für schwere COVID-19-Kranklheitsverläufe vermutet. Eine aktuelle Publikation [1] verbessert die Datenlage und zeigt, dass eine unbehandelte Bluthochdruckerkrankung mit einem höheren Risiko für schwere COVID-19-Verläufe einhergeht. Die medikamentöse Bluthochdrucktherapie mit sogenannten ACE-Hemmern schien hingegen das Risiko für schwere entzündliche Verläufe der Viruserkrankung zu senken.

Bluthochdruck gilt als Risikofaktor für einen schweren COVID-19-Verlauf, ebenso ein höheres Alter – und oft kommt beides zusammen: In Deutschland hat fast jeder dritte Erwachsene zu hohe Blutdruckwerte, bei den über 60-Jährigen ist im Durchschnitt sogar jeder Zweite von Bluthochdruck betroffen. Daher liegt es auf der Hand, dass viele schwerkranke COVID-19-Patienten, unter denen prozentual viel mehr ältere Menschen sind, auch häufiger Bluthochdruck aufweisen. Mit diesem Argument wurde Bluthochdruck als COVID-19-Risikofaktor häufig vom Tisch gewischt und unterschätzt. Doch eine aktuell in „Nature Biotechnology“ publizierte, experimentelle Studie deutet darauf, dass Bluthochdruck durchaus ein eigenständiger Risikofaktor für schwere COVID-19-Verläufe sein könnte, vor allem, wenn er nicht medikamentös behandelt wird.

Die Autoren haben die klinischen Daten von 144 Patienten und Daten von sogenannten „single cell sequencing“-Analysen von Zellen aus nasopharyngalen Abstrichen von 48 Patienten mit und ohne COVID-19-Infektion untersucht. Wie sich zeigte, waren in den Immunzellen der Studienteilnehmer mit arterieller Hypertonie ausgeprägtere Entzündungsreaktionen nach COVID-19-Infektion zu beobachten als bei jenen mit normalen Blutdruckwerten. Diese verstärkte Entzündungsreaktion korreliert mit schlechterem Outcome: Patienten mit arterieller Hypertonie wiesen eine verlängerte Dauer bis zur Virusfreiheit (sogenannte virale Clearance) und eine höhere Anfälligkeit für schwerere Atemwegsinfektionen auf.

„Es bekannt, dass die arterielle Hypertonie entzündliche Prozesse im Körper aktiviert und daher auch naheliegend, dass sie eine COVID-19-Erkrankung aggravieren kann. Die verstärkte Entzündungsreaktion bei hypertensiven Covid-19-Patienten könnte eine mögliche Erklärung sein,“ erklärt Professor Dr. Ulrich Wenzel vom UKE Hamburg, Vorstandsvorsitzender der DHL® │ Deutsche Gesellschaft für Hypertonie und Prävention. „Die vorliegende Studie bestätigt diese Hypothese: Die untersuchten Bluthochdruck-Patientinnen und -Patienten hatten ein höheres Risiko für kritische COVID-19-Verläufe. Die Studie zeigte aber auch, dass eine medikamentöse Blutdrucktherapie einen positiven Effekt hatte. Das unterstreicht, wie wichtig es ist, Bluthochdruck in den Griff zu bekommen!“

Die Studienautoren zeigten, dass sogenannte ACE-Hemmer (ACEi) das erhöhte Risiko für schwere COVID-19-Erkrankungen nahezu auf das Risikoniveau von Menschen ohne Bluthochdruck senken konnten. Eine Risikoabsenkung wurde unter Therapie mit Angiotensin-Rezeptor-Blockern (ARB) auch beobachtet, sie war aber weniger stark ausgeprägt. Darüber hinaus hatten ARB im Gegensatz zu ACEi keinen Effekt auf die virale Clearance. Die Forscher führen daher an, dass ACEi während der Corona-Pandemie die bessere Bluthochdrucktherapie darstellen könnte.

„Dieser Hypothese möchten wir uns aber nicht anschließen. Die Zahl der Studienteilnehmer war zu klein und die Studie auch gar nicht dafür ausgelegt, um verschiedene blutdrucksenkende Therapien im Hinblick auf ihr ‚Anti-COVID-19-Potenzial‘ vergleichen zu können. Die wesentliche Erkenntnis dieser Untersuchung ist für uns: Bluthochdruck ist ein eigenständiger Risikofaktor für schwere COVID-19-Verläufe, wenn er nicht behandelt wird. Die gefundene verstärkte Entzündungsreaktion könnte dafür verantwortlich sein. Wir hoffen, dass diese zentrale Botschaft Patientinnen und Patienten motiviert, ihre Blutdruckmedikamente konsequent zu einzunehmen“, erklärt der Hamburger Experte.

Sein Vorstandskollege, Professor Dr. Florian Limbourg, Hannover, ergänzt: „Leider ignorieren viele Menschen ihre erhöhten Blutdruckwerte und einige ahnen auch nicht, dass sie überhaupt einen zu hohen Blutdruck haben Umso wichtiger ist es, die Bevölkerung für Bluthochdruck zu sensibilisieren, um gefährlichen Folgeschäden, darunter Herzinfarkte, Schlaganfälle, Nierenversagen – und, wie nun gezeigt wurde, auch eine erhöhte Anfälligkeit für schwere COVID-19-Verläufe –, durch Blutdrucksenker entgegenzuwirken.“

Literatur:
[1] Trump S, Lukassen S, Anker MS et al. Hypertension delays viral clearance and exacerbates airway hyperinflammation in patients with COVID-19. Nature Biotechnology. Published 24 December, 2020. https://www.nature.com/articles/s41587-020-00796-1

Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423

Originalpublikation:
https://www.nature.com/articles/s41587-020-00796-1

(nach oben)


TU Berlin: Klärschlämme und Plastikfolien kontaminieren die Felder

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Auswertung von 23 Studien zum Thema „Globale Mikroplastik-Konzentrationen in Böden“ bestärkt Vermutungen über die schädigenden Auswirkungen auf Bodenorganismen

Erstens: Ackerböden und Böden des Obst- und Gemüseanbaus zeigen weltweit eine hohe Kontamination mit Mikroplastik-Partikeln. Klärschlämme und der Einsatz großflächiger Plastikfolien (Mulchfolien), die die Felder vor Verdunstung schützen und der Unkrautbekämpfung dienen, sind eine bedeutende Ursache für diese Einträge. Dabei ist die Kontamination der landwirtschaftlich genutzten Böden durch Klärschlämme bis zu zehnmal so hoch wie durch Mulchfolien.

Zweitens: Städte und stadtnahe Siedlungsgebiete sind ein Hotspot für Mikroplastik-Kontamination. Die Konzentration von Mikroplastik in diesem Umfeld ist im Vergleich zu ländlichen Gebieten bis zu zehnmal höher.

Drittens: In den Ländern des globalen Nordens und den sich industriell entwickelnden Ländern sind die Mengen an Mikroplastik im Boden ähnlich: Gemessen wurden übliche Konzentrationen von bis zu 13.000 Partikeln beziehungsweise 4,5 Milligramm an Mikroplastik in einem Kilogramm Boden.

Das sind drei der Ergebnisse des aktuellen Reviews „Globale Mikroplastik-Konzentrationen in Böden“, das jüngst im SOIL Journal publiziert wurde. Die Autoren des Reviews sind Dr. Frederick Büks, wissenschaftlicher Mitarbeiter am Fachgebiet Bodenkunde, und Prof. Dr. Martin Kaupenjohann, Leiter des Fachgebietes. Das SOIL Journal ist eine bodenkundliche Fachzeitschrift der European Geosciences Union (EGU), deren Artikel durch unabhängige Gutachter beurteilt (Peer-Review-Verfahren) und unter einer Creative Commons Licence veröffentlicht werden.

Die meisten Untersuchungen in China
In dem Paper, das den aktuellen Forschungsstand zur Thematik „Globale Mikroplastik-Konzentration in Böden“ darstellt, werteten die Bodenkundler 23 Studien aus, in denen 230 Standorte untersucht worden waren. „Die meisten Untersuchungen wurden in den vergangenen Jahren in China durchgeführt – von den 23 Studien sind es immerhin elf mit 155 Standorten. Und in Asien ist es das einzige Land, in dem Forschungen zu der Problematik in Fachzeitschriften veröffentlicht wurden“, sagt Dr. Frederick Büks. Sechs Studien stammten aus Europa, die anderen aus dem Nahen Osten, Australien sowie Nord- und Südamerika. Aus Afrika gibt es keine Daten.

Schlecht für Regenwurm und Käfer
Diesem Review vorausgegangen war 2019 ein Review unter Leitung der beiden TU-Wissenschaftler zu Auswirkungen von Mikroplastik auf Bodenorganismen wie Regen-, Watt- und Fadenwürmer, Käfer, Spinnen, Milben und kleinste Mehrzeller. In dieser Übersichtsstudie hatten sie Laborstudien ausgewertet, die mit einem weiten Spektrum an Mikroplastik-Konzentrationen arbeiteten. Es hatte sich gezeigt, dass besonders die kleinsten Plastikpartikel – kleiner als 100 Mikrometer, das sind 0,1 Millimeter – schon bei Konzentrationen unter zehn Milligramm pro Kilogramm Boden den Stoffwechsel, die Fortpflanzung und das Wachstum der Bodenorganismen schädigen. Diesen angenommenen Laborwerten wollten die TU-Wissenschaftler nun tatsächlich im Feld gemessene Werte gegenüberstellen. „Unsere aktuelle Überblicksstudie zeigt übliche Konzentrationen von bis zu 4,5 Milligramm pro Kilogramm Boden. Das heißt, dass die Konzentrationen, die tatsächlich in den Böden gemessen wurden, im Bereich der Werte liegen, die in den Laborstudien schädliche Effekte auf die im Boden lebenden Organismen bewirkt hatten. Da Studien zeigen, dass ein größerer Teil dieses Bodenmikroplastiks aus kleineren Partikeln besteht, müssen wir Schädigungen des Bodenlebens befürchten“, sagt Büks und fügt an, „für die Wissenschaft ist das zwar ein ‚gutes‘ Ergebnis, weil vorherige Studien bestätigt werden, aber leider nicht für Regenwurm und Käfer.“

Drei Einflussfaktoren
Frederick Büks analysierte die 23 Studien nach drei Einflussfaktoren: Landnutzung, Eintragspfad und Umfeld. Landnutzung meint, ob es landwirtschaftlich genutzte Flächen, Wälder, Naturschutzgebiete oder Brachflächen sind, auf denen gemessen wurde. Der Eintragspfad beschreibt, wodurch Mikroplastik in den Boden gelangt. Das kann unter anderem über Klärschlamm, Plastikfolien, Reifenabrieb, in die Landschaft geworfener Müll und Bewässerungswasser geschehen. Beim Umfeld unterschieden die Wissenschaftler zwischen ländlichen, städtischen oder industriellen Gebieten.

Belastbare Aussagen machen die 23 Studien nur zu den landwirtschaftlich genutzten Flächen, zu den Eintragspfaden Klärschlamm und Mulchfolien sowie zu ländlichen und städtischen Gebieten. Nur zwei Studien beschäftigten sich hingegen mit Mikroplastik in Industriegebieten. Die Messungen ergaben zwar eine tausendfach höhere Kontamination als in städtischen Gebieten. „Aber bei nur zwei Studien müssen solche Standorte noch intensiv insbesondere auf ihr Potenzial zur Kontamination der Umgebung untersucht werden“, sagt Dr. Frederick Büks.

Großer Forschungsbedarf
Insgesamt konstatieren die Bodenkundler nach der Auswertung der 23 Studien einen großen Forschungsbedarf. So liegen weder zu Wäldern, Naturschutzgebieten und Brachflächen Daten vor noch zu den Eintragspfaden Reifenabrieb, in die Landschaft geworfener Müll und Bewässerungswasser. „Aber selbst da, wo die Datenlage gut ist, registrierten wir Defizite in der Datenerfassung. In fast allen der 23 Studien fehlen Angaben zur Bodenart, ob es also ein sandiger oder ein toniger Boden war, der untersucht wurde. Auch Aussagen zur Historie des Standortes, ob sich die Nutzung oder die Eintragspfade über die Jahre veränderten, waren nicht zu finden“, resümiert Dr. Frederick Büks.

Besonders die Angaben zum Bodentyp und zu deren biologischen, physikalischen und chemischen Parametern seien wichtig, da davon auszugehen sei, dass unterschiedliche Böden unterschiedliches Mikroplastik auch unterschiedlich speicherten beziehungsweise transportierten. Diese sogenannte Grundkennzeichnung des Bodens sei notwendig, um weitere Schlüsse ziehen zu können über die schädigende Wirkung von Mikroplastik auf das Bodenökosystem.

Das Review entstand im Rahmen des vom Bundesforschungsministerium geförderten Projektes „Entwicklung Neuer Kunststoffe für eine Saubere Umwelt unter Bestimmung Relevanter Eintragspfade (ENSURE)“

Zum aktuellen Review-Artikel “Global concentrations of microplastics in soil”:
https://soil.copernicus.org/articles/6/649/2020/

Zum Review-Artikel “What do we know about how the terrestrial multicellular soil fauna reacts to microplastic?”
https://soil.copernicus.org/articles/6/245/2020/

Weitere Informationen erteilt Ihnen gern:
Dr. Frederick Büks
TU Berlin
Fachgebiet Bodenkunde
E-Mail: frederick.bueks@tu-berlin.de

(nach oben)


Studie: Wie (un)beliebt ist die „Corona-Warn-App“?

Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Forscher*innen aus Berlin und Bochum untersuchten, welche Personen die „Corona-Warn-App“ in Deutschland nutzen, welche nicht und wie sie ihre Entscheidung begründeten.

In ihrer Studie setzen vor allem Angehörige einer Risikogruppe sowie jüngere Personen die App zur Kontaktverfolgung ein. Männer nutzen sie häufiger als Frauen, Vollzeit-Beschäftigte eher als Personen in Ausbildung. Personen, die die „Corona-Warn-App“ nicht nutzen, sind in dieser Studie im Durchschnitt älter, weiblich und gesünder. Sie vertrauen anderen im Allgemeinen weniger und befinden sich eher in Ausbildung oder Studium.
Dagegen hängen weder Bildungsjahre noch Elternschaft signifikant mit der Nutzung der Kontaktverfolgungs-App zusammen.

Dies fand ein Forschungsteam um Dr. Susanne Bücker von der Ruhr-Universität Bochum und Prof. Dr. Kai Horstmann von der Humboldt-Universität zu Berlin heraus. Die Expert*innen für Persönlichkeitspsychologie befragten im Rahmen der Bochum Berlin Covid-19 Längsschnitt-Studie online 1.972 Deutschen im Alter von 18 bis 88 Jahren, ob diese die App nutzen und warum, beziehungsweise warum nicht. Die Studie ist im European Journal of Public Health erschienen.

Unter den 1.972 Studienteilnehmer*innen nutzten 1.291 die „Corona-Warn-App“. Als Begründung nannten sie vor allem, dass es keinen Grund gäbe, sie nicht einzusetzen. Außerdem würden die Vorteile der App ihre Risiken aufwiegen und sie helfe dabei, die Pandemie zu verlangsamen. Die 681 Studienteilnehmer*innen, die die „Corona-Warn-App“ nicht nutzen, hegen vor allem Bedenken in Bezug auf den Datenschutz, die Effektivität der App zur Eindämmung der Pandemie oder sie verfügen über unzureichende technische Möglichkeiten.

Die „Corona-Warn-App“ wurde von der Bundesregierung und dem Robert-Koch-Institut entwickelt, um die Ausbreitung von SARS-CoV-2 einzudämmen. Sie erfasst Begegnungen per Bluetooth-Funktion und warnt die Nutzer*innen, wenn sie mit einer Person in Kontakt waren, die kürzlich positiv auf das Corona-Virus getestet wurde – sofern diese den positiven Befunde selbst in die „Corona-Warn-App“ eingetragen hat. Kontaktverfolgungs-Apps wie die deutsche „Corona-Warn-App“ sind allerdings erst dann besonders effektiv, wenn sie von vielen Personen aktiviert werden.

Die Studienergebnisse deuten darauf hin, dass Warn-App-Kampagnen vor Veröffentlichung der App die Bedenken von App-Ablehner*innen zum Datenschutz und zur Effektivität nicht vollständig ausräumen konnten. Das Forschungsteam schlägt vor, dass Personengruppen, die die App durchschnittlich seltener nutzten, Zielgruppe zukünftiger Kampagnen des Gesundheitswesens in der Bekämpfung der COVID-19 Pandemie sein könnten. Jedoch ist weitere Forschung zur Infektionsprävention (inkl. Nutzung von Kontaktverfolgungs-Apps) notwendig, die repräsentative Stichproben nutzt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Kai Tobias Horstmann
Humboldt-Universität zu Berlin
Psychological Assessment of Person-Situation-Dynamics
mail: kai.horstmann@hu-berlin.de

Originalpublikation:
“Short report: Who does or does not use the “Corona-Warn-App” and why?” European Journal of Public Health, ckaa239, https://doi.org/10.1093/eurpub/ckaa239

Anhang
PM HU: Wer nutzt die Corona-Warn-App – und wer nicht?

(nach oben)


Neuer Forschungsverbund als „Turbo für Atmosphären- und Klimaforschung sowie Meteorologie“

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Mit Jänner 2021 gründen die Universität Wien und die Zentralanstalt für Meteorologie und Geodynamik (ZAMG) gemeinsam das Wiener Netzwerk für Atmosphärenforschung, um die Forschung zu bündeln und zu intensivieren. „Auch angesichts der Klimakrise drängt die Zeit, um unser Prozessverständnis des Klimasystems zu verbessern“, erklärt Andreas Stohl vom Institut für Meteorologie und Geophysik, der das neue Netzwerk gemeinsam mit Gerhard Wotawa von der ZAMG leitet. Ziel sei es, Wien zu einem führenden Forschungsstandort im Bereich der Atmosphären- und Klimaforschung zu machen.

Treibhausgase, Aerosole und neue meteorologische Modelle: Die Klima- und Atmosphärenforschung hat sich in den letzten Jahren rasant entwickelt. Doch dabei tun sich auch immer neue Fragen auf – und gerade was die Klimaerwärmung betrifft, drängt die Zeit, diese zu beantworten. Vor diesem Hintergrund wurde nun von der Universität Wien und der Zentralanstalt für Meteorologie und Geodynamik ein neuer Forschungsverbund gegründet: Im Vienna Network for Atmospheric Research (VINAR) wird künftig die Meteorologie, Atmosphären- und Klimaforschung in Wien thematisch fokussiert und verstärkt.

„Im Jahr 1851 wurde die ZAMG als einer der ältesten staatlichen Wetterdienste der Welt gegründet, deren erster Leiter Karl Kreil auch gleichzeitig zum Professor für Physik an der Universität Wien ernannt wurde. Daraus entwickelte sich eine enge Zusammenarbeit der beiden Institutionen, die Wien gegen Ende des 19. Jahrhunderts und Anfang des 20. Jahrhunderts zu einem weltweit führenden Standort für Meteorologie machte. Mit VINAR wollen wir an diese erfolgreiche Zeit anschließen und Wien wieder zu einem Leuchtturm der Atmosphärenforschung machen“, erklärt Andreas Stohl vom Institut für Meteorologie und Geophysik der Universität Wien. Der Meteorologe, der heuer auch den Gottfried und Vera Weiss-Preis erhielt, leitet künftig gemeinsam mit Gerhard Wotawa, dem Bereichsleiter für Daten, Methoden und Modelle an der ZAMG, das Netzwerk.

In den nächsten Jahren soll über VINAR die Grundlagenforschung zur Verbesserung der gemeinsam verwendeten Wettervorhersage-, Klima- und Ausbreitungsmodelle vorangetrieben werden: „Wir wollen eine Art Turbo für Atmosphären- und Klimaforschung sowie Meteorologie sein“, so Stohl.

Forschungsinfrastruktur und Wissensgenerierung
„Angesichts der bestehenden Herausforderungen ist es wichtiger denn je, dass Produkte und Dienstleistungen, die der Sicherheit der Bürgerinnen und Bürger und der Infrastruktur dienen, am neuesten Stand der Forschung und maßgeschneidert auf den Bedarf von Gemeinden, Ländern und Bund und der Wirtschaft entwickelt werden. Die durch VINAR vorangetriebene gemeinsame Nutzung von Forschungs-Infrastrukturen und die gemeinsame Wissensgenerierung nutzt auch der gesamten Atmosphären- und Klimaforschung in Österreich“, sagt Gerhard Wotawa, an der ZAMG als Bereichsleiter zuständig für Forschung und Entwicklung.

Zusammenarbeiten will man beispielsweise bei der Entwicklung von Methoden für die Bilanzierung von Treibhausgasemissionen aufgrund atmosphärischer Messungen sowie beim Aufbau einer in-situ Messinfrastruktur für Aerosol- und Wolkeneigenschaften am Sonnblickobservatorium der ZAMG und an der städtischen Hintergrundstation der Universität Wien. Vonseiten der Universität Wien ist neben dem Institut für Meteorologie auch Bernadett Weinzierl, Leiterin der Forschungsgruppe Aerosolphysik und Umweltphysik an der Fakultät für Physik, Teil des VINAR-Teams.

VINAR-Leiter erhielt Gottfried und Vera Weiss-Preis
Auf der Weiterentwicklung von atmosphärischen Ausbreitungsmodellen liegt auch ein Schwerpunkt des VINAR-Leiters Andreas Stohl, der für ein Projekt in diesem Bereich im Jahr 2020 den mit 200.000 Euro dotierten Gottfried und Vera Weiss-Preis des Wissenschaftsfonds FWF für eine Lagrange‘sche Re-Analyse zuerkannt bekommen hat: Während herkömmliche Modelle meteorologische Parameter wie Luftfeuchtigkeit oder Temperatur an fixen Punkten erfassen, folgen die so genannten Lagrange‘schen Modelle den einzelnen Partikeln und erfassen, wie sich die meteorologischen Parameter entlang deren Weges ändern. Für Fragen wie den Transport von Schadstoffen und Treibhausgasen oder den Ursprung eines Starkregenereignisses habe diese Analysemethode klare Vorteile, so Stohl.

Auch im Rahmen des neuen Forschungsverbundes sind diese Modelle ein wichtiger Baustein, immerhin wird an der ZAMG das von Andreas Stohl entwickelte Modell auch zur Krisenfallvorsorge etwa nach Kernkraftwerksunfällen oder Vulkanausbrüchen verwendet. Darüber hinaus werden in VINAR aber auch Wettervorhersage- und Klimamodelle verbessert und Data Science-Methoden zur Analyse großer Datensätze (sog. „Big Data“) weiterentwickelt.

Kooperieren werden die Universität Wien und die ZAMG auch in der Lehre – geplant ist beispielsweise die Einrichtung eines übergreifenden Seminarprogramms sowie die gemeinsame Betreuung von Doktorand*innen, unter anderem auch über die Vienna International School of Earth and Space Sciences (VISESS) an der Fakultät für Geowissenschaften, Geographie und Astronomie der Universität Wien.

Zusammenarbeit gebündelt und verstärkt
„Ich freue mich sehr, dass über den neuen Forschungsverbund die Klima- und Atmosphärenforschung generell und auch an unserer Fakultät noch weiter gestärkt wird“, so Petra Heinz, Dekanin der Fakultät für Geowissenschaften, Geographie und Astronomie: „Die Zusammenarbeit mit der ZAMG, die ja auch schon bisher ausgezeichnet war, wird so gebündelt und auch organisatorisch auf neue Beine gestellt.“

Das Instrument der Forschungsverbünde hat sich an der Universität Wien bewährt, um – insbesondere in gesellschaftlich relevanten Themenbereichen – Wissenschafter*innen zusammenzuführen, um die Forschung in diesem Bereich zu intensivieren. Mit dem Vienna Network for Atmospheric Research (VINAR) gibt es derzeit an der Universität Wien elf Forschungsverbünde – von der Umweltforschung bis hin zur Geschlechter- oder Biographieforschung. Forschungsverbünde an der Universität Wien

Link zur Webseite des Forschungsverbundes: https://vinar.univie.ac.at/

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Mag. Dr. Andreas Stohl
Co-Leiter Vienna Network for Atmospheric Research (VINAR)
Universität Wien
1090 Wien, Althanstraße 14
T +43-1-4277-53730
T +49 8141 5291926
andreas.stohl@univie.ac.at

Dr. Gerhard Wotawa
Bereichsleiter Daten, Methoden, Modelle
Co-Leiter Vienna Network for Atmospheric Research (VINAR)
Zentralanstalt für Meteorologie und Geodynamik (ZAMG)
T +43-1-36026-2002
gerhard.wotawa@zamg.ac.at

Weitere Informationen:
https://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/…

(nach oben)


Generation 80+: Impfbereitschaft gut, Erreichbarkeit der Impfzentren schlecht

Nina Meckel, Pressesprecherin der DGG Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Mehr als 71 Prozent der Hochbetagten möchte sich gerne gegen COVID-19 impfen lassen. Jedoch fühlt sich nur ein Viertel der Impfwilligen in der Lage, die Impfzentren auch eigenständig aufzusuchen und sich dort impfen zu lassen. Das ist das Ergebnis einer ad hoc Befragung der Deutschen Gesellschaft für Geriatrie (DGG) unter geriatrischen Klinikpatienten. „Die Logistik ist für die Hauptzielgruppe der hochaltrigen Patienten der ersten Impfkohorte nicht durchdacht!“, prangert deshalb DGG-Präsident Prof. Hans Jürgen Heppner, Chefarzt der Klinik für Geriatrie am HELIOS Klinikum Schwelm und Lehrstuhlinhaber für Geriatrie an der Universität Witten/Herdecke, an.

„Die Anmeldung für die Impfung, die Erreichbarkeit der Impfzentren sowie die erforderliche Mobilität, stellt viele in der derzeit wichtigsten Zielgruppe der Impfstrategie vor eine nahezu unlösbare Aufgabe.“

Es gelte jetzt zügig effektive Möglichkeiten zu schaffen, die alten Menschen bei der Terminvereinbarung und dem Transport in die Impfzentren zu unterstützen, fordert deshalb die Koordinatorin der Umfrage, Frau Prof. Petra Benzinger von der Universität Heidelberg. „Die hohe Impfmotivation in der Höchstrisikogruppe ist wirklich sehr ermutigend!“, so Benzinger. „Viele Studienteilnehmer, die sich während der Befragung ja in klinischer Behandlung befanden, baten um einen umgehenden Impftermin und einige erklärten sogar den Wunsch, länger in der Klinik bleiben zu wollen, wenn dies zu einer Impfung führen würde.“

Arzt und Patient zusammenbringen!
Es gilt jetzt Patient und Arzt zusammen zu bringen! „Denn während die Bewohner von Pflegeheimen bereits geimpft werden, überlegt der Großteil der Zielgruppe 80+ zuhause, wie sie die Impfung wohl bekommen kann“, erklärt Prof. Clemens Becker, Chefarzt der Geriatrie am Robert-Bosch-Krankenhaus in Stuttgart und Experte für Mobilität im Alter. „Viele der Impfzentren scheinen noch nicht einmal barrierefrei gestaltet zu sein. Das ist ein echtes Problem!“

Hausärzte impfen derzeit noch nicht gegen SARS-CoV-2. Transport und Mischung des Impfstoffes ist zu kompliziert, als das gegenwärtig kleinere Mengen in die Hausarztpraxen abgegeben werden können. Daher wird es vor allem auf familiäre und nachbarschaftliche Hilfe ankommen. „Auch die Unterstützung durch Wohlfahrtsverbände, Kirchen und ehrenamtliche Begleiter ist denkbar und wäre wichtig für das Gelingen der Impfstrategie in Deutschland“, so Petra Benzinger. Ferner sollten auf kommunaler Ebene ergänzende Impfangebote für die Gruppe der noch selbstständig lebenden, hochbetagten Menschen entwickelt werden. Die Deutsche Gesellschaft für Geriatrie bietet den Verantwortlichen auf Bundes- und Länderebene gerne ihre Unterstützung bei der Entwicklung entsprechender Konzepte an.

Mobile Impfteams von Tür zu Tür?
Derzeit fahren hunderte mobiler Impfteams in Pflegeheime, um dort die Bewohner sowie Mitarbeiter zu impfen. „Warum sollten diese Teams nicht auch in den nächsten Wochen am Morgen zentral ihre Spritzen aufziehen und dann Hausbesuche durchführen?“, überlegt DGG-Präsident Heppner laut. Eine Aufklärung über Risiken und Nebenwirkungen könne ja bereits im Vorfeld schriftlich oder auch mit Hilfe eines kurzen Films erfolgen. „Wer dann noch Fragen hat, kann diese dann ja direkt stellen – aber nicht jeder Impfwillige muss noch einmal einzeln lang und breit aufgeklärt werden!“, ist Heppner überzeugt. Selbstverständlich seien die Geriater bereit, dass Mammutprojekt „Impfungen gegen Corona“ aktiv zu unterstützen, um möglichst rasch die vulnerabelsten Mitglieder unserer Gesellschaft zu impfen. Dafür müssen jetzt aber zügig Fakten geschaffen werden!

Konkrete Zahlen der Befragung:
• Gesamtzahl der Befragten: 118 Personen
• Männlich: 28%
• Weiblich: 72%
• schnellstmögliche Impfung (% aller Teilnehmenden): 53,4
• Impfwillig = schnellstmöglich plus später (% aller Teilnehmenden): 71,2
• Unentschiedene (% aller Teilnehmenden): 20,3
• Impfskeptiker = wünschen keine Impfung (% aller Teilnehmenden): 8,5
• Organisation des Transportes selbst möglich (% aller TN): 26,3
• Organisation des Transportes nicht selbst möglich (% aller TN): 50,0
• Weiß nicht, ob Impfzentrum aufgesucht werden kann (% TN): 14,4
• lebt in Pflegeheim / Betreuten Wohnen (% der TN): 5,1
• Fehlende Angabe (% aller TN): 4,2
• Die Befragung fand vom 18.12.2020 bis zum 22.12.2020 statt.

Teilnehmende Kliniken und Personen:
1. Geriatrisches Zentrum der Universität Heidelberg und AGAPLESION BETHANIEN KRANKENHAUS, Heidelberg; Frau Prof. Petra Benzinger und Prof. Jürgen M. Bauer
2. Robert-Bosch Krankenhaus, Stuttgart; Prof. Clemens Becker
3. AGAPLESION BETHESDA KLINIK, Ulm; Prof. Michael Denkinger
4. Marienhospital Herne, Ruhr-Universität Bochum, Prof. Rainer Wirth
5. Charité Berlin, Herr Dr. Adrian Rosada und Frau Prof. Ursula Müller-Werdan

Originalpublikation:
https://www.dggeriatrie.de/presse/pressemeldungen/1755-pm-generation-80-impfbere…

Anhang
Generation 80+: Impfbereitschaft gut, Erreichbarkeit der Impfzentren schlecht

(nach oben)


Immunüberreaktion erklärt schweren COVID-19 Verlauf bei Patient*innen mit Bluthochdruck – Können ACE-Hemmer helfen?

Dr. Stefanie Seltmann Presse- und Öffentlichkeitsarbeit
Berlin Institute of Health (BIH)
COVID-19-Patient*innen, die an Bluthochdruck leiden, erkranken häufiger schwer und haben dann sogar ein erhöhtes Sterberisiko. Wissenschaftler*innen vom Berlin Institute of Health (BIH) und der Charité – Universitätsmedizin Berlin fanden nun in Zusammenarbeit mit ihren Partnern in Heidelberg und Leipzig heraus, dass die Immunzellen von Patient*innen mit Bluthochdruck bereits voraktiviert sind, was unter COVID-19 massiv verstärkt wird. Dies erklärt sehr wahrscheinlich die Überreaktion des Immunsystems und den schweren Krankheitsverlauf. Bestimmte Medikamente können einen günstigen Einfluss ausüben. Sie senken nicht nur den Blutdruck, sie wirken auch der Immunhyperaktivierung entgegen.

Über eine Milliarde Menschen weltweit leiden unter Bluthochdruck. Von den mehr als 75 Millionen Menschen, die sich weltweit mit SARS-CoV-2 angesteckt haben, litten mehr als 16 Millionen gleichzeitig an Bluthochdruck. Diese Patienten erkrankten häufiger besonders schwer und hatten dann sogar ein erhöhtes Sterberisiko. Es war unklar, inwieweit bluthochdrucksenkende Medikamente unter einer SARS-CoV-2 Infektion weiter verabreicht werden können und ob sie den Patient*innen eher nutzen oder schaden. Denn Bluthochdruckmedikamente greifen in genau denselben Regelmechanismus ein, über den das neuartige Coronavirus SARS-CoV-2 in die Wirtszelle gelangt und COVID-19 auslöst.

Professor Ulf Landmesser ist Ärztlicher Leiter des Charité Centrums für Herz-, Kreislauf- und Gefäßmedizin, Direktor der Medizinischen Klinik für Kardiologie und BIH Professor für Kardiologie am Campus Benjamin Franklin der Charité – Universitätsmedizin Berlin. Er hatte schon früh festgestellt, dass Patient*innen mit Bluthochdruck oder Herzkrankheiten oft besonders schwer an COVID-19 erkranken. „Das Virus benutzt als Eintrittspforte in die Zellen den Rezeptor ACE2, dessen Bildung durch die Gabe von blutdrucksenkenden Medikamenten beeinflusst werden könnte. Wir hatten deshalb zunächst befürchtet, dass Patient*innen, die ACE-Hemmer oder Angiotensin-Rezeptorblocker erhalten, womöglich mehr ACE2-Rezeptoren auf ihren Zelloberflächen aufweisen und sich dadurch leichter infizieren könnten.“

Bestimmte Medikamente gegen Bluthochdruck könnten bei COVID-19 helfen
Um diesen Verdacht zu klären, analysierten die Wissenschaftler*innen einzelne Zellen aus den Atemwegen von COVID-19-Patient*innen, die Medikamente gegen ihren Bluthochdruck einnahmen. Und konnten anschließend Entwarnung geben, erklärt Dr. Sören Lukassen, Wissenschaftler bei Professor Christian Conrad im BIH-Digital Health Center. „Wir haben festgestellt, dass die Medikamente offensichtlich nicht bewirken, dass mehr Rezeptoren auf den Zellen erscheinen. Wir gehen somit nicht davon aus, dass sie dem Virus den Eintritt in die Zellen auf diese Weise erleichtern und so den schweren Verlauf der COVID-19-Erkrankung verursachen.“ Ganz im Gegenteil war die Behandlung von Herzkreislaufpatient*innen mit ACE-Hemmern mit einem geringeren Risiko für einen schweren Verlauf von COVID-19 verbunden. Herzkreislaufpatient*innen, die ACE-Hemmer erhielten, hatten sogar fast das gleiche Risiko wie die COVID-19-Patient*innen ohne Herzkreislaufprobleme.

Schwerer COVID-19 Verlauf durch Voraktivierung des Immunsystems
Bluthochdruckpatient*innen zeigen in der Regel erhöhte Entzündungswerte im Blut, was im Fall einer SARS-CoV-2-Infektion fatale Folgen haben kann. „Erhöhte Entzündungswerte sind unabhängig vom Herzkreislaufstatus immer ein Warnsignal, dass die COVID-19-Erkrankung schwer verlaufen wird“, erklärt Klinikdirektor Landmesser. Die Wissenschaftler*innen untersuchten daher per Einzelzellsequenzierung die Immunantwort von Bluthochdruckpatienten unter COVID-19.

„Wir haben insgesamt 114,761 Zellen aus dem Nasen-Rachenraum von 32 COVID-19-Patientinnen und -Patienten sowie von 16 nicht-infizierten Kontrollpersonen analysiert, beide Gruppe schlossen sowohl Herzkreislaufpatient*innen als auch Menschen ohne Herzkreislaufprobleme ein“, berichtet Dr. Saskia Trump, Arbeitsgruppenleiterin im Labor von Irina Lehmann, BIH Professorin für Umweltepigenetik und Lungenforschung. „Dabei stellten wir fest, dass die Immunzellen der Herzkreislaufpatientinnen und -patienten schon vor der Infektion mit dem neuartigen Coronavirus eine auffällige Voraktivierung zeigten. Nach Kontakt mit dem Virus entwickelten diese Patienten häufiger eine überschießende Immunreaktion, die mit einem schweren COVID-19 Krankheitsverlauf verbunden war.“ „Unsere Ergebnisse zeigen aber auch, dass eine Behandlung mit ACE-Hemmern, nicht aber mit Angiotensin-Rezeptorblockern, diese überschießende Immunantwort nach Infektion mit dem Corona-Virus verhindern könnte. ACE-Hemmer könnten damit das Risiko von Patienten mit Bluthochdruck für einen schweren Krankheitsverlauf verringern“, ergänzt Irina Lehmann.

Abbau des Virus verzögert
Weiterhin stellten die Wissenschaftler*innen fest, dass die blutdrucksenkenden Medikamente auch einen Einfluss darauf haben könnte, wie schnell das Immunsystem die Viruslast, also die Konzentration des Virus im Körper, abbauen kann. „Hier sahen wir einen deutlichen Unterschied zwischen den verschiedenen Behandlungsformen gegen Bluthochdruck“, berichtet Roland Eils, Direktor des BIH Zentrums für Digitale Gesundheit. „Bei den mit Angiotensin-II-Rezeptorblockern behandelten Patienten war der Abbau der Viruslast deutlich verzögert, was ebenfalls zu einem schwereren Verlauf der COVID-19-Erkrankung beitragen könnte. Diese Verzögerung sahen wir nicht bei den Patientinnen und Patienten, die ACE-Hemmer zur Behandlung ihres Bluthochdrucks erhalten hatten.“

Interdisziplinäre Zusammenarbeit beschleunigt die Forschung
Mehr als 40 Wissenschaftler*innen haben unter Hochdruck an dieser umfangreichen Studie mitgearbeitet. „Um in der laufenden Pandemie schnell Antworten auf dringende Fragen geben zu können, bedarf es einer interdisziplinären Zusammenarbeit vieler engagierter Akteure “, erklärt Roland Eils. „COVID-19 ist eine so komplexe Erkrankung, dass wir Expert*innen aus der Virologie, der Immunologie, der Kardiologie, der Lungenheilkunde, der Intensivmedizin und der Informatik für diese Studie zusammengebracht haben. Unser Ziel war es, möglichst schnell wissenschaftlich-fundiert die Frage zu beantworten, ob eine Therapie mit ACE-Hemmern oder Angiotensin-Rezeptor Blockern während der COVID-19 Pandemie nützlich oder gar schädlich sein könnte.“

Keine Hinweise auf erhöhtes Infektionsrisiko
Im Ergebnis können die Teams von BIH, Charité und den kooperierenden Einrichtungen in Leipzig und in Heidelberg nun die Patient*innen und ihre behandelnden Ärzt*innen beruhigen: „Unsere Studie gibt keine Hinweise darauf, dass die Behandlung mit bluthochdrucksenkenden Medikamenten das Infektionsrisiko für das neuartige Coronavirus erhöht. Eine Behandlung des Bluthochdrucks mit ACE-Hemmern könnte für die Patienten, die an COVID-19 erkranken, allerdings günstiger sein als die Therapie mit Angiotensin-II-Rezeptor Blockern, was in randomisierten Studien aktuell weiter untersucht wird“, fasst Ulf Landmesser die Ergebnisse zusammen.

Wissenschaftliche Ansprechpartner:
Professor Ulf Landmesser
Professor Irina Lehmann
Professor Roland Eils
Professor Christian Conrad

Originalpublikation:
Saskia Trump#, Soeren Lukassen#, Markus S. Anker#, Robert Lorenz Chua#, Johannes Liebig#, Loreen Thürmann#, …….Christine Goffinet, Florian Kurth, Martin Witzenrath, Maria Theresa V.lker, Sarah Dorothea Müller, Uwe Gerd Liebert, Naveed Ishaque, Lars Kaderali, Leif- Erik Sander, Sven Laudi, Christian Drosten, Roland Eils*, Christian Conrad*, Ulf Landmesser*, Irina Lehmann*, Delayed viral clearance and exacerbated airway 1 hyperinflammation in hypertensive COVID-19 patients, Nat. Biotechnology DOI: 10.1038/s41587-020-00796-1

(nach oben)


Speicherung erneuerbarer Energien und CO2-Verwertung

Ralf-Peter Witzmann Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg
Die Energiegewinnung aus erneuerbaren Ressourcen liefert häufig keine kontinuierliche Versorgung, sondern sie verläuft in Peaks und Tälern. Speichermöglichkeiten würden diese Kurve abflachen. An einer solchen arbeitet das Fachgebiet Abfallwirtschaft der BTU gemeinsam mit der Hochschule Flensburg im Projekt WeMetBio.

Für das Gelingen der Energiewende stellt die Systemintegration und Kopplung der verschiedenen erneuerbaren Energiequellen inklusive deren Speicherung und des Transportes eine entscheidende Herausforderung dar. Gleichzeitig stehen Windkraft-, Solar- und Biogasanlagenbetreiber vor der Herausforderung, wirtschaftliche Post-EEG Konzepte für Bestandsanlagen zu entwickeln.

Überschüssige Energie erzeugt Wasserstoff
Vor diesem Hintergrund ist im Fachgebiet Abfallwirtschaft die Nutzbarmachung bislang nicht nutzbarer erneuerbarer Energien (Stichwort: Abschaltung von Windkraftanlagen bei Überangebot) wesentlicher Forschungsgegenstand. Der regenerativ erzeugte Strom soll zur Gewinnung von Wasserstoff eingesetzt werden. Dieser wird unter Reaktion mit CO2 zur Erzeugung von Methan eingesetzt. Mit Methan als gasförmigem Energieträger, Kraftstoff oder chemischem Ausgangsstoff ist die Verknüpfung zu anderen Sektoren und Wirtschaftskreisläufen sehr gut möglich. Dadurch wird die indirekte Nutzung von Strom aus erneuerbaren Energiequellen vorangetrieben und dessen Speicherung bzw. Transportierbarkeit verbessert.

Patentierte Technologie
Mit diesem Ziel kommt ein sogenanntes Rieselbettverfahren zur biologischen Methanisierung zum Einsatz, das im Fachgebiet Abfallwirtschaft entwickelt wurde und bereits patentrechtlich geschützt ist. Wesentliche Vorteile liegen in der hohen Produktgasqualität bei geringem Eigenenergieverbrauch und in der hohen Prozessstabilität, Steuerbarkeit und Flexibilität gegenüber den gegebenen fluktuierenden Randbedingungen. Zugleich ist mit der technologischen Lösung direkt die Verminderung von Treibhausgasemissionen verbunden. Daher ist die Nutzbarmachung von CO2 von hervorzuhebender Bedeutung, da es direkt als C-Quelle zur Gewinnung des Energieträgers Methan dient. Es kann von einer realen CO2-Kreislaufwirtschaft gesprochen werden.

Infolge der technologischen Entwicklungen und Optimierung des Rieselbettverfahrens der vergangenen Jahre am Fachgebiet wird die Integration in den Energieverbund von Windkraftanlagen, emissionsintensiven Industrieprozessen, Biogas-/Biomethananlagen bzw. mechanisch-biologischer Abfallbehandlungsanlagen zur Methaneinspeisung und Weiterleitung im Erdgasnetz angestrebt.

Starke Kooperationen
In Zusammenarbeit mit der GICON GmbH erfolgt momentan die Auslegung und Maßstabsübertragung auf anwendungsnahe Konzepte für verschiedene Standorte.
Konkret erfolgt die Bearbeitung einer Durchführbarkeitsstudie für die „Bedarfsgerechte Speicherung fluktuierender erneuerbarer (Wind-) Energie durch Integration der Biologischen Methanisierung im Rieselbettverfahren im Energieverbund in Schleswig-Holstein“ (WeMetBio-Projekt) zur Ermittlung eines effizienten und wirtschaftlichen Konzeptes unter Einbindung ausgewählter Projektstandorte.
Diese Studie stellt die Vorstufe und Vorbereitung einer Pilotanlage zur Erprobung dieser bioenergiebasierten Lösung als Baustein der ländlichen Energieversorgung dar. Projektpartner ist die Hochschule Flensburg, die neben ihrer lokalen Anbindung im „Windland Schleswig-Holstein“ die notwendige fachliche Kompetenz im Bereich der nachhaltigen Bioenergie- und Systemintegration einbringt.

Pressekontakt:
Kathrin Schlüßler
Stabsstelle Kommunikation und Marketing
T +49 (0) 355 69-2115
kathrin.schluessler@b-tu.de

Wissenschaftliche Ansprechpartner:
PD Dr.-Ing. habil. Marko Burkhardt
Abfallwirtschaft
T +49 (0) 355 69-4328
burkhardt@b-tu.de

(nach oben)


IAB-Arbeitsmarktbarometer: Arbeitsmarktentwicklung bleibt stabil

Marie-Christine Nedoma, Jana Bart und Pia Kastl Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das IAB-Arbeitsmarktbarometer ist im Dezember um 0,5 Punkte auf 101,0 Punkte gestiegen. Damit signalisiert der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) eine leichte Aufwärtsentwicklung am Arbeitsmarkt über die ersten Monate des Jahres 2021.

„Die Arbeitsagenturen erwarten im zweiten Lockdown keinen erneuten Einbruch des Arbeitsmarkts“, sagt Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“. Viele Betriebe würden ihre Beschäftigten halten, unterstützt durch Kurzarbeit und Stützungsmaßnahmen. „Inzwischen wissen wir, woran wir mit einem Lockdown sind. Und heute können wir damit rechnen, mit den Impfungen die Pandemie in den Griff zu bekommen“, erklärt Weber die robuste Arbeitsmarktentwicklung. Zu beachten sei allerdings, dass der Befragungszeitraum in der ersten Dezemberhälfte endete, bevor die Verschärfung des Lockdowns beschlossen wurde.
Die Komponente des IAB-Arbeitsmarktbarometers zur Vorhersage der saisonbereinigten Arbeitslosigkeit konnte im Dezember um 0,7 auf 102,4 Punkte zulegen. Der Trend fallender Arbeitslosigkeit dürfte sich fortsetzen. Die Beschäftigungskomponente des IAB Arbeitsmarktbarometers stieg im Dezember im Vergleich zum Vormonat um 0,3 auf 99,5 Punkte. Damit liegt sie nur noch leicht unter der neutralen Marke von 100 Punkten. Vor der Krise waren allerdings Werte weit über 100 erreicht worden. „Die Corona-Einschränkungen und die tiefgreifende wirtschaftliche Transformation in Bereichen wie Automobil oder Handel stellen den Arbeitsmarkt 2021 weiter vor Herausforderungen“, so Weber.
Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert. Während Komponente A des Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert des IAB-Arbeitsmarktbarometers. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

Weitere Informationen:
http://www.iab.de/presse/abzeitreihe
http://www.iab.de/presse/abgrafik

(nach oben)