Sonntag, Mai 19, 2024
StartAblageTägliche Meldungen 2023

Tägliche Meldungen 2023

Meldungen 2011 Meldungen 2012 Meldungen 2013 Meldungen 2014
Meldungen 2015 Meldungen 2016 Meldungen 2017 Meldungen 2018
Meldungen 2019 Meldungen 2020 Meldungen 2021 Meldungen 2022

Oktober 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
   
Gesundheit
02.10.2023 Mit Mikro-Ultraschall Prostatakrebs präzise erkennen
Gesellschaft
01.10.2023
Bis zu 40 Prozent produktiver: Beim Güterumschlag auf die Schiene zeigen autonome Lkw großes Potenzial
September 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
28.09.2023 Wichtiger zusätzlicher Treiber des Insektensterbens identifiziert
27.09.2023 DIW- und TU-Forschende: Das LNG-Terminal vor Rügen ist überflüssig und klimaschädlich
25.09.2023 Klimawandel und seine Bedeutung für unsere Flüsse: Infotag am 30. September in Eußerthal
24.09.2023 Wie Kläranlagen zur Energiewende beitragen können
21.09.2023 Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren
19.09.2023 Wasser mit intelligentem Rost und Magneten reinigen
18.09.2023 Forschungsprojekt für nachhaltigen Wasserverbrauch sucht Testhaushalte
16.09.2023 Dieselabgase schädigen Insekten: Bayreuther Tierökolog*innen erforschen erstmals die Auswirkungen auf Hummeln
13.09.2023 Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren
11.09.2023 Wie Bäume die Wolkenbildung beeinflussen
10.09.2023 Weltrekord: Reichweitenstärkstes Elektroauto der Welt kommt aus München
07.09.2023 Energiesparend: Pumpen sollten Herzschlag folgen
06.09.2023 Unterschätzte Gefahr und Ressource am Meeresgrund
05.09.2023 Invasive Arten bedrohen die globale Vielfalt und Lebensgrundlage
02.09.2023 Wie Windturbinen auf Turbulenzen reagieren
Gesundheit
30.09.2023 Mainzer Wissenschaftler:innen entdecken bisher unbekannte Ursache für die Entstehung der Lungenfibrose
29.09.2023 Blutprodukte retten Leben
26.09.2023 Neuer Ansatz für Test auf Long Covid: Blutgefäße im Auge verändert
23.09.2023 Long-COVID: Besserung ist erreichbar, aber nicht bei allen Betroffenen
15.09.2023 Pflege vor dem Kollaps? – 3. Fachtagung Gesundheitsförderung und Prävention in der Pflege
12.09.2023 Start für europaweites Projekt zur Verbesserung der Patientenversorgung in Mitteleuropa
08.09.2023 Neues Alzheimer-Medikament Leqembi: Die wichtigsten Fragen und Antworten
03.09.2023 Seltene Mutation ist mögliches Angriffsziel für Krebsmedikament
01.09.2023 Zukünftig künstliche Hüften für ein ganzes Leben?
Gesellschaft
20.09.2023 Glücklich durch den Job? Wie sich das Wohlbefinden beim Einstieg ins und Austritt aus dem Berufsleben verändert
17.09.2023 Babyboomer arbeiten im Alter länger – aber noch Potenzial ab Alter 63
14.09.2023 Künstliche Intelligenz an menschliche Bedürfnisse anpassen
04.09.2023 Nachhaltig leben: Je geringer der Aufwand, desto mehr Menschen tun es
August 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.08.2023 Nord- und Ostsee im Spannungsfeld von Meeresnutzung und Meeresschutz
29.08.2023 Meereisrückgang lässt Zooplankton künftig länger in der Tiefe bleiben
27.08.2023 Emissionsgutschriften durch vermiedene Entwaldung halten oft nicht, was sie versprechen
24.08.2023 Meere geben Mikroplastik an die Atmosphäre ab
21.08.2023 Neue Studie der Goethe-Universität zeigt: Auch gereinigtes Abwasser wirkt sich auf Flüsse aus
19.08.2023 Nachhaltiger Umgang mit Regen- und Siedlungsabwasser: Software plant und optimiert Entwässerungssysteme automatisch
15.08.2023 Tiefengeothermie: NRW hat günstige Voraussetzungen für den Ausbau der Geothermie
12.08.2023 10 Millionen Euro für die Erzeugung erneuerbarer, flüssiger Energieträger aus Kohlenstoffdioxidemissionen
11.08.2023 Nach anfänglicher Erholung: Artenvielfalt in europäischen Flüssen stagniert
09.08.2023 Wasserreinigung mit Biotechnologie: Forschende finden neuen Ansatz durch Kombination von Pilzen und Bakterien
08.08.2023 Niedrige Wasserstände lösen Sondermessprogramm an der Elbe aus
07.08.2023 Forschungsvorhaben heavyRAIN verbessert Regenmessung für Starkregenvorhersage in Lübeck
06.08.2023 Unsichtbaren Partikeln auf der Spur
05.08.2023 Umweltfreundlichere Bekämpfung von Ölkatastrophen mit Biotensiden
04.08.2023 PFAS-kontaminiertes Wasser wird wieder sauber – erfolgversprechendes und umweltschonendes Verfahren entwickelt
03.08.2023 Was ist das da im Badesee?
Gesundheit
28.08.2023 Schutzschild gegen Coronaviren
25.08.2023 Hitzewellen werden häufiger und tödlicher
23.08.2023 Niedrigere Entzündungsmarker unter Vitamin D-Supplementierung
18.08.2023 Neuer Infektionsmechanismus beim Coronavirus entdeckt
16.08.2023 Unit Dose: Mehr Sicherheit in der Arzneimitteltherapie
02.08.2023 Neue Hypertonie-Leitlinien: Was bedeuten sie für die Bluthochdruck-Behandlung?
Gesellschaft
30.08.2023 Frauen im Fokus
26.08.2023 Viele Kinder meiden die Schultoiletten
14.08.2023 Wie durcheinander gewürfelte Daten unsere Sicherheit verbessern können
13.08.2023 Kartografie der Mobilfunk-Sicherheit
10.08.2023 Wann digitaler Stress auch positiv sein kann
01.08.2023 Was der Klimawandel mit Gehirn und Seele macht
Juli 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.07.2023 Muster der Biodiversität entschlüsselt
20.07.2023 Resilienz der Stromversorgung: Erfolgreiche Feldtests zum Hochfahren des Netzes mit Windparks und Flächenkraftwerken
19.07.2023 PFAS-kontaminiertes Wasser wird wieder sauber – erfolgversprechendes und umweltschonendes Verfahren entwickelt
18.07.2023 Genehmigung der künstlichen Grundwasseranreicherung in Berlin könnte Priorisierung der Wassernutzung minimieren
17.07.2023 Gift atmen: Mikrobielles Leben dank Stickoxid
16.07.2023 Mikrobielle Räuber bewirken saisonale Schwankungen bei der Abwasseraufbereitung
14.07.2023 Grüner Wasserstoff – Orientierung im aktuellen Dschungel
13.07.2023 Plastikmüll: Belastung in Seen teilweise höher als im Ozean
11.07.2023 Fassadenbegrünung“Living Wall“ verbindet Nachverdichtung mit Hochwasserschutz
10.07.2023 Unter- und Überwasserkartierung von Flüssen und Seen
09.07.2023 Grünalge baut Schadstoffe ab – Schon früh im Studium bei internationalem Wettbewerb Praxisluft schnuppern
08.07.2023 Einstein Research Unit Climate and Water under Change: Berliner Starkregen-Gefahrenkarten müssen veröffentlicht werden
07.07.2023 Kompetenzzentrum Wasser Berlin unterstützt das WaterMan-Projekt zur Förderung der Wasserwiederverwendung im Ostseeraum
06.07.2023 FLEXITILITY: Pilotanlage zur landwirtschaftlichen Wasserwiederverwendung geht an den Start
05.07.2023 Fischsterben in der Oder im August 2022: BfG legt neue Erkenntnisse und Empfehlungen vor
02.07.2023 Wie belastet ist die Elbe? Helmholtz-Forschende verfolgen den Weg von Umweltchemikalien, Mikroplastik und Nährstoffen
Gesundheit
27.07.2023 Hitze führt zu mehr Arbeitsunfällen
22.07.2023 Welt-Hepatitis-Tag: Deutsche Leberstiftung unterstützt die Elimination der Virushepatitis
21.07.2023 Auffrischimpfung gegen COVID-19:Anpassung der Auffrischimpfstoffe gegen Omikron-Varianten bedeutsam für COVID-19-Schutz
03.07.2023 Neue europäische Blutdruckleitlinie setzt 140/90 mmHg als „rote Linie“
Gesellschaft
28.07.2023 Tarifvertragliche Ausbildungsvergütungen: Zwischen 620 und 1.580 Euro im Monat
24.07.2023 „Ich bin dann mal weg“ – Warum Urlaub ohne Arbeit so wichtig ist
23.07.2023 Artenschutz durch Braukunst: Forschungsprojekt zeigt Eignung der seltenen Dicken Trespe für die Bierherstellung
15.07.2023 LED-Frischenachweis für Obst
12.07.2023 Künstliche Intelligenz – nachhaltig und ressourcenschonend?
04.07.2023 Gut ein Viertel der Beschäftigten hat Zweifel, die aktuelle Berufstätigkeit bis zum Rentenalter durchhalten zu können
Juni 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
27.07.2023 Netz von Messstationen dokumentiert Unterschiede bei Wetter und Klima im Stadtgebiet von Freiburg
26.06.2023 Biozide im Fassadenputz: überraschende Forschungsergebnisse
25.06.2023 Das Ostseeklima im Einfluss des Atlantiks: Neue Erkenntnisse über eine „Fernbeziehung“
24.04.2023 Bergisches Hochwasserschutzsystem 4.0: NRW fördert Hochwasserwarnsystem im Bergischen Land mit 2,8 Mio Euro
23.04.2023 DFKI entwickelt KI-Systeme für die flugzeuggestützte Erfassung von Plastikmüll in den Meeren
21.06.2023 Das Fernwärmenetz der Zukunft – Projekt TeoS
20.06.2023 Heizen und Kochen: Klimabilanz von Erdgas oft schlechter als bisher angenommen
17.06.2023 Die Energiewende in Deutschland auf einen Blick: Ariadne‐Tracker prüft Fortschritt auf dem Weg zur Klimaneutralität
16.06.2023 Lichtverschmutzung: Gemeinsame Standards sollen Klarheit schaffen
11.06.2023 Kampf ums Klima – Von der „Letzten Generation“ und Klimaklagen
07.06.2023 Lokales Artensterben womöglich oft unterschätzt
06.06.2023 Dortmunder FOM Studierende erfinden neuen Deckel für PET-Einwegflaschen
05.06.2023 Unterschätzter Wärmespeicher
03.06.2023 Mit Schrott mehr Umweltschutz
01.06.2023 Strände nutzen – nicht verschmutzen
Gesundheit
28.06.2023 Auf dem Weg zum Europäischen Gesundheitsdatenraum
18.06.2023 Charité übernimmt Vorsitz der Allianz führender europäischer Universitätskliniken EUHA
13.06.2023 Augengesundheit: Irisfarbe – ein wenig beachteter Risikofaktor
09.06.2023 Erkenntnisse und Folgen: COVID-19-Forschung aus Magdeburg vorgestellt
04.06.2023 Vor allem bei Übergewicht: Fachleute warnen vor verstecktem Muskelschwund
02.06.2023 Bessere Suche nach Ursache für Erbkrankheiten
Gesellschaft
30.06.2023 Cyberagentur gibt Startschuss für zweite Forschungsphase zur Cybersicherheit von KRITIS
29.06.2023 Mangel und Überfluss. Zur Verteilung von Knappheit im 21. Jahrhundert
22.06.2023 Wie wirkt das Deutschlandticket?
19.06.2023 Ärmere Alleinlebende von Teuerung erneut am stärksten belastet
15.06.2023 Alternative Einkommensquellen bringen Landwirtschaft und Gesellschaft näher zusammen
14.06.2023 Wie denken die Deutschen über nachhaltiges Bauen und Wohnen?
12.06.2023 Berufliche Zukunft planen
10.06.2023 Großstädteranking 2023: Menschen in Hamburg am glücklichsten – in Leipzig am unglücklichsten
08.06.2023 Sportrecht: Wo Sport und Staat sich berühren
Mai 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.05.2023 Windenergie: Neues Meerwasserlabor der BAM ermöglicht Korrosionsuntersuchungen unter Realbedingungen
27.05.2023 Neue Korallen-Datenbank für Klimadaten der vergangen 2000 Jahre
26.05.2023 Schwebstoffkonzentrationen in den Bundeswasserstraßen gehen stark zurück
23.05.2023 Rege Beteiligung aus der Bevölkerung: Studie ermittelt Schicksal von Plastikpartikeln
22.05.2023 Klimawandel: Agri-Photovoltaik-Anlagen schützen Pflanzen vor Dürre
21.05.2023 Tag der Biodiversität – Botanischer Garten Berlin ruft zu weniger Aktionismus und mehr wissensbasiertem Handeln auf
17.05.2023 Magnetbakterien: Mikroorganismen können helfen, gefährliche Schwermetalle aus dem Abwasser zu holen
15.05.2023 Es darf gedüngt werden!
12.05.2023 Mit grüner Energie und nachhaltigen Rohstoffen in die Zukunft
10.05.2023 SEMAplus: Neues Tool für Alterungsprognosen von Abwasser- und Wassernetzwerken wird in Lausanne eingesetzt
08.05.2023 Quallenähnliche Roboter könnten eines Tages die Weltmeere säubern
04.05.2023 Forschungserfolg: Wie CO2 unsere Meere beeinflusst
03.05.2023 Ausweisung von Notabflusswegen: Verbundforschungsprojekt FloReST der Hochschule Koblenz entwickelt erste Smart Tools
01.05.2023 Bessere Luft durch Gülleansäuerung
Gesundheit
28.05.2023 Spurensuche im Abwasser: Krankheitserreger schneller erkennen
25.05.2023 Wie schmeckt das Essen? Frag dein Gehirn!
19.05.2023 Verringerte Krebssterblichkeit bei täglicher Vitamin D-Einnahme
14.05.2023 Schutz vor UV-Strahlung am Arbeitsplatz verbessern
02.05.2023 MHH-Studie zeigt: Pedelec fahren steigert Fitness und Gesundheit
Gesellschaft
30.05.2023 Informationen schneller fließen lassen – mit Licht statt Strom
29.05.2023 Was man zählt, ist nicht unbedingt das, was zählt
14.05.2023 Zu gut, um echt zu sein – ChatGPT & Co.
20.05.2023 Digitale Transformation im Unternehmen aktiv mitgestalten
16.05.2023 Decoding Love: Studie an der Universität Wuppertal untersucht Auswirkungen der Smartphonenutzung in Liebesbeziehungen
10.05.2023 Post-Covid: keine falschen Versprechungen!
09.05.2023 Immer mehr Ältere sind sozialversicherungspflichtig beschäftigt
07.05.2023 Gemeinsam ist man weniger verrückt
April 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.04.2023  
29.04.2023 Von der Kartoffelschale zum Abwasserreiniger
25.04.2023 UV-Strahlung und Klimakrise: Handlungsbedarf für Städte und Gemeinden
24.04.2023 Abschluss Forschungsprojekt Kognitive Energiesysteme: KI-Agenten machen erneuerbare Energien flexibler und zuverlässiger
23.04.2023 Umweltwissenschaftliche Vortragsreihe: Nachhaltiger Pflanzenanbau im Zeichen des Klimawandels
22.04.2023 Arktische Eisalgen stark mit Mikroplastik belastet
21.04.2023 Abkehr von den fossilen Energieträgern
20.04.2023 Ganzjährig & bundesweit: Klimawandel begünstigt Ausbreitung von Zecken & FSME
18.04.2023 Chemiker aus Chemnitz weisen erstmals lange gesuchte chemische Verbindung nach
17.04.2023 Hamburgs Stromversorgung zu zwei Drittel durch Solarkraft möglich
15.04.2023 Ein Zentrum für die Klimaforschung in Niedersachsen
14.04.2023 Grundwasser und Artenvielfalt: Neue Studie offenbart weltweit Lücken im Schutz von Naturschutzgebieten
12.04.2023 Smarte Fenster senken ab jetzt den Energieverbrauch in schwedischen Büros
11.04.2023 Konkurrenz unter Bakterien sorgt für Wohlergehen von Pflanzen
08.04.2023 Kreislaufwirtschaft: Verbundprojekt will Recyclingrate von Lithium-Ionen-Batterien erhöhen
05.04.2023 Deutschland verlor in den letzten zwei Jahrzehnten durchschnittlich 760 Millionen Tonnen Wasser pro Jahr
03.04.2023 Am Ende der Trockenzeit: CO2-Pulse über Australien
01.04.2023 Fledermäuse in gestörten Ökosystemen sind häufiger mit Coronaviren infiziert
Gesundheit
27.04.2023 Unstatistik des Monats: E-Bike-Fahren senkt Herzinfarktrisiko um 40 Prozent
26.04.2023 Unterschätzte Gefahr: Lärm und Luftverschmutzung sind neue und wichtige Herz-Kreislauf-Risikofaktoren
16.04.2023 Wie Medikamente ins Blut gelangen
13.04.2023 Unterschätztes Risiko: Bluthochdruck bei Kindern
09.04.2023 Alternativer Zuckerabbau sichert das Überleben von Krebszellen
07.04.2023 Sicherheit und Gesundheit in Unternehmen fördern
04.04.2023 Kälte fördert gesundes Altern
Gesellschaft
10.04.2023 Cyber-Sicherheit – Partnerschaft zwischen ODAV AG und TC Vilshofen
06.04.2023 Sensible Unternehmensdaten schützen und gleichzeitig besser nutzbar machen
02.04.2023 Girls‘ Day 2023: Gründerin, Ingenieurin, Polizeikommissarin
März 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.03.2023 Wie sich Pflanzen an Stickstoffmangel anpassen
29.03.2023 Effizienzschub für die Geothermie
28.03.2023 Geringste Schadstoffspuren zuverlässig und schnell nachweisen
24.03.2023 Mit dem Onlinetool zur Energiewende
23.03.2023 Projektabschluss iMulch: Einfluss landwirtschaftlicher Mulchfolien auf terrestrische Ökosysteme
22.03.2023 Innovative Technologien entfernen Arzneimittelrückstände aus Abwasser
20.03.2023 Wärmewende in der kommunalen Energieversorgung
19.03.2023 Nationale Wasserstrategie: Umsetzung durch wissenschaftliche Forschung unterstützen
18.03.2023 Grüne Energie durch Abwärme
15.03.2023 Rückgang der Nährstoffbelastung und Meeresspiegelanstieg: Gewinner und Verlierer im UNESCO-Weltnaturerbe Wattenmeer
13.03.2023 Erste Dialogveranstaltung von Citizen-Science-Projekt zu Trinkwasser
08.03.2023 Zusatz soll Gülle klimafreundlicher machen
07.03.2023 Intelligente Algorithmen sollen im Katastrophenschutz unterstützen
06.03.2023 „Digital Lotse Wasser“ bietet hochmoderne Digitalisierungslösungen für die Wasserwirtschaft
05.03.2023 Für bakterienfreies Trinkwasser
03.03.2023 Energieeffizienz: Kaum Nachteile für Mietwohnungen
02.03.2023 Krieg in der Ukraine bedroht Süßwasserressourcen und Wasserinfrastruktur
Gesundheit
30.03.2023 Arzneimittelknappheit: Diese Faktoren sorgen für Lieferengpässe in der Pharmaindustrie
26.03.2023 Schweine als Organspender – neue Erkenntnisse zur Prävention von Infektionen durch Retroviren
17.03.2023 Lachen ist Medizin – auch fürs Herz
16.03.2023 Problem Schmerzmittelkonsum
14.03.2023 Immunzellen verfügen über einen Backup-Mechanismus
11.03.2023 Parasiten im Visier
10.03.2023 Cochrane Review: So lassen sich bei älteren Menschen Stürze verhindern
Gesellschaft
27.03.2023 Größere Reichweite für drahtlose Sensoren: mögliche Anwendungen in Smart Homes und Industrie
25.03.2023 Manipulationen in Mikrochips aufspüren
21.03.2023 Die Laune an der Nasenspitze erkennen
12.03.2023 Hochschulzertifikate: Berufsbegleitende Weiterbildung auf akademischem Niveau
09.03.2023 Verbrenner-Aus ab 2035? Ja bitte!
01.03.2023 Inflation und Zinssätze bleiben langfristig hoch
Februar 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
28.02.2023 Wie angehende Lehrkräfte künftig die Klimawandelforschung in den Unterricht einbringen können
25.02.2023 Neue Studie nimmt Energiespeicher unter die Lupe
20.02.2023 Mehr Klimaschutz im Bau
14.02.2023 Mehr Sicherheit für Talsperren und Dämme
10.02.2023 Abbau von Plastikabfall durch neu entwickelte Biokatalysatoren möglich
08.02.2023 Fischschwärme funktionieren ähnlich wie das Gehirn
07.02.2023 Globale Studie der Universität Bayreuth zeigt Einflüsse des Klimawandels auf terrestrische Ökosysteme
05.02.2023 Neues Verbundprojekt macht Herstellung von Biokraftstoffen effizienter | Biokraftstoffe mit Strom boostern
03.02.2023 Wasserkrisen durch Klimawandel: gefährlicher als bisher gedacht
02.02.2023 76 Prozent der erfassten Insektenarten nicht von Schutzgebieten abgedeckt
Gesundheit
27.02.2023 Restless-Legs-Syndrom: Lassen sich durch nicht medikamentöse Verfahren die Symptome lindern?
21.02.2023 Antibiotikaresistenzen: Tuberkulose-Therapie am Limit?
15.02.2023 Schlafentzug beeinflusst kognitive Leistung
04.02.2023 Zum Weltkrebstag 2023: DGU mahnt erneut Verbesserung der Prostatakrebs-Früherkennung an
Gesellschaft
26.02.2023 Wie digital sind Kirchen in Deutschland? Bundesweite Studie gestartet
17.02.2023 Forschungsprojekt „TwinMaP“ gestartet
16.02.2023 Sichere und anonyme Datenanalyse
12.02.2023 Hochschule Coburg untersucht die weibliche Seite der Stadt
05.02.2023 Studienangebot des Jahres 2023
01.02.2023 Innovationskraft für eine nachhaltige Arbeitswelt
Januar 2023
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.01.2023 BürgerwissenschaftlerInnen für Energiewende gesucht. EfficientCitzens startet Teilnahmeaufruf für HausbesitzerInnen
28.01.2023 Wie sich nicht-einheimische Baumarten auf die biologische Vielfalt auswirken
26.01.2023 Energiespeicherforschung an der EAH Jena: Projekt zur Entwicklung hocheffizienter Wärmespeicher bewilligt
25.01.2023 Die Wege des Wassers: Spurensuche mit DNA
23.01.2023 Drohnen sammeln Umweltdaten
21.01.2023 Kollisionsrisiko und Lebensraumverlust: Windräder in Wäldern beeinträchtigen bedrohte Fledermausarten
19.01.2023 Luftgüte: Lehrmeinung muss revidiert werden
16.01.2023 Europäisches Monitoring-Projekt zum Schutz der Biodiversität in Agrarlandschaften gestartet
14.01.2023 Niedriges Niveau bei Pflanzenschutzmittelrückständen in Lebensmitteln aus Deutschland
13.01.2023 Ölkonzern Exxon kannte Klimawirkung ganz genau: neue Studie in ‚Science‘
10.01.2023 Methanemissionen aus Stauseen reduzieren. TH Köln optimiert Prototyp zur Methangasernte
08.01.2023 Ungewöhnliche Frosch-Invasion
04.01.2023 Multiresistente Bakterien vermehrt in Abwässern aus Kliniken nachgewiesen
02.01.2023 Hochschule Coburg testet Kraftstoff aus Klärschlamm
Gesundheit
31.01.2023 Post-COVID: Versichertendaten zeigen Assoziation mit Autoimmunerkrankungen
18.01.2023 „Schweizer Taschenmesser“ für Influenzaviren
17.01.2023 Winterblues: Tageslicht ist bestes Gegenmittel
07.01.2023 Wie COVID-19 das Herz dauerhaft schädigt
05.01.2023 Welche Mechanismen wirken bei einer Paracetamol-Vergiftung der Leber?
03.01.2023 COVID-19: Unterschiedliche Immunantwort bei Kindern und Erwachsenen bleibt lange bestehen
Gesellschaft
27.01.2023 Wissenschaft und Familie: Männer sind gefragt! Wie wir den Sprung zur Vereinbarkeit von Karriere und Familie schaffen
24.01.2023 Info-Abend: Berufsbegleitend zum Bachelor weiterqualifizieren
22.01.2023 Künstliche Intelligenz für das Stromnetz der Zukunft
15.01.2023 Ernährungssysteme der Zukunft
12.01.2023 Menschenwürde schlägt Heimatliebe
11.01.2023 Wie verändert die Digitalisierung unsere Gesellschaft?
09.01.2023 Zukunftskompetenzen für die Welt von heute
06.01.2023 Digitaler, keine Noten, weniger Frontalunterricht: Wie könnte Schule in Zukunft aussehen?

 


Mit Mikro-Ultraschall Prostatakrebs präzise erkennen

Friederike Süssig-Jeschor Pressestelle
Universitätsmedizin Magdeburg
An der Universitätsmedizin Magdeburg wird im Rahmen einer internationalen klinischen Studie eine neuartige ultraschallbasierte Bildgebungsmethode zur frühzeitigen Erkennung von Prostatakrebs untersucht.

Prostatakrebs frühzeitiger erkennen – das ist das Ziel einer weltweiten klinischen Studie mit 1.200 Betroffenen, an der auch die Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie Magdeburg beteiligt ist. Die Studie untersucht die Effektivität eines innovativen Mikro-Ultraschallgerätes im Vergleich zur MRT-basierten Standardmethode zur Diagnose von Prostatakarzinomen. Das neuartige ExactVu™-System verspricht in kürzerer Zeit eine genauere Unterscheidung zwischen gut- und bösartigem Gewebe. Besonders Männer ab 50 Jahren, die sich in der Prostatakrebs-Vorsorge befinden, würden von dieser Entwicklung profitieren. Die Studie wird an 13 nationalen und internationale Kliniken durchgeführt.

Prostatakrebs ist in Deutschland die häufigste Krebserkrankung des Mannes. Laut Robert-Koch-Institut erkranken pro Jahr bundesweit fast 70.000 Männer neu an dieser Krebsform. Früh erkannt, kann das die Heilungschancen verbessern und das Risiko für Metastasen senken. Neben einer Tastuntersuchung ab 45 Jahren kommt bei Verdacht auf Prostatakrebs ein Test auf das Prostata-spezifische Antigen (PSA) zum Einsatz. Ein erhöhter PSA-Wert kann einen frühzeitigen Hinweis auf Prostatakrebs geben, aber auch andere Ursachen haben. „Die herkömmliche PSA-Blutwertbestimmung reicht für die Prostatakrebsfrüherkennung nicht mehr aus. Um möglichst genau sagen zu können, ob eine aggressive Prostatakrebserkrankung vorliegt, nutzen wir moderne bildgebende Verfahren, um den Krebs sichtbar zu machen“, erklärt Prof. Dr. med. Martin Schostak, Direktor der Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie Magdeburg und Studienleiter in Deutschland.

Im Fokus der Studie unter dem Titel „OPTIMUM“ steht eine Bildgebungsmethode der neuesten Generation – das hochauflösende ExactVu™-System, ein innovatives 29 MHz Mikro-Ultraschallgerät, zur Diagnose von Prostatakarzinomen. „Das System arbeitet mit einer dreifachen Auflösung im Vergleich zu herkömmlichen Geräten“, so Schostak. Damit sei man in der Lage, in kürzerer Zeit auch kleinste Veränderungen in der Prostata zu erkennen und eine genauere Diagnose zu stellen. „Dieses innovative Gerät hilft, überflüssige Biopsien zu vermeiden und gleichzeitig eine besonders präzise Diagnose zu ermöglichen. Besonders im Kontext einer sogenannten fokalen Therapie spielt dies eine entscheidende Rolle und verbessert die Patientenversorgung erheblich.“ Im Rahmen der Studie wird die Effektivität dieses Verfahrens im Vergleich zur MRT-basierten Standardmethode evaluiert.

Weitere Informationen sind unter https://urologie.med.uni-magdeburg.de/ zu finden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Martin Schostak, Direktor der Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie der Otto-von-Guericke-Universität Magdeburg, martin.schostak@med.ovgu.de, Telefon: +49-391/67 15036

(nach oben)


Bis zu 40 Prozent produktiver: Beim Güterumschlag auf die Schiene zeigen autonome Lkw großes Potenzial

Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius
• ANITA-Projektziele erreicht: Entwicklung, digitale Integration und Praxistests eines autonomen Lkw im Containerumschlag von DB IS-Depot und DUSS-Terminal in Ulm erfolgreich
• ANITA-Praxistestfahrten zeigen Potenzial für bis zu 40 Prozent Effizienzgewinn und erhöhte Prozessstabilität
• ANITA liefert übertragbare Erkenntnisse für die künftige Integration autonomer Lkw in die Prozesse von Logistikhubs und fahrerlose Lkw-Verkehre zwischen Logistikknoten

MAN Truck & Bus, Deutsche Bahn, Hochschule Fresenius und Götting KG haben gemeinsam wegweisende Forschungsergebnisse beim Einsatz eines autonomen Lkw in der Container-Logistik erzielt. Im Rahmen des Forschungsprojekts „Autonome Innovation im Terminal Ablauf“ (ANITA) zeigten sie erfolgreich, wie selbstfahrende Lkw mit der passenden Einbindung in die Infrastruktur den kombinierten Güterverkehr auf Straße und Schiene zukünftig leistungsfähiger, planbarer und zugleich flexibler machen können.

Die Projektpartner haben dafür einen autonom fahrenden Lkw auf die Räder gestellt, der Containerverladungen von der Straße auf die Schiene mit Hilfe einer digitalen Missionsplanung selbständig erledigen kann. Das vom Bundesministerium für Wirtschaft und Klimaschutz geförderte Forschungsprojekt lief insgesamt drei Jahre, rund sechs Monate davon haben die Experten das Fahrzeug im DB Intermodal Services Container-Depot und DUSS Container-Terminal in Ulm im Praxiseinsatz getestet.

„Bei der Entwicklung autonomer Fahrsysteme stehen konkrete Logistikanwendungen und der Kundennutzen für uns von Anfang an im Fokus. Deshalb haben wir bei ANITA nicht nur an der Entwicklung des automatisierten Fahrens in einem Container-Terminal gearbeitet, sondern gleichzeitig, zusammen mit den Partnern, die digitale Einbindung der Technologie in den Logistikprozess vorangetrieben. Nur so können wir künftig die Vorteile autonomer Lkw sinnvoll nutzen: den Sicherheitsgewinn, die höhere Flexibilität – gerade auch mit Blick auf den zunehmenden Fahrermangel – die gute Kombinierbarkeit mit anderen Verkehrsträgern und natürlich auch die optimale Energieeffizienz im Einsatz, was besonders in Verbindung mit der Elektromobilität wichtig wird. ANITA ist für MAN eine wichtige Grundlage, um autonome Lkw ab 2030 in den Verkehren zwischen Logistikhubs wie Ulm als Serienlösungen auf die Straße zu bringen“, so Dr. Frederik Zohm, Vorstand für Forschung & Entwicklung bei MAN Truck & Bus.

Die intensiven Testfahrten mit Sicherheitsfahrern und Entwicklungsingenieuren lieferten dabei nicht nur umfassende Erkenntnisse für die kontinuierliche Verfeinerung der autonomen Fahrfunktion und deren Zusammenspiel mit der Missionsplanung, sondern auch für die notwendige Vorbereitung der Terminals für die Integration der neuen Technologie.

“Der Kombinierte Verkehr wird in den kommenden Jahren weiter wachsen und eine wichtige Rolle bei der Verlagerung von Verkehren auf die umweltfreundliche Schiene spielen. Dafür müssen die komplexen Abläufe in den Terminals effizienter gestaltet und beschleunigt werden. Das gelingt nur, wenn wir Logistikprozesse weiter automatisieren und digitalisieren. Wie die Zukunft in den Terminals aussehen kann, hat der Projektabschluss von ANITA heute eindrucksvoll gezeigt. Der autonome Lkw funktioniert im realen Terminalbetrieb und kann so einen entscheidenden Beitrag zur Zukunftsfähigkeit des Kombinierten Verkehrs leisten“, so Dr. Martina Niemann, Vorständin der DB Cargo AG für Finanzen, Controlling und Angebotsmanagement.

Damit der autonome Lkw des ANITA-Projektes seine Transportaufgabe im Containerumschlag erfüllen kann, muss er mit der Infrastruktur von DB IS- Depot und DUSS-Terminal kommunizieren können. Dafür haben die Wissenschaftler der Hochschule Fresenius in der ersten Projektphase die bestehenden Prozesse, Abläufe und Verhaltensweisen von Menschen und Maschinen vor Ort analysiert und in ein digitales Regelwerk übertragen.

Als gemeinsame Sprache für die eindeutige und vollständige Kommunikation aller beteiligter Systeme dient die Contract Specification Language (CSL) von Deon Digital. Entstanden ist so eine komplette Missionsplanung, die sowohl das Fahrzeug als auch die IT-Systeme von DB IS-Depot und DUSS-Terminal miteinander verbindet. Wie ein Universal-Dolmetscher spricht die Lösung die Sprachen aller heterogenen Systeme und leitet den automatisierten Lkw durch den Prozess des Containerumschlags, wie Prof. Dr. Christian T. Haas, Direktor des Instituts für komplexe Systemforschung an der Hochschule Fresenius, erklärt: „Wir haben hier ein kommunikationsintensives Multi-Agenten-System d.h. verschiedene Akteure wie Lkw-Fahrer, Kran-Führer, Stapler-Fahrer nutzen unterschiedliche Kommunikationsformen wie Sprache, Gesten etc. und übertragen dabei die von ihnen als relevant eingestuften Informationen. Da sich bei autonomen Umfuhren nicht der Fahrer mit dem Disponenten, sondern der Lkw mit Datenbanken bzw. anderen Maschinen ,unterhält‘, musste ein digitales – also für Maschinen verständliches – Kommunikationssystem entwickelt werden, damit die Mission funktioniert. Dies war ein hoher Entwicklungsaufwand, der jetzt allerdings auch zum Erfolg und den entsprechenden Produktivitätsgewinnen geführt hat.“

Die Götting KG brachte ins Projekt in Ergänzung zu MAN ihre Expertise im Bereich der Objektortung und Umgebungserfassung ein, um die künftige Übertragbarkeit auf andere Logistikhubs und Erweiterungsfähigkeit für zusätzliche Einsatzszenarien zu ermöglichen. „Damit fahrerlose Fahrzeuge noch attraktiver werden, arbeiten wir weiter an sicherer Hinderniserkennung für größere Reichweiten und Geschwindigkeiten“, so Hans-Heinrich Götting, Geschäftsführer der Götting KG, zum Abschluss des ANITA-Projektes.
Die detaillierten Projektergebnisse werden in einem ausführlichen Projektbericht zusammengefasst und nach Projektende veröffentlicht.

Mehr zu ANITA: https://www.anita.digital

Über die Hochschule Fresenius
Die Hochschule Fresenius mit ihren Standorten in Berlin, Düsseldorf, Frankfurt am Main, Hamburg, Idstein, Köln, München und Wiesbaden sowie dem Studienzentrum in New York gehört mit über 18.000 Studierenden zu den ältesten, größten und renommiertesten privaten Hochschulen in Deutschland. Sie blickt auf eine 175-jährige Tradition zurück. 1848 gründete Carl Remigius Fresenius in Wiesbaden das „Chemische Laboratorium Fresenius“, das sich von Beginn an sowohl der Laborpraxis als auch der Ausbildung widmete. Seit 1971 ist die Hochschule staatlich anerkannt. Sie verfügt über ein sehr breites, vielfältiges Fächerangebot und bietet in den Fachbereichen Che-mie & Biologie, Design, Gesundheit & Soziales, onlineplus sowie Wirtschaft & Medien Bachelor- und Masterprogramme in Vollzeit sowie berufsbegleitende und ausbildungsbegleitende (duale) Studien-gänge an. Die Hochschule Fresenius ist vom Wissenschaftsrat institutionell akkreditiert. Bei der Erstakkreditierung 2010 wurden insbesondere ihr „breites und innovatives Angebot an Bachelor- und Master-Studiengängen“, „ihre Internationalität“ sowie ihr „überzeugend gestalteter Praxisbe-zug“ vom Wissenschaftsrat gewürdigt.

Weitere Informationen finden Sie auf unserer Website:
www.hs-fresenius.de

Weitere Informationen:
http://www.hs-fresenius.de

(nach oben)


Mainzer Wissenschaftler:innen entdecken bisher unbekannte Ursache für die Entstehung der Lungenfibrose

Natkritta Hüppe Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Forschende des Centrums für Thrombose und Hämostase der Universitätsmedizin Mainz und der Boston University haben einen Mechanismus entdeckt, der die Entstehung einer sogenannten Lungenfibrose fördert. Sie haben gezeigt, dass eine Freisetzung von Histonen einen Signalweg beeinträchtigt, der verhindern soll, dass das Lungengewebe sich unkontrolliert vermehrt und vernarbt. Ausgehend von dieser neuen Erkenntnis hat das Forschungsteam einen auf Antikörpern basiertes Wirkprinzip getestet, welches Histone blockieren kann. Die in der Fachzeitschrift PNAS veröffentlichte vorklinische Studie zeigt eine vielversprechende Wirkung des neuartigen Therapieansatzes.

Neue Erkenntnisse bieten Ansatz für innovative Medikamente
Forschende des Centrums für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz und der Boston University haben einen Mechanismus entdeckt, der die Vernarbung der Lunge und damit die Entstehung einer sogenannten Lungenfibrose fördert. Sie haben gezeigt, dass eine Freisetzung von Proteinen der Histonfamilie einen Signalweg beeinträchtigt, der verhindern soll, dass das Lungengewebe sich unkontrolliert vermehrt und vernarbt. Ausgehend von dieser neuen Erkenntnis hat das Forschungsteam einen auf Antikörpern basiertes Wirkprinzip getestet, welches Histone blockieren kann. Die in der Fachzeitschrift Proceedings of the National Academy of Sciences (PNAS) veröffentlichte vorklinische Studie zeigt eine vielversprechende Wirkung des neuartigen Therapieansatzes beim experimentellen Modell einer Lungenfibrose.

Die Lungenfibrose ist eine bisher nicht heilbare und oft tödlich verlaufende Erkrankung. Bei den Betroffenen kommt es zu einer unkontrollierten Vermehrung von Narbengewebe in der Lunge, die durch chronische Entzündungen ausgelöst wird. Die Lunge ist dadurch weniger elastisch und kann sich beim Atmen nicht hinreichend ausdehnen. Die Patient:innen haben schon bei geringen Anstrengungen Atemnot – im fortgeschrittenen Erkrankungsstadium sogar im Ruhezustand. Die genauen Ursachen für die Entstehung der Erkrankung sind bisher noch unzureichend aufgeklärt.

„Unser Ziel ist es, die molekularen Zusammenhänge der Lungenfibrose genauer zu verstehen, um die Therapiemöglichkeiten verbessern zu können. Wir haben einen bisher unbekannten Mechanismus identifiziert, der darauf hinweist, dass Proteine der Histonfamilie beim Krankheitsprozess eine entscheidende Rolle spielen, wenn sie von Immunzellen freigesetzt werden. Histone bilden deshalb eine potentielle Zielstruktur, um neue Medikamente zur Behandlung der Lungenfibrose entwickeln zu können“, erläutert Prof. Dr. Markus Bosmann, Arbeitsgruppenleiter am Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz.

Histone sind Proteine im Zellkern, die dazu dienen, die DNA zu verpacken. Werden Histone zum Beispiel durch eine fehlgeleitete Abwehrreaktion oder einen Zelltod freigesetzt, können sie in immunologische Prozesse eingreifen. Bei ihren vorklinischen Untersuchungen stellten die Mainzer Forschenden fest, dass in Proben von Betroffenen mit Lungenfibrose eine deutlich höhere Konzentration an Histonen vorlag als bei gesunden Probanden. Sie konnten zeigen, dass die freigesetzten Histone ein Wechselspiel zwischen Botenstoffen aus den Blutplättchen und den Immunzellen auslöste. Die Folge: Ein Sicherheitsmechanismus, der die unkontrollierte Gewebsbildung und Vernarbung in der Lunge verhindern soll, schaltet sich aus.

Die derzeit verfügbaren Medikamente zur Therapie der Lungenfibrose hemmen zwar die Vernarbung, können diesen Prozess aber nicht vollständig aufhalten. Die Mainzer Wissenschaftler:innen haben auf Basis von Antikörpern einen innovativen Wirkstoff getestet, der die freigesetzten Histone blockieren kann. Im experimentellen Modell zeigte dieser eine hohe Wirksamkeit gegen die Fibrosierung der Lunge.

„Es ist denkbar, dass ein Antikörper-basierter Wirkstoff mit den aktuell eingesetzten Medikamenten kombiniert werden kann, um bessere Behandlungsergebnisse zu erzielen. Bevor dieses innovative Wirkprinzip jedoch klinisch eingesetzt werden kann, müssen noch weitere Optimierungen und vorklinische Tests erfolgen. Auch wenn es noch viele Jahre dauern wird, sind wir zuversichtlich auf dem richtigen Weg zu sein“, so Professor Bosmann.

Originalpublikation:
D.R. Riehl, A. Sharma, J. Roewe, M. Bosmann et al. Externalized histones fuel pulmonary fibrosis via a platelet-macrophage circuit of TGFβ1 and IL-27. PNAS, 2023, 120 (40) e2215421120.

DOI:
https://doi.org/10.1073/pnas.2215421120

Kontakt:
Prof. Dr. med. Markus Bosmann, CTH und Forschungszentrum Immuntherapie (FZI), Universitätsmedizin Mainz,
Telefon 06131 17-8277, E-Mail markus.bosmann@unimedizin-mainz.de

Pressekontakt:
Dr. Natkritta Hüppe, Stabsstelle Unternehmenskommunikation, Universitätsmedizin Mainz,
Telefon 06131 17-7771, E-Mail pr@unimedizin-mainz.de

Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten und jährlich mehr als 345.000 Menschen stationär und ambulant versorgen. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Mehr als 3.500 Studierende der Medizin und Zahnmedizin sowie rund 670 Fachkräfte in den verschiedensten Gesundheitsfachberufen, kaufmännischen und technischen Berufen werden hier ausgebildet. Mit rund 8.700 Mitarbeitenden ist die Universitätsmedizin Mainz zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter https://www.unimedizin-mainz.de.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Markus Bosmann, CTH und Forschungszentrum Immuntherapie (FZI), Universitätsmedizin Mainz,
Telefon 06131 17-8277, E-Mail markus.bosmann@unimedizin-mainz.de

Originalpublikation:
D.R. Riehl, A. Sharma, J. Roewe, M. Bosmann et al. Externalized histones fuel pulmonary fibrosis via a platelet-macrophage circuit of TGFβ1 and IL-27. PNAS, 2023, 120 (40) e2215421120.
DOI: https://doi.org/10.1073/pnas.2215421120

(nach oben)


Blutprodukte retten Leben

Nora Domschke Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Das Uniklinikum Dresden benötigt mehr Thrombozytenpräparate und ruft zur Spende auf. Die Transfusionsmedizinerinnen und -mediziner betonen die Wichtigkeit der lebensrettenden Spezialpräparate. Aus den Spenden werden überwiegend lebensrettende Spezialpräparate gewonnen. Die Apherese-Spenden, also Blutprodukte, die an einem Zellseparator gewonnen werden, spielen für die Versorgung schwer kranker Menschen eine entscheidende Rolle und werden am Uniklinikum in großem Umfang benötigt. Peter Escher macht an diesem Donnerstag (28. September) mit einer öffentlichkeitswirksamen Spende auf diese Notwendigkeit aufmerksam.

Thrombozytenpräparate gehören zu den Spezialprodukten der Blutspende. Die in ihnen enthaltenden Blutplättchen sind wichtig für die Blutgerinnung. Daher sind sie bei der Behandlung von Leukämie- und Tumorpatienten sowie bei großen Operationen notwendig, da es ohne eine ausreichende Anzahl von Thrombozyten im Blut der Patientinnen und Patienten zu lebensbedrohlichen Blutungen kommen kann. Journalist und Moderator Peter Escher hat heute am Dresdner Universitätsklinikum öffentlichkeitswirksam Thrombozyten gespendet und ruft auf, es ihm gleich zu tun: „Ich bin seit vielen Jahren Blutspender“, erklärt er. „Mit der heutigen Spende möchte ich Zögerer zum Spenden des überlebenswichtigen Blutes motivieren und kann aus eigener Erfahrung sagen, dass das regelmäßige Spenden sogar zu meinem Wohlbefinden beiträgt.“ Prof. Michael Albrecht, Medizinischer Vorstand des Uniklinikums, betont, wie wichtig die Bereitschaft der Bevölkerung zum Spenden in der Versorgung der Patientinnen und Patienten ist. „Peter Escher ist hierbei ein echtes Vorbild“, so Prof. Albrecht. „Blutprodukte sind rar und wir sind im Sinne der Versorgung auch schwerst kranker Patientinnen und Patienten auf diese speziellen Thrombozytenpräparate angewiesen.“

Bevor gespendet werden kann, ist eine Voruntersuchung erforderlich, bei der die Eignung der Spenderin oder des Spenders ermittelt wird. „Im Rahmen dessen erfolgt ein ärztliches Aufklärungsgespräch“, so Privatdozentin Dr. Kristina Hölig, Leiterin der Transfusionsmedizin am Uniklinikum Dresden. „Darüber hinaus werden die Venen an den Armen beurteilt und eine kleine Blutprobe zu Testzwecken entnommen.“ Dazu gehört ein umfangreiches Blutbild, bei dem die Thrombozytenzahl sowie die Blutgruppe bestimmt wird. Außerdem wird das Blut auf verschiedene Infektionskrankheiten untersucht.

Thrombozyten kann man, ähnlich wie Blut, auch in regelmäßigen Abständen spenden. Blutplättchen spielen in der Blutgerinnung und Blutstillung eine wesentliche Rolle und werden daher besonders bei Patientinnen und Patienten mit bösartigen Erkrankungen unter Chemotherapie und insbesondere nach einer Stammzelltransplantation benötigt. Auch ein hoher Blutverlust, etwa bei einem schweren Unfall oder bei einer großen Operation können ein Grund für die Substitution sein. Bei der Thrombozytenspende werden dem Körper über einen so genannten Thrombozyt-Apherese-Apparat ausschließlich Blutplättchen entnommen, die restlichen Blutbestandteile und das Plasma zurückgeführt. Thrombozyten sind nicht lange haltbar und müssen in Bewegung gelagert werden.

Nach der Entnahme sind die Spenderinnen und Spender vier Tage von anderen Spenden ausgeschlossen. Bis zur nächsten Thrombozyt-Apherese müssen sie gesetzlich vorgeschrieben zwei Wochen warten. Eine Thrombozytenspende dauert zwischen 60 und 90 Minuten. Dabei werden maximal 750 Milliliter Thrombozyten entnommen. Es gelten die Anforderungen wie bei anderen Spende-Arten. Grundsätzlich gibt es keine obere Altersgrenze, aber der Spender darf keine schwerwiegenden Vorerkrankungen haben. Weitere Voraussetzungen sind eine stabile Gesundheit, ein Mindestgewicht von 50 Kilogramm sowie eine ärztliche Zulassung – die Spendentauglichkeit wird von den Ärztinnen und Ärzten der Transfusionsmedizin beurteilt und bescheinigt.

Spendenwillige wenden sich gern an die Transfusionsmedizin des Universitätsklinikums Dresden unter 0351 458-2581 und vereinbaren einen Termin.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Medizinische Klinik und Poliklinik I
PD Dr. med. Kristina Hölig
Bereichsleiterin Transfusionsmedizin
Tel.: 0351 458 2910
E-Mail: Kristina.Hoelig@ukdd.dex

www.uniklinikum-dresden.de/de/das-klinikum/kliniken-polikliniken-institute/mk1/fachabteilungen/transfusionsmedizin

(nach oben)


Wichtiger zusätzlicher Treiber des Insektensterbens identifiziert

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Treten ungünstige Witterungsbedingungen kombiniert und über Jahre auf, kann das Insektenbiomassen langfristig schrumpfen lassen. Das zeigt ein Team um Professor Jörg Müller im Journal „Nature“.

Insekten reagieren empfindlich, wenn Temperatur und Niederschläge vom langjährigen Mittel abweichen. Bei einem ungewöhnlich trockenen und warmen Winter sind ihre Überlebenswahrscheinlichkeiten verringert, bei einem nasskalten Frühjahr ist der Schlupferfolg reduziert. Ein kühler, feuchter Sommer setzt Hummeln und andere Fluginsekten bei der Fortpflanzung und der Nahrungssuche unter Druck.

Treten mehrere solcher Witterungs-Anomalien in Kombination und über mehrere Jahre auf, kann dies die Insektenbiomasse großräumig und langfristig reduzieren. Das zeigt ein neuer Report im Journal „Nature“.

Demnach können die Witterung und Häufungen ungünstiger Witterungsanomalien im Zuge des Klimawandels wichtige Treiber des weltweiten Insektensterbens sein. Nur individuenreiche Insektenpopulationen, wie man sie in ausreichend großen und hochwertigen Lebensräumen findet, erscheinen unter solch widrigen Bedingungen überlebensfähig.

Wegen dieser neuen Erkenntnisse plädieren die Autorinnen und Autoren des Nature-Reports für mehr hochwertige Lebensräume. Diese zeichnen sich aus durch Pflanzen, die typisch für naturnahe Habitate sind, durch hohen Strukturreichtum oder extensive Nutzung. Der Report stammt vom Forschungsteam Jörg Müller (Universität Würzburg und Nationalpark Bayerischer Wald) in Kooperation mit der TU Dresden (Sebastian Seibold) und dem Nationalpark Berchtesgaden sowie der TU München (Annette Menzel, Ye Yuan) und der Universität Zürich (Torsten Hothorn). Die beteiligten Forschenden suchen gemeinsam nach neuen Erkenntnissen und Gegenstrategien zum Insektensterben.

So sind die neuen Erkenntnisse entstanden
Im Frühjahr 2022 fiel dem Würzburger Ökologieprofessor Jörg Müller auf, dass in Wald und Flur erstaunlich viele Insekten unterwegs waren. Das machte ihn stutzig – schließlich sind in den vergangenen Jahren immer mehr wissenschaftliche Studien erschienen, die ein weltweites Insektensterben belegten.

Die Studie, die für das größte Aufsehen sorgte, stammt von einer Gruppe um den niederländischen Forscher Caspar A. Hallmann aus dem Jahr 2017. Darin wurden Daten des Entomologischen Vereins Krefeld analysiert. Die Studie zeigte auf, dass die Insektenbiomasse in deutschen Naturschutzgebieten in den Jahren von 1989 bis 2016 um mehr als 75 Prozent abgenommen hat.

„Die Daten aus der Studie zeigen, dass es 2005 einen dramatischen Einbruch und in den Jahren danach keine Erholung mehr gab“, sagt Jörg Müller, der Professor für Tierökologie und ökologische Freilandforschung am Biozentrum der Julius-Maximilians-Universität Würzburg (JMU) ist. Konnte die von ihm „gefühlte“ große Insektenmenge des Jahres 2022 also real sein?

2022 ging es vielen Insekten relativ gut
Müller beschloss, der Sache auf den Grund zu gehen. Dafür tat sich sein Team mit Forscherkolleginnen und -kollegen der TU Dresden, der TU München und der Universität Zürich zusammen.

Zuerst galt es zu klären, ob es 2022 tatsächlich viel mehr Insektenbiomasse gab als üblich. Das bestätigte sich: „Wir fanden eine Biomasse, die im Mittel fast so hoch war wie die Maximalwerte aus der Hallmann-Studie. Und unser 2022er Maximalwert war höher als alle Werte, die Hallmann je ermittelt hatte – dieser Wert stammt übrigens aus dem Wald der Universität Würzburg“, sagt der JMU-Professor.

Daten der Hallmann-Studie neu analysiert
Diese Beobachtung veranlasste das Forschungsteam, die Daten aus der Hallmann-Studie neu zu analysieren. Dabei flossen neu aufbereitete Witterungsdaten ein, darunter Informationen über Temperaturen und Niederschläge während der Beprobung. Berücksichtigt wurden auch Witterungsanomalien (Abweichungen vom langjährigen Mittel) während der verschiedenen Phasen eines Insektenlebens – vom Ei über die Larve und die Puppe bis zu den erwachsenen Tieren.

Das Team stellte fest, dass für die Jahre ab 2005 für Insekten überwiegend negative Witterungseinflüsse herrschten. Mal war der Winter zu warm und trocken, mal das Frühjahr oder der Sommer zu kalt und nass. Dagegen war das Wetter 2022 durchgehend günstig für Insekten, und auch der Sommer davor war gut. Folglich erklärt dies die relativ hohe Insektenbiomasse von 2022.

Konsequenzen für die Zukunft
„Wir müssen uns viel stärker bewusstmachen, dass der Klimawandel bereits jetzt ein wichtiger Treiber für den Niedergang von Insektenpopulationen ist. Das muss in Wissenschaft und Naturschutzpraxis viel stärker mitgedacht werden“, sagt Annette Menzel, Professorin für Ökoklimatologie von der Technischen Universität München (TUM).

Um das Aussterberisiko bedrohter Arten unter diesen Rahmenbedingungen abzuschwächen, müssen die Flächen hochwertiger Lebensräume vergrößert werden. Daher sind die aktuellen Bestrebungen zum Insektenschutz noch dringender als bisher gedacht. Diese Gemeinschaftsaufgabe betreffe sowohl die Landwirtschaft als auch Verkehrs- und Siedlungsräume – also alle Gebiete, in denen hochwertige Lebensräume reduziert oder beeinträchtigt werden.

JMU-Professor Jörg Müller schlägt außerdem vor, ein Biomasse-Monitoring für ganz Deutschland zu etablieren. Damit könne man kontinuierlich messen, welchen Auf- und Ab-Trends die Insektenpopulationen unterworfen sind, und diese bei weiteren Analysen miteinbeziehen.

Förderer
Die beschriebenen Arbeiten wurden finanziell gefördert von der Deutschen Forschungsgemeinschaft, dem Bayerischen Staatsministerium für Wissenschaft und Kunst im Rahmen des Bayerischen Klimaforschungsnetzwerks bayklif, dem Bayerischen Staatsministerium für Umwelt und Verbraucherschutz im Projekt „Die Auswirkungen des Baumsterbens in Bayern 2018-2019 auf die Resilienz der Wälder und die biologische Vielfalt“ und dem Bayerischen Staatsministerium für Ernährung, Landwirtschaft und Forsten im Projekt „Auswirkungen waldbaulicher Eingriffe auf die Biodiversität – Neue Methoden erlauben neue Einblicke (L062)“.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jörg Müller, Universität Würzburg und Nationalpark Bayerischer Wald, joerg.mueller@uni-wuerzburg.de

Originalpublikation:
Weather explains the decline and rise of insect biomass over 34 years. Nature, 27. September 2023, DOI: 10.1038/s41586-023-06402-z

(nach oben)


DIW- und TU-Forschende: Das LNG-Terminal vor Rügen ist überflüssig und klimaschädlich

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Experten des Deutschen Instituts für Wirtschaftsforschung (DIW) und der Technischen Universität Berlin kritisieren das geplante Rügener Terminal für Flüssigerdgas (LNG) in einer aktuellen Analyse als überflüssig und klimaschädlich.

Es gebe weder energiewirtschaftliche noch industriepolitische Argumente für die Entwicklung des LNG-Projekts Mukran. Die Landesregierung Mecklenburg-Vorpommern solle sich gegen das Industrieprojekt Mukran aussprechen, welches energiewirtschaftlich nicht notwendig sei, keine alternativen ökonomische Perspektiven im Bereich Wasserstoffwirtschaft biete und gleichzeitig die nachhaltige Wirtschaftsentwicklung auf Rügen gefährde, so das Fazit der wissenschaftlichen Studie, die die Deutsche Umwelthilfe in Auftrag gab. „Die Bundesregierung sollte den Ausbau der LNG-Infrastruktur stoppen und die verfügbaren Finanzmittel stattdessen für energiewende-kompatible Projekte verwenden“, sagt Mitautor Prof. Dr. Christian von Hirschhausen von der TU Berlin und dem DIW Berlin. Er und seine wissenschaftlichen Mitarbeitenden werden am 22. September 2023 auch vor Ort bei einer Infoveranstaltung auf der Insel Rügen sein.

Die Studie „Energiewirtschaftliche und industriepolitische Bewertung des Energie- und Industrieprojekts Mukran mit dem Bau von LNG-Infrastruktur und Pipelineanbindung nach Lubmin“:
https://www.diw.de/de/diw_01.c.881106.de/publikationen/politikberatung_kompakt/2…

Pressemitteilung der Deutschen Umwelthilfe:
https://www.duh.de/presse/pressemitteilungen/pressemitteilung/deutsche-umwelthil…

Weitere Informationen erteilt Ihnen gerne:
Stefanie Terp
Pressesprecherin der TU Berlin
Tel.: 030 314-23922
E-Mail: pressestelle@tu-berlin.de

(nach oben)


Neuer Ansatz für Test auf Long Covid: Blutgefäße im Auge verändert

Paul Hellmich Corporate Communications Center
Technische Universität München
Eine standardisierte Augenuntersuchung könnte in Zukunft verraten, ob Menschen unter dem Long-Covid-Syndrom beziehungsweise Post Covid leiden. Ein Team der Technischen Universität München (TUM) konnte einen deutlichen Zusammenhang zwischen der Erkrankung und bestimmten Veränderungen der Äderchen im Auge zeigen.

Zwischen zehn und 35 Prozent der Betroffenen leiden auch lange nach einer Corona-Erkrankung an Symptomen wie Atemproblemen oder Erschöpfung (Fatigue). Bislang sind keine körperlichen Merkmale, sogenannte Biomarker, bekannt, anhand derer sich eine Long-Covid-Erkrankung sicher diagnostizieren lässt.

Eines der Merkmale von Covid-19 sind Veränderungen der Blutgefäße. Betroffen ist hier insbesondere das Endothel, die Gefäßinnenwand. Durch die Veränderungen werden Organe nicht ausreichend mit Blut versorgt.

Kleine Blutgefäße wenig erforscht
Bislang wurden vor allem große Blutgefäße erforscht. „90 Prozent der Endothelzellen des Körpers befinden sich aber in kleinen und kleinsten Äderchen. Was mit diesen Blutgefäßen bei Long Covid geschieht, ist kaum bekannt“, sagt Studienleiter Prof. Christoph Schmaderer, Geschäftsführender Oberarzt in der Abteilung für Nephrologie des Klinikums rechts der Isar, Universitätsklinikum der TUM.

„Blutgefäße im Auge könnten einen Hinweis auf den Zustand der kleinen Blutgefäße im gesamten Körper bieten“, sagt Schmaderer. Sie seien für Untersuchungen leicht zugänglich, die notwendigen Verfahren und Geräte sind erprobt und erfordern keinen Eingriff in den Körper.

Äderchen sind verengt oder erweitern sich weniger
Im Fachmagazin „Angiogenesis“ schildern Schmaderer, Co-Studienleiter Dr. Timon Kuchler und ihr Team ihre Ergebnisse. Besonders zwei Werte zeigten einen starken Zusammenhang mit Long-Covid-Erkrankungen: Zum einen waren Arteriolen, also kleinste Arterien, im Vergleich zur gesunden Kontrollgruppe deutlich verengt. Zum anderen zeigten Venolen – nicht aber die Arteriolen – eine veränderte Reaktion auf Lichtreize. Leuchtet man mit einem flackernden Licht ins Auge, erweitern sich die Blutgefäße. Bei Patient:innen mit Long Covid war diese Reaktion deutlich verringert.

Je mehr Entzündungsmarker im Blut der Studienteilnehmenden gemessen wurden, desto ausgeprägter waren die Veränderungen. Anhaltende Entzündungsreaktionen sind Studien zufolge vermutlich ein weiterer wichtiger Faktor für Long Covid.

Weitere Studien notwendig
Da die Studie mit 41 teilnehmenden Erkrankten vergleichsweise klein ist und nur in einer einzelnen Klinik durchgeführt wurde, lässt sich aus den Ergebnissen noch kein zuverlässiger Test auf Long Covid ableiten. Aus Sicht der Forschenden sind weitere Studien notwendig um die Ergebnisse zu verifizieren. „Ich bin zuversichtlich, dass auf Grundlage unserer Ergebnisse ein Werkzeug entwickelt werden kann, um Long Covid sicher zu diagnostizieren“, sagt Christoph Schmaderer. „Wir gehen zudem davon aus, dass die Mikrozirkulation nicht nur im Auge, sondern auch in anderen Teilen des Körpers eingeschränkt ist. Dadurch könnte die Methode insbesondere dafür geeignet sein, um die Wirksamkeit zukünftiger Therapien für Long Covid zu beurteilen.“

Weitere Informationen:
Die Studie wurde unter dem Titel „All Eyes on PCS – Analyse der retinalen Mikrogefäßstruktur bei Patienten mit Post-COVID-19-Syndrom“ registriert und durch das Bayerische Staatsministerium für Wissenschaft und Kunst finanziert.

Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1721005

Kontakt im TUM Corporate Communications Center:
Paul Hellmich
Pressereferent
Tel. +49 89 289 22731
presse@tum.de
www.tum.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Schmaderer
Klinikum rechts der Isar der Technischen Universität München
Abteilung für Nephrologie
christoph.schmaderer@mri.tum.de

Originalpublikation:
Kuchler, T., Günthner, R., Ribeiro, A. et al. Persistent endothelial dysfunction in post-COVID-19 syndrome and its associations with symptom severity and chronic inflammation. Angiogenesis (2023). https://doi.org/10.1007/s10456-023-09885-6

(nach oben)


Klimawandel und seine Bedeutung für unsere Flüsse: Infotag am 30. September in Eußerthal

Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Der Klimawandel hinterlässt in Fließgewässern spürbare Auswirkungen. Dürren und Starkregen führen zu Wasserknappheit und Überschwemmungen, bedrohen die Biodiversität und beeinträchtigen Wasserressourcen für Mensch und Natur. Wie kann das Management der Fließgewässer aussehen, um sich diesen Veränderungen anzupassen und die Gewässer zu schützen? Einblick in diese Thematik gibt es beim Infotag „Klima. Wasser. Fisch.“ der Rheinland-Pfälzischen Technischen Universität (RPTU) an der Ökosystemforschung Anlage Eußerthal (EERES) am Samstag, den 30. September, von 11 bis 16 Uhr bei Vorträgen und Mitmachangeboten. Das Angebot ist kostenfrei. Bei schlechtem Wetter wird die Veranstaltung verschoben.

In Vorträgen stellen Experten der RPTU sowie der beteiligten Projektpartner aus den Bereichen Klimawandelforschung und Gewässerökologie aktuelle Forschungsthemen vor: Dabei geht es unter anderem um die Gesundheit von Gewässern und um das Vorkommen und den Einfluss von Schadstoffen darin, um die Austrocknung von Flüssen und die schwindende Verfügbarkeit von Wasser sowie um die Zunahme von Klimaextremen. Zudem spricht Sarah Oexle von der Fischereiforschungsstelle Baden-Württemberg (LAZ BW) über „Fische in der Klimakrise“ und darüber, wie unserer Gewässer „fit für die Zukunft“ gemacht werden. Die Veranstaltung richtet sich aber auch an Kinder verschiedener Altersstufen, die die Möglichkeit haben, sich bei einem Gewässer-Lauf mit der Ökologie von Fließgewässern zu befassen und bei einer Rallye heimische Fischarten kennenzulernen.

Die Veranstaltung findet im Rahmen des EU-Interreg-Projekt „RiverDiv“ statt, das sich mit den Auswirkungen des Klimawandels auf Fließgewässer befasst. Ziel ist es, ein nachhaltiges und im Zuge des Klimawandels angepasstes Management für die Wieslauter zu entwickeln, einem deutsch-französischen Grenzfluss, der im Pfälzer Wald entspringt und bei Lauterburg in den Rhein mündet. Eingebunden in das Vorhaben sind Partner aus Wissenschaft, Wasserversorgung und Angelfischerei.

„Mit dem Projekt möchten wir zudem die Öffentlichkeit für dieses wichtige Thema sensibilisieren, um in der Gesellschaft ein Bewusstsein für die bestehenden Herausforderungen des Klimawandels zu schaffen. Dazu werden wir auch künftig ähnliche Veranstaltungen wie den Infotag anbieten“, sagt Dr. Tanja Joschko, Projektleiterin und Geschäftsführerin von der Ökosystemforschung Anlage Eußerthal (EERES). Die Forscherinnen und Forscher von EERES befassen sich mit Gewässern und Biodiversität unter dem Einfluss des globalen Wandelns.

Beim Infotag gibt das Team auch Einblick in das RiverDiv-Projekt. Besucher können sich über die verschiedenen Inhalte des Vorhabens informieren und sich direkt vor Ort mit den Wissenschaftlern austauschen.

Infotag „Klima. Wasser. Fisch.“
Wann?: 11 bis 16 Uhr am Samstag, den 30. September
Wo?: Ökosystemforschung Anlage Eußerthal, Birkenthalstraße 13, 76857 Eußerthal
Weitere Infos unter: https://nuw.rptu.de/projekte/riverdiv/teilprojekte/wissensdialog-vernetzung-umse…

Kontakt
Dr. Hannah Chmiel
RiverDiv – Projektkoordination / RPTU in Landau
Telefon: +49 6341 280 32239
Email: hannah.chmiel@rptu.de

(nach oben)


Wie Kläranlagen zur Energiewende beitragen können

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Versorgt man die Mikroorganismen, die in Kläranlagen das Wasser aufbereiten, zusätzlich mit etwas Wasserstoff und Kohlendioxid, stellen sie reines Methan her. Damit kommen Erdgasheizungen und -fahrzeuge klar, ohne dass es technischer Anpassungen bedarf. Die beiden Arbeitsgruppen der Ruhr-Universität Bochum von Dr. Tito Gehring bei Prof. Dr. Marc Wichern und Prof. Dr. Ulf-Peter Apfel haben gemeinsam ein technisches Zusatzmodul entwickelt, dass im Prinzip jede Kläranlage auf umweltfreundliche Weise zu einer CO2-Senke und dezentralen Methan-Erzeugungsanlage machen kann. Sie berichten in der Zeitschrift Cell Reports Physical Science vom 16. August 2023.

Schlechter Ruf, gute Eigenschaften
Methan hat als klimaschädliches Gas einen schlechten Ruf. Es bringt aber einige gute Eigenschaften mit, die es dazu befähigen, ein Baustein der Energiewende zu werden: Es ist leichter zu handhaben und besser zu speichern als Wasserstoff, weil die Moleküle größer sind und es daher weniger leicht flüchtig ist. Seine Energiedichte ist viermal höher als die von Wasserstoff, und es lässt sich ohne Anpassung in die vorhandene Erdgasinfrastruktur einspeisen. „Erdgasfahrzeuge oder -heizungen können ohne Schwierigkeiten mit Methan betrieben werden“, verdeutlicht Tito Gehring vom Lehrstuhl Siedlungswasserwirtschaft und Umwelttechnik. Er führt noch einen weiteren Vorteil des Gases gegenüber Wasserstoff an, der in südlichen, wasserarmen Gegenden hergestellt wird: Exportiert man ihn und nutzt ihn hier, hat man gleichzeitig auch Wasser exportiert. Dieses Problem hat man mit Methan nicht.

Methan kann durch Bakterien sehr effizient hergestellt werden und fällt zum Beispiel in Kläranlagen als Bestandteil von Biogas an. „Manche Kläranlagen gewinnen dadurch ihren eigenen Energiebedarf und sind somit energetisch autark“, erklärt Tito Gehring. Das Biogas enthält allerdings nur 60 Prozent Methan und verschiedene andere Stoffe. Hier kommt das Konzept der Bochumer Arbeitsgruppen ins Spiel: Damit hochkonzentriertes Methan entsteht, brauchen die Mikroorganismen neben CO2 auch Wasserstoff, der dem System zugeführt werden muss. Um ihn herzustellen, entwickelte die Gruppe um Ulf-Peter Apfel von der Arbeitsgruppe Technische Elektrochemie und der Abteilung Elektrosynthese des Fraunhofer UMSICHT eigens einen Elektrolyseur mit einem edelmetallfreien Katalysator, der langlebig und energieeffizient für die Wasserstoffzufuhr sorgt.

Einen Teil des benötigten Erdgases ersetzen
So versorgt produzieren die Bakterien in einem Zusatzmodul, das im Prinzip an jeder beliebigen Kläranlage funktioniert, ein Molekül Methan pro Molekül Kohlendioxid. Dabei verstoffwechseln sie nebenbei auch noch verschiedene Inhaltstoffe des Abwassers und benötigen dabei keine weiteren Nährstoffe. „Viele Kläranlagen sind ans Erdgasnetz angeschlossen und könnten das so erzeugte Methan einfach in die Versorgung einspeisen“, erklärt Tito Gehring.

Er sieht in Grünem Methan aus Kläranlagen einen von mehreren Bausteinen der Energiewende: „Erste Abschätzungen haben ergeben, dass allein durch die CO2-Bindung aus den Abgasen der Schlammbehandlung in Kläranlagen etwa 20 Liter Methan pro Tag und pro Einwohner gewonnen werden könnten.“ Würde man das tun, würde man auch dafür sorgen, dass weniger Methan als schädliches Klimagas in die Atmosphäre gelangt. Denn die Methanfreisetzung bei der Förderung von Erdgas, Öl und Kohle ist eine sehr wichtige Emissionsquelle für dieses Treibhausgas.

Förderung
Die Arbeiten wurden gefördert durch die Deutsche Forschungsgemeinschaft (Projektkennziffer: 445401355 – Etablierung einer nachhaltigen methanogenen Kohlendioxidreduktion in bioelektrochemischen Systemen und Identifizierung kinetischer und thermodynamischer Restriktionen).

Wissenschaftliche Ansprechpartner:
Dr. Tito Gehring
Siedlungswasserwirtschaft und Umwelttechnik
Fakultät für Bau- und Umweltingenieurwissenschaft
Ruhr-Universität Bochum
Tel.: +49 234 32 22736
E-Mail: tito.gehring@ruhr-uni-bochum.de

Prof. Dr. Ulf-Peter Apfel
Technische Elektrochemie – Aktivierung kleiner Moleküle
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: +49 234 32 21831
E-Mail: ulf.apfel@ruhr-uni-bochum.de

Originalpublikation:
Ramineh Rad, Tito Gehring, Kevinjeorjios Pellumbi, Daniel Siegmund, Edith Nettmann, Marc Wichern, Ulf-Peter Apfel: A hybrid bioelectrochemical system coupling a zero-gap cell and a methanogenic reactor for carbon dioxide reduction using a wastewater-derived catholyte, in: Cell Reports Physical Science, 2023, DOI: 10.1016/j.xcrp.2023.101526, https://www.sciencedirect.com/science/article/pii/S2666386423003107?via%3Dihub

(nach oben)


Long-COVID: Besserung ist erreichbar, aber nicht bei allen Betroffenen

Dr. Uta von der Gönna Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Jena
In einer Langzeitauswertung des Post-COVID-Zentrums am Universitätsklinikums Jena zeigten über 90% der mehr als 1000 betrachteten Patienten vielfache Langzeitsymptome nach einer COVID-19-Erkrankung. Weit über die Hälfte berichtete von Erschöpfung und Konzentrationsschwäche, die über die Zeit leicht abnahmen. Auch nach über einem Jahr leidet etwa ein Fünftel der Betroffenen an ME/CFS, einer durch Infektionen ausgelösten schweren neuroimmunologischen Erschöpfungserkrankung. Das Autorenteam betont, dass spezifische interdisziplinäre Therapiekonzepte und deren Evaluierung dringend notwendig sind.

Etwa fünf bis zehn Prozent der Menschen, die sich mit Sars-CoV2 infiziert hatten, leiden auch nach Monaten und sogar Jahren noch an Langzeitfolgen. Als eine der ersten Kliniken bundesweit richtete das Universitätsklinikum Jena (UKJ) eine spezielle Ambulanz für diese Patientinnen und Patienten ein. Mit Förderung des Freistaates Thüringen ist daraus ein interdisziplinäres die Post-COVID-Zentrum entstanden. „Mittlerweile haben sich knapp 3000 Erwachsene zu einer umfassenden Eingangsdiagnostik vorgestellt“, so PD Dr. Philipp Reuken, Oberarzt in der Klinik für Innere Medizin IV des UKJ. „Mit vielen vereinbaren wir in Abhängigkeit der Beschwerden und Vorbefunde Folgetermine, im Schnitt nach einem halben Jahr.“

Das Jenaer Post-COVID-Zentrum stellte jetzt eine Langzeitauswertung vor, in die die Daten von 1022 Patientinnen und Patienten aufgenommen werden konnten. Bei knapp der Hälfte davon wurde auch die Entwicklung bis zum Folgetermin betrachtet. Fast alle Betroffenen in der Studie beklagten mehrere Langzeitsymptome als Folge der Sars-CoV-2-Infektion. Am häufigsten gaben die Betroffenen neuropsychologische Symptome an: 80 Prozent litten an Fatigue, einer schweren Erschöpfung, zwei Drittel berichteten von Konzentrationsschwäche und über die Hälfte von Gedächtnisstörungen. Bei den körperlichen Symptomen überwogen Kopf- und Muskelschmerzen, Schlafstörungen, Kurzatmigkeit, Riech- und Schmeckstörungen.

Ein Fünftel der Long-COVID-Betroffenen leidet auch nach über einem Jahr an ME/CFS
Beim Folgetermin bekundeten viele Patientinnen und Patienten eine leichte Verbesserung, die bei Fatigue und der Konzentrationsfähigkeit am deutlichsten war. Die objektiven Screeningergebnisse für Fatigue, Depressionsanzeichen und Gedächtnisvermögen ergaben bei der zweiten Visite jedoch kaum Verbesserungen im Vergleich zum ersten Besuch. Aber 30 Prozent der Betroffenen erfüllten die vollständigen Kriterien für ME/CFS. Das Kürzel steht für das Krankheitsbild einer schweren neuroimmunologischen Erschöpfungserkrankung, die durch Virusinfektionen ausgelöst werden kann, und deren Krankheitsmechanismen kaum verstanden sind. Auch bei der zweiten Visite litt noch jeder fünfte unter ME/CFS, dabei lag die Infektion bereits deutlich über ein Jahr zurück.

Typisch für ME/CFS ist, dass sich der Zustand der Betroffenen nach Anstrengung deutlich verschlechtert. „Deshalb ist es für diese Patienten besonders wichtig, ihre physischen und mentalen Kräfte konsequent einzuteilen. Das als Pacing bezeichnete Konzept spielt eine zentrale Rolle bei der Therapie“, betont Philipp Reuken. „Long-COVID ist eine langwierige Erkrankung, eine Verbesserung ist erreichbar, aber nur langsam.“

Ein großes Problem ist, dass ein relevanter Anteil der Patienten nicht mehr arbeiten gehen kann bzw. in der Versorgungsarbeit in der Familie deutlich eingeschränkt ist. Das macht die soziale Dimension der Erkrankung deutlich. „Wir benötigen spezifische interdisziplinäre Therapiekonzepte und müssen diese in Studien evaluieren, um den Patientinnen und Patienten eine zielgerichtete, aber eben auch wirksame Behandlung anbieten zu können“, sagt Prof. Dr. Andreas Stallmach, der Leiter des Post-COVID-Zentrums am UKJ. Er ist einer der Tagungspräsidenten des 2. Long-COVID-Kongresses in Jena, der sich im November neben neuen Forschungsergebnissen zur Erkrankung vor allem mit der Teilhabe der Betroffenen am sozialen und Arbeitsleben beschäftigt.

Wissenschaftliche Ansprechpartner:
PD Dr. Philipp Reuken, Prof. Dr. Andreas Stallmach
Klinik für Innere Medizin IV, Post-COVID-Zentrum, Universitätsklinikum Jena
Tel.: +49 3641 9234504
E-Mail: Philipp.Reuken@med.uni-jena.de, Andreas.Stallmach@med.uni-jena.de

Originalpublikation:
Reuken, P.A., Besteher, B., Finke, K. et al. Longterm course of neuropsychological symptoms and ME/CFS after SARS-CoV-2-infection: a prospective registry study. Eur Arch Psychiatry Clin Neurosci (2023). https://doi.org/10.1007/s00406-023-01661-3

Weitere Informationen:
https://www.uniklinikum-jena.de/Post_COVID_Zentrum.html Interdisziplinäres Post-COVID-Zentrum am UKJ
https://long-covid-kongress.de 2. Long COVID-Kongress am 24.-25. November in Jena

(nach oben)


Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Die neu benannte und klassifizierte Ordnung Darwinibacteriales ist eine der am häufigsten vorkommenden taxonomischen Gruppen von Mikroorganismen, die an der anaeroben Gärung beteiligt sind – also an der Zersetzung organischen Materials, bei der Biogas entsteht.

Diese Entdeckung gelang Forscher:innen des von der EU finanzierten Projekts Micro4Biogas unter Beteiligung der TU Dresden. Sie analysierten 80 Proben aus 45 Biogasanlagen mit dem Ziel, die Produktion des erneuerbaren Brennstoffs zu steigern.
Die Forschungsergebnisse wurden in zwei Artikeln auf dem Preprint-Server für die Biowissenschaften bioRxiv veröffentlicht. Die Begutachtung steht noch aus.

Wissenschaftler:innen des europäischen Forschungsprojektes Micro4Biogas haben eine neue taxonomische Ordnung von Bakterien entdeckt und klassifiziert, die auf die Zersetzung von organischem Material spezialisiert sind und der Schlüssel zu einer optimierten Biogasproduktion sein könnten. Die von ihnen als Darwinibacteriales bezeichnete Ordnung ist eine der am häufigsten vorkommenden Bakterien-Ordnungen in Biogasanlagen, wurde aber bisher noch nie wissenschaftlich klassifiziert.

Die Entdeckung gelang Wissenschaftler:innen aus Deutschland, Spanien und den Niederlanden, die 80 Proben von sich zersetzendem organischem Material aus 45 großen Biogasanlagen in Deutschland, den Niederlanden und Österreich entnommen und deren mikrobielle Zusammensetzung mittels DNA-Sequenzierung untersucht haben. Zu ihrer Überraschung waren in allen 80 Proben Vertreter der Darwinibacteriales zu finden, trotz der Unterschiede und der Entfernung zwischen den Anlagen.

Die Forscher:innen waren auf der Suche nach den mikrobiellen Hauptakteuren der anaeroben Gärung, bei der organisches Material abgebaut und anschließend in energiereiches Gas umgewandelt wird, das dann als Brennstoff verwendet werden kann. Dieser Vorgang gilt als Black Box, da die Rolle und Funktionsweise der meisten beteiligten Mikroorganismen bislang unbekannt ist. Eine Steigerung der Biogaserzeugung würde einen entscheidenden Wandel in der Energiewirtschaft bedeuten und die Abhängigkeit von fossilen Brennstoffen und Energieimporten verringern. Doch die fehlende mikrobiologische Forschung hat dies bisher ausgebremst.

Die Wissenschaftler:innen des Micro4Biogas-Konsortiums sind nun in der Lage, maßgeschneiderte, hocheffiziente Populationen von Biogas produzierenden Mikroben zu schaffen. Ihr Ziel ist es, Biogasanlagen robuster und weniger abhängig von Subventionen zu machen, sodass sie kommerziell betrieben werden können und die erneuerbaren Energien weltweit Auftrieb erhalten.

Die Forschenden vermuten, dass eine bestimmte Familie innerhalb dieser neuen Ordnung (die Familie Darwinibacteriaceae) in wechselseitiger Zusammenarbeit mit Archaeen stehen, einer weiteren Art von Mikroorganismen, die an der anaeroben Gärung beteiligt sind. Die Bakterien produzieren Stoffwechselverbindungen, die die Archaeen dann zur Erzeugung von Methangas nutzen. Dies deckt sich mit früheren Studien, die einen Zusammenhang zwischen der Ordnung Darwinibacteriales und der Biogasproduktion festgestellt haben. Sollten sich diese Ergebnisse bestätigen, wären diese Bakterien ein vielversprechender Ansatz für die Entwicklung von Strategien, um die Effizienz in der Biogasproduktion zu steigern.

Über das MICRO4BIOGAS-Projekt
Micro4Biogas ist ein von der EU finanziertes Projekt (H2020, Finanzhilfevereinbarung Nr. 101000470), das sich mit der Entwicklung maßgeschneiderter mikrobieller Konsortien zur Steigerung der Biogasproduktion beschäftigt.
Das Projekt vereint 15 Institutionen aus sechs Ländern und zielt darauf ab, den Ertrag, die Geschwindigkeit, die Qualität und die Reproduzierbarkeit der Biogasproduktion zu steigern und damit diese erneuerbare Energie als ökologisch, politisch und wirtschaftlich sinnvolle Option zu konsolidieren.
https://micro4biogas.eu

Wissenschaftliche Ansprechpartner:
Pascal Otto
TU Dresden
Institut für Abfall- und Kreislaufwirtschaft
Email: pascal.otto@tu-dresden.de

Originalpublikation:
R. Puchol-Royo, J. Pascual, A. Ortega-Legarreta, P. Otto, J. Tideman, Sjoerd-Jan de Vries, Chr. Abendroth, K. Tanner, M. Porcar, A. Latorre-Perez. 2023. Unveiling the ecology, taxonomy and metabolic capabilities of MBA03, a potential key player in anaerobic digestion. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556800

Pascal Otto, Roser Puchol-Royo, Asier Ortega-Legarreta, Kristie Tanner, Jeroen Tideman, Sjoerd-Jan de Vries, Javier Pascual, Manuel Porcar, Adriel Latorre-Perez, Christian Abendroth. 2023. Multivariate comparison of taxonomic, chemical and technical data from 80 full-scale an-aerobic digester-related systems. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556802

(nach oben)


Glücklich durch den Job? Wie sich das Wohlbefinden beim Einstieg ins und Austritt aus dem Berufsleben verändert.

Lisa Schimmelpfennig Pressestelle
HMU Health and Medical University GmbH
Junge Erwachsene sind nach dem Berufseinstieg glücklicher, aber auch gestresster, während das Wohlbefinden bei älteren Personen nach dem Renteneintritt zunimmt. Das fanden die Psychologieprofessorinnen Eva Asselmann von der Health and Medical University in Potsdam und Jule Specht von der Humboldt-Universität zu Berlin in einer aktuellen Studie heraus.

Die Arbeit verleiht unserem Alltag Struktur und Sinn, kann aber auch stressig sein und unser Wohlbefinden belasten. Haben der Einstieg in und der Austritt aus dem Berufsleben also positive oder negative Folgen für unser Wohlbefinden? Das haben Eva Asselmann von der Health and Medical University in Potsdam und Jule Specht von der Humboldt-Universität zu Berlin untersucht.
Die Psychologinnen analysierten die Daten von über 2.700 jungen Erwachsenen und über 2.000 älteren Personen aus dem Sozio-oekonomischen Panel (SOEP), einer repräsentativen Langzeitstudie aus Deutschland. Ihre Ergebnisse zeigen, wie sich einzelne Facetten des Wohlbefindens in den fünf Jahren vor und fünf Jahren nach dem Einstieg in und Austritt aus dem Berufsleben verändern.
Die Wissenschaftlerinnen fanden heraus, dass Berufseinsteigende in den ersten fünf Jahren im Job glücklicher wurden, sich gleichzeitig aber auch häufiger ärgerten, vermutlich aufgrund von vermehrtem Stress. Bei älteren Erwachsenen nahm das Wohlbefinden in den fünf Jahren vor dem Ruhestand zunächst ab. In den Jahren danach waren sie jedoch zufriedener, glücklicher, weniger ängstlich und weniger oft verärgert als zuvor, was für eine Entlastung nach dem Renteneintritt spricht.
Zusammengefasst untermauern die Befunde, dass das Arbeitsleben tatsächlich ein zweischneidiges Schwert ist, das unser Wohlbefinden sowohl verbessern als auch verschlechtern kann.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eva Asselmann
Professur für Differentielle und Persönlichkeitspsychologie
E-Mail: eva.asselmann@health-and-medical-university.de

Originalpublikation:
Asselmann, Eva und Specht, Jule (2023): “Working life as a double-edged sword: Opposing changes in subjective well-being surrounding the transition to work and to retirement”, Emotion, DOI: https://doi.org/10.1037/emo0001290

(nach oben)


Wasser mit intelligentem Rost und Magneten reinigen

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Neue Methode für Schadstoffe wie Rohöl, Glyphosat, Mikroplastik und Hormone

Wird Rost ins Wasser geschüttet, wird es normalerweise schmutziger. Forscher/-innen der FAU haben spezielle Eisenoxid-Nanopartikel entwickelt, die es tatsächlich sauberer machen, sozusagen „intelligenter Rost“. Dieser Rost kann je nach Beschichtung der Partikel viele Stoffe anziehen, darunter Öl, Nano- und Mikroplastik sowie das Herbizid Glyphosat. Und weil die Nanopartikel magnetisch sind, können sie mit einem Magneten ganz einfach zusammen mit den Schadstoffen aus dem Wasser entfernt werden. Jetzt berichtet das Forschungsteam, dass sie die Partikel so verändert haben, dass sie Östrogenhormone einfangen, die potenziell schädlich für Wasserlebewesen sind.

Ihre Ergebnisse haben die Forscher auf der Herbsttagung der American Chemical Society (ACS) vorgestellt, die rund 12.000 Präsentationen zu einem breiten Spektrum wissenschaftlicher Themen bietet.

„Unser intelligenter Rost ist billig, ungiftig und recycelbar“, sagt Prof. Dr. Marcus Halik, Lehrstuhl für Werkstoffwissenschaften (Polymerwerkstoffe). „Und wir haben den Einsatz bei allen Arten von Verunreinigungen nachgewiesen und das Potenzial dieser Technik für eine drastische Verbesserung der Wasseraufbereitung aufgezeigt.“

Nanopartikel fangen Schadstoffe ein
Seit vielen Jahren erforscht Haliks Forschungsteam umweltfreundliche Möglichkeiten, Schadstoffe aus Wasser zu entfernen. Als Grundmaterial dienen Eisenoxid-Nanopartikel in superparamagnetischer Form: Das heißt, sie werden von Magneten angezogen, nicht aber voneinander, so dass die Partikel nicht verklumpen.

Um sie „intelligent“ zu machen, entwickelte das Team eine Technik, um Phosphonsäuremoleküle an die nanometergroßen Kügelchen zu binden. „Nachdem wir eine Schicht der Moleküle auf die Eisenoxidkerne aufgetragen haben, sehen sie aus wie Haare, die aus der Oberfläche dieser Partikel herausragen“, sagt Halik. Indem die Wissenschaftler/-innen dann ändern, was an der anderen Seite der Phosphonsäuren gebunden ist, können sie die Eigenschaften der Nanopartikeloberflächen so anpassen, dass sie verschiedene Arten von Schadstoffen stark adsorbieren.

Frühe Versionen des intelligenten Rosts fingen Rohöl aus Wasser aus dem Mittelmeer und Glyphosat aus Teichwasser ein, das die Forscherinnen und Forscher in der Nähe der Universität sammelten. Darüber hinaus zeigte das Team, dass der smarte Rost Nano- und Mikroplastik entfernen kann, das Labor- und Flusswasserproben zugesetzt wird.

Nach Rohöl, Glyphosat und Mikroplastik nun Hormone
Bisher konzentrierte sich die Gruppe auf Schadstoffe, die meist in großen Mengen vorhanden sind. Lukas Müller, ein Doktorand, der auf der Tagung seine neuen Arbeiten vorstellte, wollte wissen, ob er die Rost-Nanopartikel so modifizieren könnte, dass sie Spurenverunreinigungen wie Hormone anziehen.

Wenn einige unserer körpereigenen Hormone ausgeschieden werden, werden sie ins Abwasser gespült und gelangen schließlich in die Gewässer. Natürliche und synthetische Östrogene sind eine solche Gruppe von Hormonen, und die Hauptquellen dieser Schadstoffe sind Abfälle von Menschen und Nutztieren. Die Mengen an Östrogenen seien in der Umwelt sehr gering, so Müller, daher seien sie nur schwer zu entfernen. Doch selbst diese Konzentrationen beeinflussen nachweislich den Stoffwechsel und die Fortpflanzung einiger Pflanzen und Tiere, obwohl die Auswirkungen niedriger Konzentrationen dieser Verbindungen auf den Menschen über lange Zeiträume noch nicht vollständig erforscht ist.

Östrogene haften an Rostpartikeln an
„Ich habe mit dem häufigsten Östrogen Östradiol begonnen und dann vier weitere Derivate mit ähnlichen Molekülstrukturen untersucht“, sagt Müller. Östrogenmoleküle haben einen sperrigen Steroidkörper und Teile mit leicht negativen Ladungen. Um beide Eigenschaften zu nutzen, beschichtete er Eisenoxid-Nanopartikel mit zwei Gruppen von Verbindungen: einer langen und einer positiv geladenen. Die beiden Moleküle organisierten sich auf der Oberfläche der Nanopartikel, und die Forschungsgruppe geht davon aus, dass sie zusammen viele Milliarden winziger Taschen bilden, die das Östradiol ansaugen und an Ort und Stelle festhalten.

Da diese Taschen für das bloße Auge unsichtbar sind, hat Müller High-Tech-Instrumente verwendet, um die Existenz dieser Östrogen-einschließenden Taschen zu überprüfen. Vorläufige Ergebnisse zeigen eine effiziente Extraktion der Hormone aus Laborproben, aber die Forschenden müssen zusätzliche Experimente abwarten, um die Taschenhypothese zu überprüfen. „Wir versuchen anhand verschiedener Puzzleteile zu verstehen, wie sich die Moleküle tatsächlich auf der Oberfläche der Nanopartikel anordnen“, erklärt Müller.

Ansprechpartner für Medien:
Prof. Dr. Marcus Halik
Professur für Werkstoffwissenschaften (Polymerwerkstoffe)
Tel.: 09131/85-70367
marcus.halik@fau.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marcus Halik
Professur für Werkstoffwissenschaften (Polymerwerkstoffe)
Tel.: 09131/85-70367
marcus.halik@fau.de

Weitere Informationen:
http://www.fau.de/2023/08/news/wissenschaft/wasser-mit-intelligentem-rost-und-ma… Video zu den Forschungsergebnissen (Simulation von Prof. Dr. Dirk Zahn und Dr. Dustin Vivod vom Computer Chemistry Center der FAU)

(nach oben)


Forschungsprojekt für nachhaltigen Wasserverbrauch sucht Testhaushalte

Alex Deeg PR und Marketing
Fraunhofer-Institut für Angewandte Informationstechnik FIT
Die Nutzung von Wasser überwachen, Sparpotenziale aufzeigen und die Verwendung von Regenwasser erforschen: Mit diesen Zielen leitet Fraunhofer FIT das vom Bundesministerium für Wirtschaft und Klimaschutz geförderte Projekt CrowdWater. Zweck des Projekts ist die Entwicklung einer regionalen Wasser-Datenplattform für die private, öffentliche sowie gewerbliche Nutzung. Für die Erarbeitung praxisnaher Lösungen werden aktuell etwa 30 Testhaushalte gesucht.

>>Wasser bewusst nutzen
Noch gibt es in Deutschland ausreichend Trinkwasser. Doch das Land trocknet infolge der globalen Erderwärmung langsam aus. Die Grundwasserbestände sinken. Ein Grund dafür ist nach Einschätzung des Umweltbundesamts die abnehmende Aufnahme- und Speicherfähigkeit des Erdbodens infolge von starken Klimaereignissen. Die genaue Entwicklung und ihre Folgen für bestimmte Gebiete lassen sich aktuell noch schwer abschätzen, da es keine präzise Informationslage über Wassermengen und den Einfluss von Sparmaßnahmen auf ausgewählte Regionen gibt.

Hier setzt das Projekt CrowdWater (Crowdbasiertes Monitoring und Vorhersage für nachhaltige Regen- & Trinkwassernutzung) an, indem es Sensordaten zum Kreislauf der Wassernutzung erfasst und verarbeitet. Ein umfassendes Monitoring in Echtzeit ermöglicht, dass Haushalte ihren Wassereinsatz erfolgreich planen und Wartungsarbeiten in Versorgungsunternehmen nutzengerechter durchgeführt werden können. Mit einem Angebot an Veranstaltungen und Lehrmaterialien wird CrowdWater darüber hinaus ein Grundverständnis von nachhaltiger Wassernutzung vermitteln, welche auch verfügbares Regenwasser mit einbezieht.

Zur Strategie des Projekts gehört die Verknüpfung intelligenter Messgeräte mit digitalen Werkzeugen. Innerhalb eines vielfältigen IoT-Netzwerks (Internet of Things oder Internet der Dinge) sollen zukünftig der genaue Bedarf an Wasser bestimmt und eventuelle Verluste identifiziert werden können. Dies gelingt unter anderem durch die Berücksichtigung aktueller Wetterdaten. Um den Verbrauch der lebenswichtigen Ressource in betrieblichen Prozessen zu ermitteln, sollen mobile Messkoffer zum Einsatz kommen.

>>Interaktiver Lösungsansatz dank Living Lab
Das Erfahrungswissen und die Lebenswirklichkeit von Verbraucherinnen und Verbrauchern spielen eine zentrale Rolle in der Erforschung ihrer Wassernutzung. CrowdWater möchte deshalb rund 30 Testhaushalte und drei bis sechs Unternehmen in einem Living Lab vernetzen. Ein Living Lab ist ein virtuelles Labor zur Forschung unter Realbedingungen. Die ausgewählten Haushalte werden mit entsprechender Sensorik ausgestattet, um Daten über die Umsetzbarkeit der Werkzeuge zu erheben und Anreizmechanismen zum Wassersparen zu testen.

Als Teilnehmende am Living Lab sollten Sie sich idealerweise für die Erforschung nachhaltiger Regen- und Trinkwassernutzung interessieren und zu einer aktiven Mitgestaltung bereit sein. Weiterhin werden vorwiegend Haushalte aus dem Rhein-Sieg-Kreis oder Nordrhein-Westfalen gesucht. Bei Interesse oder auch allgemeinen Fragen zum Projekt können Sie sich an unsere Living Lab Koordinatorin Anika Martin (anika.martin@fit.fraunhofer.de) wenden.

>>Breit gefächerte Beteiligung
Sowohl kommunale als auch wirtschaftliche Projektpartnerschaften bereichern CrowdWater mit Expertise und Ressourcen. Um das wichtige Thema Datenschutz sowie die Organisation der Living Labs kümmert sich das Fraunhofer-Institut für Angewandte Informationstechnik FIT. Die Stadtwerke Troisdorf, die Stadt Hennef und die Verbandsgemeindewerke Kirchen stellen sich für die praktische Umsetzung der Wassersparmaßnahmen zur Verfügung. Daran beteiligt ist auch die Biesenthal Wasserzähler GmbH, die mit den behördlichen Partnern technische Anforderungen herausarbeitet. Sie unterstützt deren Machbarkeitsuntersuchung und kooperiert so mit Fraunhofer FIT und der si-automation GmbH. Ebenfalls im Aufgabenbereich der si-automation GmbH liegt die Entwicklung und Testung vorläufiger Lösungen.

Weitere Informationen zum Projekt und aktuelle Infos finden Sie unter https://crowdwater.info

(nach oben)


Babyboomer arbeiten im Alter länger – aber noch Potenzial ab Alter 63

Dr. Christian Fiedler Pressestelle
Bundesinstitut für Bevölkerungsforschung (BiB)
Ältere Menschen länger im Erwerbsleben zu halten ist eine wesentliche Stellschraube, um dem Arbeitskräftemangel in Deutschland zu begegnen. Eine aktuelle Studie im renommierten Fachjournal Demography aus dem Bundesinstitut für Bevölkerungsforschung (BiB) in Zusammenarbeit mit dem Max-Planck-Institut für demografische Forschung (MPIDR) hat jetzt neue Berechnungen zur tatsächlich geleisteten Arbeitszeit älterer Personen vorgelegt. Das Ergebnis: In der Altersspanne zwischen 55 und 64 Jahren verbringen die Babyboomer deutlich mehr Zeit in bezahlten Jobs als dies in früheren Generationen der Fall war.

Bei einer für diese Altersgruppe rechnerisch maximal möglichen Erwerbsdauer von 10 Jahren in durchgehender Vollzeitbeschäftigung waren 1941 geborene Männer im Durchschnitt 5,3 Jahre erwerbstätig. Beim Geburtsjahrgang 1955, der zu den Babyboomern gehört, lag der entsprechende Wert mit 7,3 Jahren bereits zwei Jahre höher. Bei Frauen gab es fast eine Verdopplung von 2,6 auf 4,8 Jahre. In der ebenfalls betrachteten Altersspanne 65 bis 74 Jahre wurden ausgehend von einem niedrigen Niveau ebenfalls Anstiege verzeichnet. „Ein Großteil der in den letzten Jahrzehnten erfolgten Zuwächse konzentriert sich allerdings in den Altern 55 bis 63 Jahre“, erklärt Sebastian Klüsener, Forschungsdirektor am BiB. „Ab 64 Jahren sind die Anstiege deutlich geringer gewesen.“

Steigende Erwerbslebensdauer in allen betrachteten Gruppen
Wie aus der Studie weiter hervorgeht, ist die Erwerbslebensdauer bei allen untersuchten Gruppen gestiegen: bei Männern und Frauen, über alle Bildungs- und Berufsgruppen hinweg sowie für Erwerbstätige in Ost- und in Westdeutschland. Die geringsten Zuwächse wurden bei niedrigen Bildungs- und Berufsgruppen verzeichnet, die stärksten bei Fachkräften und gehobenen Fachkräften. Vor allem bei Menschen, die nach 1946 geboren wurden, hat sich die Erwerbslebensdauer kräftig verlängert. „Diese Entwicklung wird durch verschiedene Faktoren beeinflusst“, so Klüsener. „Hierzu zählen politische Reformen im Bereich von Arbeitsmarkt und Rente. Ein weiterer Faktor ist, dass die Babyboomer als Profiteure der nach 1970 erfolgten Bildungsexpansion ein höheres Bildungsniveau aufweisen und gesünder altern als vorherige Generationen.“

Bei den Geschlechtern gibt es starke Ost-West-Unterschiede
Bei einem Ost-West-Vergleich fallen deutliche Unterschiede zwischen Männern und Frauen auf: Bei den 1955 geborenen Personen hatten westdeutsche Männer mit 7,4 Jahren die höchste Erwerbslebensdauer im Alter zwischen 55 und 64 Jahren. Dagegen war diese bei westdeutschen Frauen mit 4,6 Jahren am niedrigsten. Zwischen den beiden Extremen lagen ostdeutsche Männer mit 6,8 Jahren und ostdeutsche Frauen mit 5,5 Jahren. „Die Unterschiede zwischen west- und ostdeutschen Männern gehen hauptsächlich auf abweichende Erwerbstätigenquoten zurück“, sagt Elke Loichinger, Forschungsgruppenleiterin am BiB. „Die Differenzen bei den Frauen erklären sich hingegen vorrangig durch Unterschiede bei den geleisteten Arbeitsstunden.“ So haben ältere westdeutsche Frauen zwar ähnlich hohe Erwerbstätigenquoten wie ältere ostdeutsche Frauen, letztgenannte absolvieren aber durchschnittlich deutlich mehr Stunden pro Woche. Hier scheint sich positiv auszuwirken, dass in den betrachteten Generationen ostdeutsche Frauen schon von einer gut ausgebauten Kinderbetreuung profitieren konnten, während viele westdeutsche Frauen mit der Mutterschaft ihre Arbeitszeit erheblich reduzierten.

Weiteres Potenzial für Anstiege vorhanden
Die ermittelten Werte zur durchschnittlichen Erwerbslebensdauer zeigen aber auch, dass weitere Potenziale für die Ausdehnung der Erwerbslebensdauer bestehen. Dies gilt allgemein für Erwerbstätigkeit im Alter von 63 und mehr Jahren und besonders für Frauen, gerade in Westdeutschland. „Ob diese Potenziale erschlossen werden können, hängt davon ab, inwieweit ein Verbleib im Arbeitsmarkt attraktiv und möglich ist“, so Loichinger. „Dabei spielt eine Vielzahl an Faktoren eine Rolle. Hierzu zählen beispielsweise arbeitsmarktpolitische Anreize, die Art der Tätigkeit oder die Flexibilität der Arbeitszeitgestaltung. Auch die Ausübung unbezahlter Sorgearbeiten innerhalb der Familie kann bezahlter Erwerbsarbeit entgegenstehen.“

Zur Methode
Das in Deutschland bisher nur selten verwendete Maß „Erwerbslebensdauer“ basiert auf einer Kombination von Erwerbstätigkeit und geleisteter Arbeitszeit – es gibt die Anzahl der Jahre an, in denen jemand einer bezahlten Tätigkeit nachgegangen ist. Ob Voll- oder Teilzeit gearbeitet wird, macht hier einen wichtigen Unterschied. Das Maß erlaubt, die Dauer des Erwerbslebens für den gesamten Lebensverlauf (in diesem Fall ist auch von „Lebensarbeitszeit“ die Rede) oder nur für bestimmte Altersabschnitte zu berechnen. Dies ermöglicht Einsichten zur Verlängerung des Erwerbslebens, die über die übliche Betrachtung der reinen Erwerbstätigenquoten hinausgehen. Für die Untersuchung wurden Daten des Mikrozensus der Geburtsjahrgänge 1941 bis 1955 analysiert.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Klüsener
Sebastian.Kluesener@bib.bund.de

Dr. Elke Loichinger
Elke.Loichinger@bib.bund.de

Originalpublikation:
Dudel, Christian; Loichinger, Elke; Klüsener, Sebastian; Sulak, Harun; Myrskylä, Mikko (2023): The Extension of Late Working Life in Germany: Trends, Inequalities, and the East–West Divide.Demography.
https://doi.org/10.1215/00703370-10850040

(nach oben)


Dieselabgase schädigen Insekten: Bayreuther Tierökolog*innen erforschen erstmals die Auswirkungen auf Hummeln

Christian Wißler Pressestelle
Universität Bayreuth
Der Rückgang der Insekten bedroht weltweit viele Ökosysteme. Während die Auswirkungen von Pestiziden gut erforscht sind, fehlte es bisher an Erkenntnissen über die Folgen anderer anthropogener Schadstoffe. Tierökolog*innen der Universität Bayreuth haben jetzt erstmals die Auswirkungen von Dieselabgaspartikeln auf Hummeln untersucht. In zwei neuen Studien zeigen sie, dass diese Feinstaubpartikel den Organismus der Hummeln erheblich schädigen können, wenn sie dauerhaft über die Nahrung aufgenommen werden. Das Bayerische Staatsministerium für Umwelt und Verbraucherschutz hat die Forschungsarbeiten im Rahmen des Projektverbunds BayÖkotox gefördert.

Abgaspartikel von Diesel-Kraftfahrzeugen können beim Menschen zu Atemwegs- oder Lungenerkrankungen führen. In der freien Natur gelangen sie oftmals in den Nektar von Pflanzenblüten, von dem sich Hummeln und andere Insekten ernähren. Die Wissenschaftler*innen am Lehrstuhl für Tierökologie der Universität Bayreuth haben diese Konstellation im Labor nachgestellt. Als Modellorganismus wählten sie Hummeln der weit verbreiteten Art Bombus terrestris (Dunkle Erdhummel). In Kooperation mit dem Lehrstuhl für Technische Thermodynamik und Transportprozesse der Universität Bayreuth erzeugten sie in einem Vierzylinder-Dieselmotor, wie er häufig in PKWs vorkommt, Abgaspartikel, die durch Verbrennungsprozesse entstehen. Diese Partikel wurden dem Zuckerwasser beigemischt, mit dem die Hummeln im Labor täglich gefüttert wurden. Die Menge entsprach dabei der Menge von Dieselabgaspartikeln, wie sie bereits in Böden in der Nähe vielbefahrener Landstraßen nachgewiesen worden waren. Die Analyse der Partikel in den Bayreuther Laboratorien zeigte jetzt, dass sie teilweise aus elementarem Kohlenstoff bestehen, aber auch Schwermetalle und weitere organische Substanzen, wie polyzyklische aromatische Kohlenwasserstoffe (PAKs), enthalten. PAKs stehen im Verdacht, für den Menschen toxisch zu sein und die Entstehung von Krebs zu fördern.

Veränderungen des Mikrobioms im Darm: Indizien für eine Schwächung des Immunsystems
Nachdem die Hummeln sieben Tage lang bei jeder Mahlzeit auch Abgaspartikel zu sich genommen hatten, stellten die Wissenschaftler*innen eine erheblich veränderte Zusammensetzung des Darmmikrobioms fest: Von den Bakterienarten, welche normalerweise die hauptsächlichen Bestandteile der Darmflora von Hummeln bilden, waren einige viel häufiger, andere dagegen seltener anzutreffen. Insbesondere das Bakterium Snodgrassella, das für die Bildung eines den Darm schützenden Biofilms wichtig ist, war nur noch in sehr geringer Anzahl vorhanden. Derartige Veränderungen im Darmmikrobiom sind in der Forschung dafür bekannt, dass sie bei Insekten die Immunität und die Resistenz gegen Krankheitserreger schwächen können und damit deren Sterblichkeit erhöhen.

Sinkender Fettgehalt des Körpers und erhöhte Sterblichkeit
In einer weiteren Studie stand die Frage im Fokus, wie sich die Partikel auf das Immunsystem der Insekten auswirken. Zehn Tage lang nahmen die Hummeln Abgaspartikel zu sich, die dem Zuckerwasser in unterschiedlich hohen Konzentrationen beigemischt waren. Danach war ihr Fettgehalt im Vergleich mit Hummeln, die normales Futter erhielten, erheblich gesunken. „Der verringerte Fettgehalt ist ein Indiz dafür, dass die Partikel im Körper der Hummeln Entgiftungsprozesse auslösen, die mit einem erhöhten Energieverbrauch verbunden sind. Auch diese Untersuchungen legen die Schlussfolgerung nahe: Die tägliche Aufnahme von Abgaspartikeln über die Nahrung versetzt den Organismus der Hummeln in Stress. Wir haben beobachtet, dass sich ihre Sterblichkeit signifikant erhöht“, sagt der Erstautor Frederic Hüftlein M.Sc., Doktorand am Lehrstuhl für Tierökologie.

Veränderungen der Genexpression: Weiteres Indiz für eine energieintensive Stressreaktion
Ebenso zeigten sich deutliche Veränderungen der Genexpression, der von Genen gesteuerten Herstellung lebenswichtiger Proteine. Die Analyse des Transkriptoms – dies ist die Gesamtheit der zu einem bestimmten Zeitpunkt erzeugten RNA-Moleküle – ergab, dass sich die Expression von 324 Genen verändert hatte. Die Produktion von RNA-Molekülen wurde bei 165 Genen intensiviert, bei 159 Genen hingegen verringert. Die beobachteten Veränderungen können als Indizien dafür gewertet werden, dass die über einen längeren Zeitraum mit der Nahrung aufgenommenen Abgaspartikel Abbauprozesse im Organismus der Hummeln fördern, Prozesse der Biosynthese hingegen verlangsamen.

„Vieles spricht dafür, dass es sich bei der veränderten Genexpression um eine Stressreaktion handelt, welche die Energieressourcen der Insekten angreift und schwächt. An der Universität Bayreuth planen wir in nächster Zeit weitere Untersuchungen, um diese Zusammenhänge noch genauer aufzuklären. Dabei wollen wir nicht nur einzelne Insekten, sondern ganze Kolonien betrachten und zusätzlich zu den Dieselabgasen noch andere anthropogene Stressfaktoren in die Forschungsarbeiten einbeziehen“, sagt Prof. Dr. Heike Feldhaar, Leiterin des Teilprojekts „Einfluss von Feinstaub auf Insekten“ im Bayerischen Projektverbund BayÖkotox.

Schädigende Auswirkungen nur bei chronischer Aufnahme der Partikel über die Nahrung
Die Autor*innen der neuen Studien betonen, dass sich erhebliche Beeinträchtigungen der Hummeln durch Dieselabgase nur dann feststellen ließen, wenn die Partikel über die Nahrung aufgenommen wurden. Experimente, bei denen die Partikel von den Hummeln eingeatmet wurden, ergaben keine Hinweise auf gesundheitliche Schäden. „Wenn die Hummeln einmalig oder nur im Verlauf von 48 Stunden mehrmals mit den Partikeln gefüttert wurden, blieben messbare signifikante Reaktionen aus. Auch der Fettgehalt im Körper der Hummeln änderte sich kaum. Entscheidend für eine Schädigung der Hummeln ist, dass die Aufnahme der Abgaspartikel chronisch ist, sich also innerhalb eines längeren Zeitraums wiederholt. Wenn Pflanzen und Böden belastet sind, ist eine chronische Exposition mit den Schadstoffen denkbar“, berichtet Dr. Matthias Schott vom Lehrstuhl für Tierökologie.

Die Autor*innen weisen zudem darauf hin, dass unter natürlichen Bedingungen auch eine nicht-tödliche Wirkung der Abgaspartikel für Hummeln problematisch sein kann. Denn meistens sind Hummeln in der Umwelt mehreren Stressfaktoren gleichzeitig ausgesetzt, beispielsweise weiteren Umweltschadstoffen wie Pestiziden oder auch hohen Tagestemperaturen im Sommer.

Interdisziplinäre Zusammenarbeit in Bayreuth
„Seit etwa zehn Jahren ist in zahlreichen Regionen der Erde ein rascher Rückgang der Insekten zu beobachten. Diese Entwicklung ist besorgniserregend, weil Insekten viele wichtige Ökosystemfunktionen wie Bestäubung, Zersetzung von organischem Material und Schädlingsbekämpfung erfüllen oder dazu beitragen. Sie bilden zudem ein unentbehrliches Glied in den Nahrungsnetzen. Mittlerweile ist klar, dass die Umweltverschmutzung einer der Hauptgründe für diesen Rückgang ist. An der Universität Bayreuth wollen wir mit unseren Kompetenzen dazu beitragen, die Zusammenhänge von Ursachen und Wirkungen auch auf molekularer und zellbiologischer Ebene aufzuklären“, sagt Prof. Dr. Christian Laforsch vom Lehrstuhl für Tierökologie und verweist auf die enge interdisziplinäre Zusammenarbeit im Projekt BayÖkotox.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Heike Feldhaar
Lehrstuhl für Tierökologie I
Leiterin des Teilprojekts „Einfluss von Feinstaub auf Insekten“
im Projektverbund BayÖkotox
Universität Bayreuth
Telefon: +49 (0)921 / 55-2645
E-Mail: heike.feldhaar@uni-bayreuth.de

Dr. Matthias Schott
Lehrstuhl für Tierökologie I
Universität Bayreuth
Telefon: +49 (0)921 / 55-2654
E-Mail: matthias.schott@uni-bayreuth.de

Originalpublikation:
Dimitri Seidenath et al.: Diesel exhaust particles alter gut microbiome and gene expression in the bumblebee Bombus terrestris. Ecology and Evolution (2023), DOI: https://doi.org/10.1002/ece3.10180

Frederic Hüftlein et al.: Effects of diesel exhaust particles on the health and survival of the buff-tailed bumblebee Bombus terrestris after acute and chronic oral exposure. Journal of Hazardous Materials (2023), DOI: https://doi.org/10.1016/j.jhazmat.2023.131905

(nach oben)


Pflege vor dem Kollaps? – 3. Fachtagung Gesundheitsförderung und Prävention in der Pflege

Dr. Elena Wassmann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Pflege vor dem Kollaps? PRO*PFLEGE und die Digitalisierung stehen bei der 3. Fachtagung Gesundheitsförderung und Prävention in der Pflege am 6. und 7. November an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen als Lösungen für die Gesundheit von Pflegefachpersonen zur Diskussion.

Die pflegerische Versorgung ist deutschlandweit gefährdet. Oft gehen Pflegefachpersonen bis an ihre Grenzen, um den verbreiteten Personalmangel aufzufangen. Dabei sind sie hohen gesundheitlichen Belastungen ausgesetzt. Innovative und professionelle Lösungen, die Handlungswege aufzeigen und ihre Gesundheit stärken, sind zwingend erforderlich.

Die 3. Fachtagung Gesundheitsförderung und Prävention stellt erneut Wege für die Pflege vor. Unter dem Motto ‚Wollen wir Treiber oder Getriebene sein?‘ wird am 6. und 7. November 2023 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen (HWG LU) gezeigt, dass Pflegeethik, Gesundheitsförderung und Professionalität im Zusammenspiel mit der Digitalisierung helfen können. Sie ermöglichen Pflegefachpersonen, ihren Heilberuf Pflege selbst zu gestalten. Das Forschungsnetzwerk Gesundheit der HWG LU hat Expert*innen aus Politik, Wissenschaft, Management und IT eingeladen, mit den Pflegefachpersonen in die Diskussion zu gehen.

Die Tagungsreihe ist ein Beitrag zur Fachkräfte- und Qualifizierungsinitiative Pflege 2.1 des Landes Rheinland-Pfalz, angesiedelt im Ministerium für Arbeit, Soziales, Transformation und Digitalisierung. Staatsminister Alexander Schweizer wird sich in seinem Grußwort der Digitalisierung in der Pflege widmen. Staatssekretär Dr. Fedor Ruhose wird zum Abschluss des vom Land geförderten Pilotprojektes PRO*PFLEGE sprechen. „Wir freuen uns sehr, dass die Fachtagung wieder an unserer Hochschule stattfindet und Innovation und Wertschätzung für die Pflege in den Fokus stellt“, betont Prof. Dr. Gunther Piller, Präsident der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen.

Die beiden Tage zeigen zwei eng miteinander verwobene Bausteine zur Förderung der Gesundheit. Am ersten Tag liegt der Fokus auf PRO*PFLEGE. Die Ergebnisse der erfolgreichen Fachtagungen 2019 und 2020 ergaben den dringenden Bedarf eines passgenauen Bildungsformats. PRO*PFLEGE verbindet Pflegeethik, Gesundheitsförderung und Professionalität. Der Zertifikatskurs bietet Pflegefachpersonen mannigfaltige Ressourcen zur Steigerung ihrer Handlungsfähigkeit und der Resilienz im Pflegeunternehmen. Gefördert vom Land Rheinland-Pfalz, der Unfallkasse RLP und der Franziskusstiftung für Pflege entwickelte das Forschungsnetzwerk Gesundheit mit Unterstützung der Graduate School Rhein-Neckar PRO*PFLEGE. Im April 2023 startete der Pilotdurchlauf, hochqualifizierte Expert*innen konnten als Kooperationspartner gewonnen werden. An diesem Tag geben sie Einblicke in Instrumente zum Umgang mit psychischer Belastung und Gewalt in der Pflege und zeigen die Ressourcen, die Pflegeethik, Personal- und Organisationsentwicklung und das Betrieblichen Gesundheitsmanagement bieten. Kursteilnehmende stellen ihre entwickelten Konzepte zum Gesundheitsförderung im Pflegeunternehmen vor.

Der zweite Tag schließt unmittelbar an den Unterstützungsgedanken an: Beleuchtet wird das Megathema Digitalisierung in der Pflege und hinterfragt, ob sie Herausforderung oder Chance für die Gesundheit von Pflegefachpersonen ist. Förderer ist die Unfallkasse Rheinland-Pfalz. Fachleute aus Pflegewissenschaft, Pflegepädagogik und IT in der Pflege werden Projekte, Studien und Tools für die Pflege vorstellen. Zur Diskussion stehen, inwiefern die Digitalisierung Einfluss auf Arbeitszufriedenheit und Berufsverbleib von Pflegefachpersonen hat; ob digitale Technologien die Pflegepraxis beispielsweise bei der Versorgung vom Menschen mit Demenz unterstützen können, ohne die Beziehungsarbeit zu verdrängen; ob digitale Lernformate die Pflegebildung fördern können und ob die Pflegebeziehung durch die Nutzung digitaler Instrumente im Pflegeprozess gestärkt wird. Auf dem Marktplatz der Möglichkeiten können die digitalen Lösungen ausprobiert und mannigfaltige Informationen rund um die Themen Gesundheitsförderung, Prävention und Digitalisierung eingeholt werden.

„Mit dieser dritten Fachtagung geben wir der professionellen und gesunden Pflege die verdiente Bedeutung, greifen die Sorgen der Pflegefachpersonen auf, die Personalmangel, Pandemie und Digitalisierung bringen und zeigen konkrete Beispiele und Methoden für ihre jeweilige Praxis auf“, erläutert Organisatorin Dr. Andrea Kuhn vom Forschungsnetzwerk Gesundheit der Hochschule das Tagungskonzept.

Die Veranstaltung beginnt am 6. November um 11.30 Uhr, am 7. November um 9.00 Uhr und endet um circa 17.30 Uhr. Sie findet in der Aula der Hochschule im A-Gebäude, Ernst-Boehe-Straße 4, 67059 Ludwigshafen, statt. Die Anmeldung erfolgt unter https://www.veranstaltungen.hwg-lu.de/event/3-fachtagung-gesundheitsforderung-un…

Aus organisatorischen Gründen ist diese bis zum 27. Oktober 2023 möglich.

Wissenschaftliche Ansprechpartner:
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Forschungsnetzwerk Gesundheit
Dr. Andrea Kuhn – Projektleitung
E-Mail: andrea.kuhn@hwg-lu.de
Tel.: +49 621 5203 244

Weitere Informationen:
https://forschungsnetzwerk-gesundheit.hwg-lu.de/kommunikation/gesundheitsfoerder…

Anhang
Programm Fachtagung Gesundheitsförderung und Prävention in der Pflege

(nach oben)


Künstliche Intelligenz an menschliche Bedürfnisse anpassen

Lena Bender Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Pierre-Alexandre Murena ist neuer Professor an der TU Hamburg.

„Meine Vision im Umgang mit Künstlicher Intelligenz (KI) ist, den Menschen und das KI-System als ein Team zu betrachten, das ein gemeinsames Ziel anstrebt. Sie sollen sich im Umgang miteinander als Partner verstehen, die sich gegenseitig Hinweise geben, sich korrigieren und relevante Informationen austauschen.“ Das sagt Pierre-Alexandre Murena, neuer Juniorprofessor an der TU Hamburg. Seine Arbeit zielt genau auf die Schnittstelle zwischen dem maschinellen Lernen in seiner jetzigen Form und seinen Nutzerinnen und Nutzern ab. Der Mathematiker und Informatiker befasst sich mit menschenzentrierter Künstlicher Intelligenz. Was heute in aller Munde ist, hatte vor zehn Jahren noch einen Exotenstatus. Murena berichtet: „Als ich damals mein Interesse an KI erwähnte, fragten mich die Leute nach Terminator und Science-Fiction-Szenarien. Heute erzählen sie mir von ihren Versuchen, Künstliche Intelligenzen wir ChatGPT oder Midjourney zu nutzen. Das ist eine enorme Entwicklung, und ich denke, es ist wichtig, die Menschen dabei zu begleiten.“ Murenas Ziel ist, die KI stärker auf den Menschen auszurichten, um die Nutzung von KI-Tools für Wissenschaftler und Ingenieure zu erleichtern, die maschinelle Lernmodelle für ihre Forschung benötigen. All dies ist in der Praxis äußerst komplex: weil Interaktionen eher kurz sind und der KI nicht genügend Zeit gegeben wird, etwas zu lernen; und weil kognitive Modelle komplex sind und das Erlernen ihrer Parameter oft schwierig bis unmöglich ist.

„Die KI zu trainieren ist manchmal frustrierend“
In einer Beziehung unterscheidet sich der Mensch von der KI: Menschen interpretieren, was andere sagen, dadurch können Aussagen ungenau oder sogar falsch werden. „Sich anzupassen ist eine Fähigkeit, die wir haben, sie fehlt der KI. Diese Lücke soll eine menschenzentrierte KI einmal schließen. Aber der Weg dahin ist manchmal frustrierend, weil es so einfach zu sein scheint, aber schwierig zu erreichen ist!“, so Murena. „Obwohl die Frage der menschenzentrierten KI meiner Meinung nach in den kommenden Jahren eine große Herausforderung darstellen wird, liegt der Fokus der meisten Universitäten und Forschungszentren nach wie vor auf der Entwicklung starker autonomer maschineller Lernsysteme. Die Tatsache, dass die TU Hamburg eine Stelle zu diesem Thema eingerichtet hat, war für mich ein gutes Zeichen, dass die Universität diesen wichtigen Wandel voraussieht.“

KI für die Kunst
Prof. Murena studierte Angewandte Mathematik und Informatik an der Ecole Polytechnique und der Ecole Normale Supérieure in Cachan (Frankreich) und er promovierte an der Université Paris-Saclay. Danach zog es ihn als Postdoc für drei Jahre nach Finnland, an die Aalto University und die Universität Helsinki. Dort wirkte er an verschiedenen Projekten im Bereich des maschinellen Lernens mit Menschen mit und leitete eine Forschungsgruppe am Finnish Center for Artificial Intelligence (FCAI). „Ich habe mich schon immer für Naturwissenschaften interessiert, vor allem für die Mathematik. Aber ich habe noch eine andere Leidenschaft, nämlich die Kunst.“, so Murena. Beides versucht er zu verbinden und unterstützt Kunst Schaffende, mit KI zu arbeiten. Außerhalb der Universität kann man Murena im Hafengebiet antreffen, wo er alte Industriebeuten fotografiert. Daneben geht er gerne ins Kino, spielt Klavier, kocht oder bereitet mit seiner Eismaschine leckere Sorten zu.

(nach oben)


Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Die neu benannte und klassifizierte Ordnung Darwinibacteriales ist eine der am häufigsten vorkommenden taxonomischen Gruppen von Mikroorganismen, die an der anaeroben Gärung beteiligt sind – also an der Zersetzung organischen Materials, bei der Biogas entsteht.

Diese Entdeckung gelang Forscher:innen des von der EU finanzierten Projekts Micro4Biogas unter Beteiligung der TU Dresden. Sie analysierten 80 Proben aus 45 Biogasanlagen mit dem Ziel, die Produktion des erneuerbaren Brennstoffs zu steigern.
Die Forschungsergebnisse wurden in zwei Artikeln auf dem Preprint-Server für die Biowissenschaften bioRxiv veröffentlicht. Die Begutachtung steht noch aus.

Wissenschaftler:innen des europäischen Forschungsprojektes Micro4Biogas haben eine neue taxonomische Ordnung von Bakterien entdeckt und klassifiziert, die auf die Zersetzung von organischem Material spezialisiert sind und der Schlüssel zu einer optimierten Biogasproduktion sein könnten. Die von ihnen als Darwinibacteriales bezeichnete Ordnung ist eine der am häufigsten vorkommenden Bakterien-Ordnungen in Biogasanlagen, wurde aber bisher noch nie wissenschaftlich klassifiziert.

Die Entdeckung gelang Wissenschaftler:innen aus Deutschland, Spanien und den Niederlanden, die 80 Proben von sich zersetzendem organischem Material aus 45 großen Biogasanlagen in Deutschland, den Niederlanden und Österreich entnommen und deren mikrobielle Zusammensetzung mittels DNA-Sequenzierung untersucht haben. Zu ihrer Überraschung waren in allen 80 Proben Vertreter der Darwinibacteriales zu finden, trotz der Unterschiede und der Entfernung zwischen den Anlagen.

Die Forscher:innen waren auf der Suche nach den mikrobiellen Hauptakteuren der anaeroben Gärung, bei der organisches Material abgebaut und anschließend in energiereiches Gas umgewandelt wird, das dann als Brennstoff verwendet werden kann. Dieser Vorgang gilt als Black Box, da die Rolle und Funktionsweise der meisten beteiligten Mikroorganismen bislang unbekannt ist. Eine Steigerung der Biogaserzeugung würde einen entscheidenden Wandel in der Energiewirtschaft bedeuten und die Abhängigkeit von fossilen Brennstoffen und Energieimporten verringern. Doch die fehlende mikrobiologische Forschung hat dies bisher ausgebremst.

Die Wissenschaftler:innen des Micro4Biogas-Konsortiums sind nun in der Lage, maßgeschneiderte, hocheffiziente Populationen von Biogas produzierenden Mikroben zu schaffen. Ihr Ziel ist es, Biogasanlagen robuster und weniger abhängig von Subventionen zu machen, sodass sie kommerziell betrieben werden können und die erneuerbaren Energien weltweit Auftrieb erhalten.

Die Forschenden vermuten, dass eine bestimmte Familie innerhalb dieser neuen Ordnung (die Familie Darwinibacteriaceae) in wechselseitiger Zusammenarbeit mit Archaeen stehen, einer weiteren Art von Mikroorganismen, die an der anaeroben Gärung beteiligt sind. Die Bakterien produzieren Stoffwechselverbindungen, die die Archaeen dann zur Erzeugung von Methangas nutzen. Dies deckt sich mit früheren Studien, die einen Zusammenhang zwischen der Ordnung Darwinibacteriales und der Biogasproduktion festgestellt haben. Sollten sich diese Ergebnisse bestätigen, wären diese Bakterien ein vielversprechender Ansatz für die Entwicklung von Strategien, um die Effizienz in der Biogasproduktion zu steigern.

Über das MICRO4BIOGAS-Projekt
Micro4Biogas ist ein von der EU finanziertes Projekt (H2020, Finanzhilfevereinbarung Nr. 101000470), das sich mit der Entwicklung maßgeschneiderter mikrobieller Konsortien zur Steigerung der Biogasproduktion beschäftigt.
Das Projekt vereint 15 Institutionen aus sechs Ländern und zielt darauf ab, den Ertrag, die Geschwindigkeit, die Qualität und die Reproduzierbarkeit der Biogasproduktion zu steigern und damit diese erneuerbare Energie als ökologisch, politisch und wirtschaftlich sinnvolle Option zu konsolidieren.
https://micro4biogas.eu

Wissenschaftliche Ansprechpartner:
Pascal Otto
TU Dresden
Institut für Abfall- und Kreislaufwirtschaft
Email: pascal.otto@tu-dresden.de

Originalpublikation:
R. Puchol-Royo, J. Pascual, A. Ortega-Legarreta, P. Otto, J. Tideman, Sjoerd-Jan de Vries, Chr. Abendroth, K. Tanner, M. Porcar, A. Latorre-Perez. 2023. Unveiling the ecology, taxonomy and metabolic capabilities of MBA03, a potential key player in anaerobic digestion. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556800

Pascal Otto, Roser Puchol-Royo, Asier Ortega-Legarreta, Kristie Tanner, Jeroen Tideman, Sjoerd-Jan de Vries, Javier Pascual, Manuel Porcar, Adriel Latorre-Perez, Christian Abendroth. 2023. Multivariate comparison of taxonomic, chemical and technical data from 80 full-scale an-aerobic digester-related systems. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556802

(nach oben)


Start für europaweites Projekt zur Verbesserung der Patientenversorgung in Mitteleuropa

Annechristin Bonß Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Das Universitätsklinikum Carl Gustav Carus Dresden und die Carus Consilium Sachsen GmbH haben sich mit neun internationalen Experten aus sechs europäischen Ländern zusammengeschlossen, um gemeinsam in den nächsten drei Jahren patientenorientierte digitale Lösungen im Gesundheitssektor voranzutreiben.

Mit Unterstützung des Programms Interreg Central Europe werden im Rahmen des Projekts „Health Labs4Value“ fünf nationale Living Labs in Ungarn, Slowenien, der Tschechischen Republik, Deutschland und Polen eingerichtet. Diese Living Labs werden als Kooperationsräume dienen, in denen Gesundheitsorganisationen, Unternehmen, politische Entscheidungsträgerinnen und -träger, Patientinnen und Patienten sowie ihre Familien gemeinsam digitale Lösungen zur Verbesserung der Patientenversorgung entwickeln und testen können. Alle Living Labs werden ein länderübergreifendes Netzwerk bilden, um den Wissens- und Erfahrungsaustausch unter der Leitung des österreichischen Wissenspartners zu erleichtern. „Das Projekt Health Labs4Value ist eine einzigartige Gelegenheit, alle wichtigen Akteure im Gesundheitswesen zusammenzubringen, um gemeinsam an der Verbesserung der Patientenversorgung zu arbeiten“, so der Projektkoordinator István Hegedűs von CTRIA (Central Transdanubian Regional Innovation Agency) aus Ungarn. Die internationale Zusammenarbeit verschiedener Expertenteams aus Mitteleuropa bringt viele Vorteile mit sich. „Die Hochschulmedizin Dresden setzt schon lange auf die Vernetzung mit Akteurinnen und Akteuren der Krankenversorgung. Dies machen wir nicht nur in der Region, sondern auch über die Grenzen Sachsens und Deutschland hinaus. Mit diesen wertvollen Kooperationen kommen wir mit guten Partnern zusammen, nutzen Synergien und schaffen die Voraussetzung für eine moderne Patientenversorgung“, sagt Prof. Michael Albrecht, Medizinischer Vorstand am Universitätsklinikum Carl Gustav Carus Dresden.

Vorteile der interdisziplinären Zusammenarbeit
– Entwicklung kosteneffektiver und nachhaltiger Versorgungsstrategien, um sicherzustellen, dass Patientinnen und Patienten sowie ihre Familien Zugang zu angemessener Behandlung erhalten.
– Verbesserung der Patientensicherheit
– Übergang von einem krankheitszentrierten zu einem personenzentrierten Ansatz – mit hohem Nutzen für die Patientinnen und Patienten.
– Verbesserung der Zusammenarbeit entlang der Wertschöpfungskette des Gesundheitssystems.

Nationale Living Labs
Auf nationaler Ebene werden die Living Labs spezifische Herausforderungen identifizieren und lokale Bedürfnisse ansprechen.
– Slowenien: Das Living Lab in Slowenien soll es Patientinnen und Patienten mit konservativ behandelten Verletzungen ermöglichen, die Qualität ihrer Rehabilitation in ihrer häuslichen Umgebung zu verbessern.
– Deutschland: Das Living Lab in Deutschland wird sich mit der Unterstützung älterer Menschen befassen, damit diese so lange wie möglich selbständig und (fast) unabhängig in ihrer häuslichen Umgebung leben können.
– Polen: Das Living Lab in Polen zielt darauf ab, die Arbeit des medizinischen und nicht-medizinischen Personals in der Verwaltung und im Patientenservice durch Digitalisierung und den Einsatz neuer Technologien wie biometrischer Unterschriften zu rationalisieren.
– Ungarn: Das Living Lab in Ungarn zielt darauf ab, die Abläufe in der ambulanten und stationären Versorgung, einschließlich der ärztlichen Untersuchung sowie der prä- und postoperativen Verfahren, durch Automatisierung des Fallmanagements und innovative digitale Systeme zu optimieren.
– Tschechische Republik: Das Living Lab in der Tschechischen Republik wird sich auf neue Technologien konzentrieren, die die Kommunikation über die Langzeitbehandlung, die Aufklärung und die häusliche Pflege chronischer Patientinnen und Patienten mit Technologien unterstützen, die helfen, den Zustand der Patientinnen und Patienten in einer häuslichen Umgebung zu überwachen und bei Bedarf direkten Kontakt mit medizinischem Fachpersonal aufzunehmen.

Über Health Labs4Value
Das Projekt Health Labs4Value hat eine Laufzeit von drei Jahren und verfügt über ein Budget von 2,19 Mio. EUR. Das Ziel des Innovationsprojektes ist die Verbesserung der Patientenversorgung, die Sicherheit und die Effizienz. Die neu eingeführten digitalen Versorgungslösungen werden so auch erhebliche Auswirkungen auf den Gesundheitssektor in Europa und Deutschland haben.

Über das Universitätsklinikum Carl Gustav Carus Dresden
Als Krankenhaus der Maximalversorgung deckt das Universitätsklinikum Dresden das gesamte Spektrum der modernen Medizin ab. 26 Kliniken und Polikliniken, vier Institute und 17 interdisziplinäre Zentren, die eng mit den klinischen und theoretischen Instituten der Medizinischen Fakultät zusammenarbeiten ermöglichen medizinische Versorgung auf höchstem Niveau. Mit 1.410 Betten und 210 Plätzen für die tagesklinische Behandlung von Patienten ist es das einzige Krankenhaus der Maximalversorgung in Ostsachsen. Rund 1.000 Ärztinnen und Ärzte sowie 2.000 Schwestern und Pfleger kümmern sich um das Wohl der Patientinnen und Patienten.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Projektmanagerin: Ulrike Sobczak
Tel.: 0351 458 3729
E-Mail: ulrike.sobczak@ukdd.de
www.uniklinikum-dresden.de

Weitere Informationen:
http://Weitere Informationen zum Projekt Health Labs4Value:
http://www.interreg-central.eu/projects/health-labs4value
http://www.facebook.com/HealthLabs4Value
http://www.linkedin.com/groups/9346332/

(nach oben)


Wie Bäume die Wolkenbildung beeinflussen

Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
Im Rahmen des internationalen CLOUD-Projekts am Kernforschungszentrum CERN haben Forschende des PSI sogenannte Sesquiterpene – gasförmige Kohlenwasserstoffe, die von Pflanzen emittiert werden – als wesentlichen Faktor der Wolkenbildung identifiziert. Die Erkenntnis könnte helfen, die Unsicherheiten von Klimamodellen zu reduzieren und präzisere Vorhersagen zu treffen. Die Studie erscheint jetzt im Fachmagazin Science Advances.

1,5 bis 4,4 Grad Celsius globale Klimaerwärmung bis 2100 im Vergleich zur vorindustriellen Zeit – so lautet die aktuelle Prognose des Weltklimarates IPCC. Sie basiert auf verschiedenen Szenarien, wie sich die Treibhausgasemissionen der Menschheit entwickeln. Im besten Fall, wenn wir die Emissionen schnell und radikal eindämmen, erreichen wir also noch das 1,5-Grad-Ziel des Pariser Klimaabkommens. Im schlechtesten Fall liegen wir weit darüber. Wobei auch diese Aussagen jeweils mit Unsicherheiten behaftet sind. So könnte der Temperaturanstieg im ungünstigsten Fall mit weiterhin stark ansteigenden Emissionen anstatt bei 4,4 Grad auch nur bei 3,3 oder aber sogar bei 5,7 Grad Celsius liegen.

Diese Unsicherheiten der Klimavorhersagen, wie sich die Temperatur bei konkreter Entwicklung der Treibhausgase verändern wird, liegen im Wesentlichen daran, dass die Wissenschaft noch nicht alle Vorgänge in der Atmosphäre – das Zusammenspiel der verschiedenen in ihr enthaltenen Gase und Schwebstoffe – im Detail verstanden hat. Dies aufzuklären ist das Ziel des CLOUD-Projekts (Cosmics Leaving Outdoor Droplets), das Atmosphärenforschende in einer internationalen Kooperation am Kernforschungszentrum CERN in Genf durchführen. Das PSI hat die CLOUD-Kammer mit gebaut und gehört zum Lenkungsausschuss des Projekts.

Mysterium Wolkenbildung
Vor allem, wie sich die Bedeckung mit Wolken in Zukunft entwickeln wird, bleibt bislang noch weitgehend nebulös. Sie ist jedoch ein wesentlicher Faktor für das Klima, da mehr Wolken mehr Sonnenstrahlung reflektieren und dadurch einen kühlenden Effekt auf die Erdoberfläche haben.
Um die Wassertröpfchen, aus denen Wolken bestehen, zu bilden, braucht Wasserdampf feste oder flüssige Partikel, an denen er kondensieren kann, sogenannte Kondensationskeime. Das sind komplexe Aerosole, winzig kleine, feste oder flüssige Partikel mit einem Durchmesser zwischen 0,1 und 10 Mikrometern, die sowohl durch Prozesse in der Natur als auch durch uns Menschen verursacht und in die Luft emittiert werden. Diese Partikel können Salz aus dem Meer, Sand aus der Wüste, Schadstoffe aus Industrie und Verkehr oder Russpartikel von Feuern enthalten. Etwa die Hälfte der Kondensationskeime aber entsteht erst in der Luft, indem sich verschiedene gasförmige Moleküle verbinden und dabei in den festen Aggregatzustand übergehen, ein Phänomen, das Fachleute „Nukleation“ oder „New Particle Formation“ (NPF) nennen, also auf Deutsch Partikelneubildung. Solche Partikel sind zu Anfang noch winzig, kaum grösser als ein paar Nanometer, können mit der Zeit aber durch die Kondensation gasförmiger Moleküle wachsen und Kondensationskeime werden.

Klimagase, die man riechen kann
Der Hauptteil der vom Menschen emittierten Gase, die zur Partikelneubildung beitragen, ist Schwefeldioxid in Form von Schwefelsäure, das vor allem aus der Verbrennung von Kohle und Öl stammt. Zu den wichtigsten natürlichen Gasen, die eine Rolle spielen, gehören sogenannte Isoprene, Monoterpene und Sesquiterpene. Das sind Kohlenwasserstoffe, die vor allem von der Vegetation freigesetzt werden. Sie sind wesentliche Bestandteile der ätherischen Öle, die wir riechen, wenn zum Beispiel Gras geschnitten wird oder wir im Wald spazieren gehen. Wenn diese Substanzen in der Luft oxidieren, bilden sie Partikel.
„Zu beachten ist, dass die Konzentration des Schwefeldioxids in der Luft in den letzten Jahren durch strengere Umweltgesetze deutlich geringer geworden ist und auch weiterhin abnehmen wird“, sagt Lubna Dada, Atmosphärenwissenschaftlerin am PSI. „Die Konzentration der Terpene dagegen nimmt zu, weil Pflanzen unter Stress mehr davon freisetzen – beispielsweise wenn Temperaturen und Wetterextreme zunehmen und die Vegetation häufiger Dürren ausgesetzt ist.“ Die grosse Frage für die Verbesserung der Klimaprognosen ist also, welcher Faktor überwiegt, sodass die Wolkenbildung zunehmen oder abnehmen wird. Und dazu müsste man bei jeder dieser Substanzen wissen, welchen Beitrag sie bei der Partikelneubildung leisten. Zu Schwefelsäure weiss man schon viel, und auch die Rolle von Monoterpenen und Isopren ist dank Feldmessungen und Kammerversuchen wie CLOUD, an denen das PSI beteiligt war, inzwischen besser bekannt.

Sesquiterpene sind selten, aber effektiv
Sesquiterpene befanden sich bislang noch nicht im Fokus der Forschung. „Das liegt daran, dass sie recht schwer zu messen sind“, erklärt Dada. „Zum einen, weil sie sehr schnell mit Ozon reagieren, und zum anderen, weil sie viel seltener vorkommen als die anderen.“ Während pro Jahr rund 465 Millionen Tonnen Isopren und 91 Millionen Tonnen Monoterpene ausgestossen werden, kommen Sesquiterpene nur auf 24 Millionen Tonnen. Dennoch – das hat die neue Studie, deren Hauptautorin Dada ist, ergeben – spielen diese Verbindungen bei der Wolkenbildung eine wichtige Rolle. Laut der Messungen bilden sie bei gleicher Konzentration zehnmal mehr Partikel als die anderen beiden organischen Substanzen.

Um das herauszufinden, hat Dada mit ihren Koautoren die einzigartige CLOUD-Kammer am Kernforschungszentrum CERN genutzt. Dabei handelt es sich um einen abgeschotteten Raum zur Simulation verschiedener atmosphärischer Bedingungen. „Mit fast 30 Kubikmetern ist diese Klimakammer im Vergleich zu anderen ähnlichen Einrichtungen weltweit die reinste ihrer Art“, sagt Dada. „So rein, dass sie die Untersuchung von Sesquiterpenen auch dann ermöglicht, wenn die geringe Konzentration in der Atmosphäre nachgestellt wird.“

Genau das war das Ziel der Studie. Sie sollte die biogene Partikelbildung in der Atmosphäre simulieren. Und zwar so, wie sie in vorindustrieller Zeit stattfand, als es noch keine menschlichen Schwefeldioxid-Emissionen gab. Im Vergleich zu heute lässt sich so der menschliche Einfluss klarer herausarbeiten und in die Zukunft projizieren. In der Natur ist das Schwefeldioxid des Menschen jedoch längst überall. Auch deswegen kam nur die CLOUD-Kammer infrage. Zudem lässt sich dort unter kontrollierten Bedingungen eine vorindustrielle Mischung herstellen.

Dauerhafte Partikel führen zu mehr Wolken
Und so zeigte sich bei den Versuchen, dass in reiner Luft die Oxidation einer natürlichen Mixtur von Isopren, Monoterpenen und Sesquiterpenen eine grosse Vielfalt von organischen Verbindungen produziert – sogenannte ULVOC (Ultra-Low-Volatility Organic Compounds). Diese Moleküle sind wenig flüchtig und bilden daher sehr effizient Partikel. Der enorme Effekt der Sesquiterpene offenbarte sich, als die Forschenden ihnen Isopren und Monoterpene hinzumischten: Schon bei nur zwei Prozent Zugabe verdoppelte sich die Rate der Partikelneubildung. „Erklären lässt sich das damit, dass ein Sesquiterpen-Molekül 15 Kohlenstoffatome enthält, während Monoterpene nur zehn und Isopren fünf enthalten“, sagt Dada.

Die Studie offenbart einerseits einen weiteren Faktor, mit dem die Vegetation Wetter und Klima beeinflussen kann. Vor allem aber schlagen die Forschenden aufgrund ihrer Ergebnisse vor, neben Isopren und Monoterpenen künftig auch die Sesquiterpene als eigenen Faktor in die Klimamodelle aufzunehmen, um die Prognosen zu verbessern. Zumal mit der Abnahme der Schwefeldioxid-Konzentration in der Atmosphäre und gleichzeitig steigenden biogenen Emissionen infolge von Klimastress die Rolle letzterer für das Klima der Zukunft immer wichtiger werden dürfte. Allerdings sind für die weitere Verbesserung der Vorhersagen zur Wolkenbildung auch noch andere Studien notwendig. Diese sind am Labor für Atmosphärenchemie bereits in Planung. „Als Nächstes“, sagt Imad El Haddad, Gruppenleiter für Molekulare Prozesse in der Atmosphäre, „wollen wir mit unseren CLOUD-Partnern schauen, was damals im Zuge der Industrialisierung genau geschah, als die natürliche Atmosphäre zunehmend mit anthropogenen Gasen wie Schwefeldioxid, Ammoniak und anderen anthropogenen organischen Verbindungen vermischt wurde.“

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Zukunftstechnologien, Energie und Klima, Health Innovation und Grundlagen der Natur. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2200 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 420 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL. Einblick in die spannende Forschung des PSI mit wechselnden Schwerpunkten erhalten Sie 3-mal jährlich in der Publikation 5232 – Das Magazin des Paul Scherrer Instituts.

Wissenschaftliche Ansprechpartner:
Dr. Lubna Dada
Labor für Atmosphärenchemie
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 53 17, E-Mail: lubna.dada@psi.ch [Englisch]

Dr. Imad El Haddad
Gruppenleiter für Molekulare Prozesse in der Atmosphäre
Labor für Atmosphärenchemie
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 29 95, E-Mail: imad.el-haddad@psi.ch [Englisch/Französisch]

Originalpublikation:
Role of sesquiterpenes in biogenic new particle formation
Lubna Dada et al.
Science Advances, 08.09.2023
DOI: 10.1126/sciadv.adi5297

Weitere Informationen:
https://www.psi.ch/de/node/59053?access-token=3CsVBZFi88essJqk

(nach oben)


Weltrekord: Reichweitenstärkstes Elektroauto der Welt kommt aus München

Andreas Huber Corporate Communications Center
Technische Universität München
Studierende der Technischen Universität München (TUM) haben das reichweitenstärkste Elektroauto der Welt entwickelt. Das Team fuhr über 2573 Kilometer mit einer Akkuladung. Im Zuge der IAA Mobility kämpfte das Team am Flughafen München um den neuen Weltrekord und konnte den Titel erfolgreich nach München holen. Ganze sechs Tage dauerte der Versuch, für den das Team auf Feldbetten im Flughafenhangar schlief.

Es war ein Marathon und kein Sprint, der dem TUfast Eco Team bevorstand, um einen neuen Weltrekord an die TUM zu holen. Sechs Tage sollte es schließlich dauern, bis feststand: Das reichweitenstärkste Elektroauto der Welt kommt aus München. Für den Guinness-Weltrekord modifizierte die Studierendeninitiative den „muc022“, mit dem das Team bereits an Wettbewerben für effiziente Elektroautos teilnahm. Dabei setzen die Studierenden vor allem auf eine durchdachte Aerodynamik und auf Leichtbau. Damit das Fahrzeug weltrekordtauglich wurde, bauten die jungen Ingenieur:innen einen größeren Akku ein, der 15,5 Kilowattstunden leistet.

Um die Rekordfahrt zu ermöglichen, stellte der Flughafen München einen leeren Flugzeughangar zur Verfügung. Der Hangar garantierte dem Team, auch bei schlechten Wetterbedingungen den Rekord einzufahren. Die Messlatte des bisherigen Rekordhaltenden lag bei 1608,54 Kilometern. Diese Strecke konnten die Münchner bereits nach vier Tagen zurücklegen. Da der Akku des muc022 aber noch nicht leer war, fuhr das Team weiter. Am Ende standen nach 99 Stunden Fahrzeit 2.573,79 Kilometer auf dem Tacho. Übersetzt bedeutet das Resultat auch, dass das TUfast Eco Team einen Verbrauch von 0,6 Kilowattstunden auf 100 Kilometer verzeichnen kann. Zum Vergleich: Extrem sparsame Serienfahrzeuge verbrauchen rund 13 kWh auf 100 Kilometer.

Wissenschaftsminister und TUM-Präsident gratulieren
Wissenschaftsminister Markus Blume gratuliert: „Weltrekord für die TUM! Herzlichen Glückwunsch an das TUfast Eco Team zu diesem grandiosen Erfolg. Wir sind stolz auf die Studentinnen und Studenten. Sie machen den einzigartigen TUM-Spirit aus. Und wir sind stolz auf unsere Spitzenuniversität, die Pioniergeist fordert und fördert. An der TUM gilt: Studieren und Probieren. Das Ergebnis: Internationale Ingenieurskunst made in Bavaria. Mit dem Weltrekord beweisen unsere Studentinnen und Studenten nicht nur sportlichen Ehrgeiz. Dahinter steckt mehr: Sie wollen die Zukunft der Mobilität nachhaltig gestalten.“

TUM-Präsident Thomas F. Hofmann gratuliert zum Weltrekord: „Das reichweitenstärkste Elektroauto der Welt kommt aus München! An der TUM fördern wir studentische Initiativen unterschiedlichster Fachrichtungen und bieten Raum für Kreativität neben dem Studium. Dass unsere Teams dabei immer wieder Spitzenleistungen erbringen, macht mich besonders stolz. Es bestätigt aber auch, dass wir in der Lehre vieles richtig machen. Studentische Gruppen bringen zusätzliches Leben auf den Campus und fördern Talente zum Teil schon während des Bachelorstudiums. Meine Gratulation an das TUfast Eco Team zu diesem Weltrekord!“

TUfast Eco Team erfolgreich in internationalen Wettbewerben
Neben Rekordversuchen nimmt das TUfast Eco Team regelmäßig an internationalen Wettbewerben wie dem Shell Eco Marathon teil. Hier misst sich die Gruppe mit Teams anderer Universitäten in unterschiedlichen Disziplinen. Dabei spielen unter anderem auch die Möglichkeiten des autonomen Fahrens eine Rolle. „Unzählige Stunden Arbeit neben dem Studium sind in die Vorbereitung des Rekords geflossen. Umso mehr freuen wir uns, dass wir den Weltrekord nun halten können. Der muc022 war schon bei einigen Wettbewerben erfolgreich, nun folgte der Ritterschlag. Vielen Dank an alle, die uns unterstützt haben“, freut sich das TUfast Eco Team.
Studentische Forschungsgruppen und Studierendeninitiativen haben an der TUM eine lange Tradition. Teams wie TUfast bieten den Studierenden die Möglichkeit, das im Studium erarbeitete Wissen direkt in die Praxis umzusetzen und selbstständig zu forschen. Dabei können die Gruppen regelmäßig in Wettbewerben überzeugen und standen oft an der Spitze.

Weitere Informationen:
Technische Daten des muc022 für den Weltrekord:
• Antrieb: Ein permanent erregter Synchronmotor (PSM)
• Leistung: 400 Watt
• Widerstandsbeiwert (cW): 0,159
• Gewicht: 170 Kilogramm ohne Fahrer:in

Der volle Titel des Rekords lautet: Greatest distance by electric vehicle, single charge (non-solar)

Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1718820

Wissenschaftliche Ansprechpartner:
Linus Simons
Teammitglied bei TUfast Eco
l.simons@tufast.de

(nach oben)


Neues Alzheimer-Medikament Leqembi: Die wichtigsten Fragen und Antworten

Astrid Marxen Presse- und Öffentlichkeitsarbeit
Alzheimer Forschung Initiative e.V.
Düsseldorf, 7. September 2023 – In Deutschland wird es vermutlich bald eine neues Alzheimer-Medikament geben. Die Europäische Arzneimittelbehörde EMA entscheidet in den nächsten Monaten über die Zulassung des Wirkstoffes Lecanemab. Ein positives Votum gilt als wahrscheinlich. Vor dem Welt-Alzheimertag am 21. September beantwortet die gemeinnützige Alzheimer Forschung Initiative (AFI) gemeinsam mit Prof. Stefan Teipel die wichtigsten Fragen zum neuen Medikament. Teipel ist Leiter der Klinischen Forschung des Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) am Standort Rostock/Greifswald und Mitglied im Wissenschaftlichen Beirat der AFI.

In Deutschland wird es vermutlich bald eine neues Alzheimer-Medikament geben. Die Europäische Arzneimittelbehörde EMA entscheidet in den nächsten Monaten über die Zulassung des Wirkstoffes Lecanemab. Ein positives Votum gilt als wahrscheinlich. Dann kann der Wirkstoff unter dem Namen Leqembi zur Behandlung der Alzheimer-Krankheit verschrieben werden. In den USA wird Leqembi schon eingesetzt. Vor dem Welt-Alzheimertag am 21. September beantwortet die gemeinnützige Alzheimer Forschung Initiative (AFI) gemeinsam mit Prof. Stefan Teipel die wichtigsten Fragen zum neuen Medikament. Teipel ist Leiter der Klinischen Forschung des DZNE am Standort Rostock/Greifswald und Mitglied im Wissenschaftlichen Beirat der AFI.

Wie funktioniert Leqembi?
Leqembi wirkt auf Grundlage einer passiven Immunisierung. Es ist ein Antikörper, der sich gegen Ablagerungen aus dem Protein Beta-Amyloid richtet. Diese Ablagerungen tragen mutmaßlich zum Absterben von Nervenzellen im Gehirn bei. Leqembi entfernt diese Ablagerungen im Gehirn. In der Zulassungsstudie hat der Antikörper nach 18 Monaten den geistigen Abbau von Patientinnen und Patienten um 27 Prozent verlangsamt.

Kann Leqembi Alzheimer heilen?
Leqembi wäre in Deutschland das erste Medikament, das an einer der grundlegenden Krankheitsursachen ansetzt. Trotzdem kann es die Alzheimer-Krankheit weder stoppen noch heilen. Der Krankheitsverlauf kann verzögert werden. Die Wirkung bei Erkrankten wird von vielen Alzheimer-Expertinnen und -Experten aber als eher gering eingestuft. „Mit Leqembi kann man einen Krankheitsaufschub von fünf bis sieben Monate erreichen. Es gibt die Hoffnung, dass sich der Effekt mit längerer Einnahme noch erhöht. Dafür haben wir aber bisher keine Daten. Ob diese Wirkung für Patientinnen und Patienten im Alltag spürbar sein wird, ist daher aktuell noch unklar“, erklärt Teipel.

Welche Nebenwirkungen können auftreten?
In der Zulassungsstudie sind bei 17 Prozent der Probandinnen und Probanden lokale Hirnschwellungen und Mikroblutungen aufgetreten. In den meisten Fällen verliefen diese symptomlos, aber einige Erkrankte hatten einen schwerwiegenden Verlauf. „Die Behandlung mit Leqembi kann gravierende Nebenwirkungen haben. Deshalb ist eine engmaschige
Kontrolle bei einer Behandlung sehr wichtig“, betont Teipel.

Für welche Erkrankten ist Leqembi geeignet, für welche nicht?
Nur Alzheimer-Patientinnen und -Patienten in einem frühen Krankheitsstadium kommen für eine Behandlung mit Leqembi in Frage. Erkrankte mit bereits fortgeschrittenen Symptomen oder einer anderen Form der Demenz werden nicht von einer Behandlung profitieren. Bei bestimmten Gruppen ist die Gefahr von Nebenwirkungen besonders groß. Deshalb müssen Aufwand, Nutzen und Risiken vor Behandlungsbeginn individuell überprüft werden.

„Es muss im Einzelfall immer genau abgewogen werden, wer mit Leqembi behandelt werden kann. Bei Erkrankten, die Blutverdünner nehmen, und solchen, die eine zweifache Kopie des ApoE4-Gens tragen, wäre ich eher zurückhaltend. Die Gefahr von Hirnblutungen ist für diese Patientinnen und Patienten erhöht“, so Teipel. ApoE4 ist ein Gen, dass das Risiko einer Alzheimer-Erkrankung erhöht. Da die Behandlung zeitintensiv und mit aufwändigen Untersuchungen verbunden ist, müssen Patientinnen und Patienten außerdem noch mobil und ausreichend belastbar sein.

„Wie viele Erkrankte für eine Behandlung geeignet sind, ist noch unklar. Das hängt unter anderem davon ab, mit welchen Auflagen eine EMA-Zulassung verbunden sein wird. Aktuell gibt es jährlich rund 200.000 Neuerkrankungen und eine ähnlich hohe Zahl von Menschen, die an einer leichten kognitiven Störung leiden, also an einer Vorstufe der Alzheimer-Krankheit. Von diesen beiden Gruppen wird aber nur ein geringer Prozentsatz für eine Behandlung in Frage kommen.“

Wie wird eine Behandlung mit Leqembi konkret aussehen?
Weil nur bestimmte Erkrankte für eine Behandlung geeignet sind, ist zunächst eine gründliche Diagnostik wichtig. Dazu kommt unter anderem entweder eine Liquor-Untersuchung, also eine Untersuchung des Nervenwassers, oder ein bildgebendes Verfahren namens Positronen-Emissions-Tomographie (PET) zum Einsatz. Damit wird nachgewiesen, ob schädliche Amyloid-Ablagerungen vorliegen. Teipel empfiehlt außerdem einen Test zum Nachweis des Alzheimer-Risikogens ApoE4. „Ein ApoE-Gentest sollte gemacht werden, weil das wichtig ist für die Risikoabschätzung von Nebenwirkungen.“

Wird eine Behandlung von dem oder der Erkrankten gewünscht und vom Facharzt befürwortet, dann wird Leqembi alle zwei Wochen durch eine Infusion verabreicht. Nach Angaben der Hersteller Biogen und Eisai dauert eine Behandlung ca. 1 Stunde. „Wegen der Gefahr von Hirnschwellungen und -blutungen müssen die Patientinnen und Patienten innerhalb der ersten 15 Behandlungsmonate alle drei Monate zur Magnetresonanztomographie kommen. Treten Unregelmäßigkeiten oder Beschwerden auf, dann muss die Kontrolle durch MRTs engmaschiger erfolgen, zum Beispiel wöchentlich oder zweiwöchentlich“, sagt Teipel.

Wo kann eine Behandlung stattfinden? Gibt es genügend Behandlungskapazitäten?
Eine Behandlung kann nur in spezialisierten Praxen oder Einrichtungen stattfinden, die über die nötigen diagnostischen, therapeutischen und personellen Ressourcen verfügen. „Eine Behandlung können hierzulande universitäre und nicht universitäre Gedächtnissprechstunden aber auch Schwerpunktpraxen anbieten. Nicht alle diese Einrichtungen haben aber aktuell die nötigen Kapazitäten, um Nervenwasseruntersuchungen durchzuführen. Außerdem fehlen in der Regel Infusionsplätze. Da müsste bei einer Zulassung von Leqembi nachgerüstet werden“, erklärt Teipel.

Für die Kontrolle der Nebenwirkungen werden Magnetresonanztomographen und vor allem erfahrene Radiologinnen und Radiologen gebraucht. „Hier sehe ich einen möglichen Engpass. Eine lokale Hirnschwellung oder Mikroblutung auf einem MRT-Bild zu erkennen und zu beurteilen, ob diese Veränderungen im Verlauf zugenommen haben, ist sehr anspruchsvoll, zugleich aber wichtig für die Sicherheit der Patienten. Radiologinnen und Radiologen müssten im Falle einer Zulassung entsprechend geschult werden.“

Wie hoch sind die Kosten? Bezahlen die Krankenkassen die Behandlung?
Wie teuer eine Behandlung mit Leqembi sein wird, ist noch nicht bekannt. In den USA betragen die Kosten für das Medikament alleine 26.500 Dollar im Jahr, das sind umgerechnet knapp 25.000 Euro. Das beinhaltet noch nicht die Kosten für die Durchführung der Infusionen und der Sicherheits-MRTs. Fachleute rechnen damit, dass eine Behandlung auch hierzulande ähnlich teuer sein wird. Der Preis für ein neu zugelassenes Medikament wird für das erste Jahr vom Hersteller festgesetzt. Die Kosten werden von den Krankenkassen übernommen.

Über die Alzheimer Forschung Initiative e.V.
Die Alzheimer Forschung Initiative e.V. (AFI) ist ein gemeinnütziger Verein, der das Spendenzertifikat des Deutschen Spendenrats e.V. trägt. Seit 1995 fördert die AFI mit Spendengeldern Forschungsprojekte engagierter Alzheimer-Forscher*innen und stellt kostenloses Informationsmaterial für die Öffentlichkeit bereit. Bis heute konnte die AFI 360 Forschungsaktivitäten mit 14,5 Millionen Euro unterstützen und über 925.000 Ratgeber und Broschüren verteilen. Interessierte und Betroffene können sich auf www.alzheimer-forschung.de fundiert über die Alzheimer-Krankheit informieren und Aufklärungsmaterial anfordern. Ebenso finden sich auf der Webseite Informationen zur Arbeit des Vereins und allen Spendenmöglichkeiten. Botschafterin der AFI ist die Journalistin und Sportmoderatorin Okka Gundel.

Pressekontakt
Alzheimer Forschung Initiative e.V.
Astrid Marxen
Kreuzstr. 34
40210 Düsseldorf
0211 – 86 20 66 28
presse@alzheimer-forschung.de
www.alzheimer-forschung.de/presse

Weitere Informationen:
https://www.alzheimer-forschung.de/presse/pressemitteilungen/meldung/leqembi-die… – Pressemeldung als pdf
http://www.alzheimer-forschung.de/presse/fotos-videos/ – Kostenfreies Fotomaterial
http://www.alzheimer-forschung.de/alzheimer – Weitere Informationen zur Alzheimer-Krankheit

(nach oben)


Energiesparend: Pumpen sollten Herzschlag folgen

Andreas Rothe Communications and Events
Institute of Science and Technology Austria
Das Pumpen von Flüssigkeiten scheint ein gelöstes Problem zu sein, aber die Optimierung dieses Prozesses ist immer noch ein aktives Forschungsgebiet. Jede Anwendung – von Industrie bis Haushalt – würde von Energieeinsparungen profitieren. Forscher des Institute of Science and Technology Austria (ISTA) haben nun gezeigt, wie gepulstes Pumpen die Reibung und den Energieverbrauch beim Pumpen verringern kann. Dabei ließen sie sich von einem Pumpsystem inspirieren, das jeder Mensch kennt: dem Herz.

Laut einer internationalen Studie werden fast zwanzig Prozent des weltweiten Stromverbrauchs für das Pumpen von Flüssigkeiten verwendet – von industriellen Anwendungen, die Öl und Gas transportieren, bis hin zu Heizungsanlagen, die Warmwasser in Privathaushalten pumpen. Ein Forscherteam um Davide Scarselli und Björn Hof vom Institute of Science and Technology Austria (ISTA) suchte nach einer Möglichkeit, diesen Energiebedarf zu reduzieren und ließ sich dabei von der Natur inspirieren. In einer neuen Studie in der Fachzeitschrift Nature zeigten sie, dass das pulsierende Pumpen von Flüssigkeiten durch ein Rohr, ähnlich wie das menschliche Herz Blut pumpt, die Reibung im Rohr reduzieren kann – und damit auch den Energieverbrauch.

Turbulente Reibung
„Im Laufe der Jahre versuchten Forscher:innen und Ingenieur:innen, das Pumpen von Flüssigkeiten effizienter zu machen“, sagt Davide Scarselli, Erstautor der Studie. „Zwar wurden viele Lösungen simuliert oder in Laboren getestet, doch sie sind oft zu komplex und daher zu kostspielig, um in realen industriellen Anwendungen eingesetzt zu werden. Wir suchten nach einem Ansatz, der keine komplizierten strukturellen Änderungen an der Infrastruktur, wie Sensoren und Motoren, erfordert.“

Anstatt die Beschaffenheit der Rohre zu verändern, um die Reibung zwischen der fließenden Flüssigkeit und den Rohrwänden zu verringern, versuchten die Wissenschafter einen anderen Ansatz. „Wie jeder Teil unseres Körpers wurde auch das menschliche Herz durch Millionen von Jahren der Evolution geformt“, erklärt Björn Hof, Professor am ISTA. „Im Gegensatz zu herkömmlichen mechanischen Pumpen, die einen gleichmäßigen Strom von Flüssigkeit erzeugen, pulsiert das Herz. Wir waren neugierig, ob diese besondere Antriebsform einen Vorteil bietet.“

Zu diesem Zweck schufen Scarselli und sein Kollege Atul Varshney mehrere Versuchsaufbauten mit durchsichtigen Rohren unterschiedlicher Länge und Durchmesser, durch die sie Wasser pumpten. „Die Ausgangsbasis für unsere Experimente war ein gleichmäßiger Wasserfluss, in dem sich Wirbel chaotisch bewegten, während sie durch das Rohr gedrückt wurden“, erklärt Scarselli. Diese Wirbel werden als Turbulenzen bezeichnet und verursachen einen Großteil der Reibung zwischen der Flüssigkeit und den Wänden des Rohrs. Die Überwindung eben dieser Reibung kostet Energie.

Die Forscher machten die Turbulenzen sichtbar, indem sie dem Wasser winzige reflektierende Partikel hinzufügten und mit einem Laser durch das durchsichtige Rohr schienen. Scarselli fügt hinzu: „Der Laser schießt Licht in einem horizontalen Bogen durch das Rohr und wird von den Partikeln reflektiert. Wir machten Bilder davon, anhand derer wir erkennen konnten, ob die Strömung turbulent oder laminar war, wobei letzteres bedeutet, dass es keine Wirbel gab.“

Weniger Reibung durch Ruhephase
Als nächstes probierten die Forscher verschiedene Arten des pulsierenden Pumpens aus. Bei einigen Pulsformen wurde das Wasser zunächst langsam beschleunigt und dann schnell gestoppt, bei anderen war es umgekehrt. Hof erklärt die Ergebnisse: „Normalerweise erhöht das pulsierende Pumpen den Widerstand und die benötigte Energie, was nicht das war, was wir suchten. Als wir jedoch eine kurze Ruhephase zwischen den Impulsen einfügten, in der die Pumpe das Wasser nicht antreibt – so wie es das menschliche Herz tut –, erzielten wir viel bessere Ergebnisse.“

Durch diese Ruhephasen zwischen den Pumpphasen wird die Menge der Turbulenzen im Rohr drastisch reduziert. „Während der Ruhephase nehmen die Turbulenzen ab und es lässt die anschließende Beschleunigungsphase die Reibung viel effektiver reduzieren“, so Scarselli weiter.

Für eine optimierte pulsierende Pumpbewegung, die der des menschlichen Herzens ähnelt, fanden die Forscher eine Verringerung der mittleren Reibung von 27 Prozent und eine Reduzierung des Energiebedarfs um 9 Prozent. „Eine Verringerung der Reibung und der turbulenten Fluktuationen ist im biologischen Kontext eindeutig von Vorteil, da sie Schäden an den Zellen in der innerste Schicht unserer Blutgefäße verhindert, die empfindlich auf Scherstress reagieren. Daraus könnten wir möglicherweise lernen und dies in zukünftigen Anwendungen nutzen“, erklärt Hof.

Scarselli fügt hinzu: „Während wir im Labor vielversprechende Ergebnisse gezeigt haben, ist die Anwendung unserer Forschung in der realen Welt weniger einfach. Um diese pulsierenden Bewegungen zu erzeugen, müssten die Pumpen umgerüstet werden. Dies wäre jedoch immer noch viel günstiger als Änderungen an den Rohrwänden oder der Einbau von Motoren. Wir hoffen, dass andere Wissenschafter:innen auf unseren Ergebnissen aufbauen werden, um diese von der Natur inspirierten Lösungen für industrielle Anwendungen zu erforschen.“

Projektförderung
Diese Arbeit wurde unterstützt durch das Grant 662962 der Simons-Stiftung und durch den Österreichischen Wissenschaftsfonds, Grant I4188-N30, im Rahmen der Forschungseinheit FOR 2688 der Deutschen Forschungsgemeinschaft.

Originalpublikation:
D. Scarselli, J. M. Lopez, A. Varshney, and B. Hof. 2023. Turbulence suppression by cardiac cycle inspired pulsatile driving of pipe flow. Nature. DOI: https://doi.org/10.1038/s41586-023-06399-5 / https://www.nature.com/articles/s41586-023-06399-5

Weitere Informationen:
https://ista.ac.at Institute of Science and Technology Austria (ISTA)
https://ista.ac.at/de/forschung/hof-gruppe/ Hof Gruppe am ISTA

Anhang
Laser enthüllt Turbulenzen. Ein Laserstrahl scheint in einer horizontalen Ebene durch das durchsichtige Rohr, wird von winzigen Partikeln im Wasser reflektiert und zeigt so wirbelnde Strömungen.

(nach oben)


Unterschätzte Gefahr und Ressource am Meeresgrund

Judith Jördens Senckenberg Pressestelle
Senckenberg Gesellschaft für Naturforschung
Neues Dinoflagellaten-Bestimmungsbuch beleuchtet Bedeutung der marinen Einzeller.
Heute legt die Meeresbiologin Dr. Mona Hoppenrath von Senckenberg am Meer in Wilhelmshaven gemeinsam mit internationalen Kolleg*innen die zweite, erweiterte Auflage des weltweit umfassendsten Bestimmungsbuchs für marine, benthisch lebende Dinoflagellaten vor: „Marine benthic dinoflagellates – their relevance for science and society“. Neben der Beschreibung zahlreicher neuer Arten, erstmals auch anhand molekulargenetischer Daten, ordnet das Buch die weltweiten Gefahren durch die oftmals toxischen Einzeller ein – aber auch ihren Nutzen für die Wissenschaft und als potenzielle Nährstoff- und Energielieferanten.

Die mikroskopisch kleinen Dinoflagellaten sind in der breiten Öffentlichkeit kaum bekannt, dabei ist ihr Einfluss auf Natur und Mensch beträchtlich. Weltweit in Salz- und Süßgewässern verbreitet spielen die winzigen Einzeller eine wichtige Rolle in aquatischen Nahrungsnetzen – die meisten Arten als Teil des Planktons, die benthischen in den Sedimenten am Meeresgrund oder epiphytisch auf Algen, Seegras oder Korallen. „Einige Arten produzieren Toxine, die beim Menschen ernsthafte Vergiftungen hervorrufen können und auch für andere Meeresorganismen schädlich sind“, erläutert Dr. Mona Hoppenrath, Wissenschaftlerin bei Senckenberg am Meer in Wilhelmshaven und Erstautorin des Buchs. „Durch den Verzehr von Fisch und anderen Meeresfrüchten können etwa über die Nahrungskette angereicherte Giftstoffe von Gambierdiscus-Arten die Ciguatera-Krankheit auslösen, eine der häufigsten Fischvergiftungen.“ Eine Algenblüte der Gattung Ostreopsis wiederum brachte in den 1990er-Jahren Hunderte von Urlauber*innen an der ligurischen Küste ins Krankenhaus. „Als Folge des Klimawandels werden solche Fälle wahrscheinlich immer häufiger vorkommen“, ergänzt Hoppenrath.

Der vorliegende Band zeigt eindrucksvoll den Artenreichtum der marinen Einzeller, sein größter Teil ist der Taxonomie benthischer Dinoflagellaten in ihrer erstaunlichen Formenvielfalt gewidmet. 242 Arten in 63 Gattungen werden im Detail vorgestellt, illustriert mit mehr als 240 Farbabbildungen, etwa 250 elektronenmikroskopischen Aufnahmen und mehr als 330 Zeichnungen. Seit dem Vorgänger „Marine benthic dinoflagellates – unveiling their worldwide biodiversity“ sind 64 neue Arten, 20 neue Gattungen und 19 neue Kombinationen – also Umbenennungen – hinzugekommen. „Gleichzeitig zeigen wir sicherlich nur die ‚Spitze des Eisbergs‘“, so Hoppenrath, „Es ist davon auszugehen, dass neben den etwa 2.500 bekannten lebenden Dinoflagellaten-Arten viele weitere existieren, die noch nicht beschrieben sind!“ Parallel zur Neuauflage werden über die Website des „Centre of Excellence for Dinophyte Taxonomy“ (CEDiT) Bestimmungshilfen und Matrixschlüssel zur Gattungs- und Art-Bestimmung abrufbar sein: www.dinophyta.org/identification-keys.

Neu ergänzt ist ein Kapitel zur Relevanz der Dinoflagellaten für Wissenschaft und Gesellschaft, das die Gefahren durch die Einzeller, aber auch ihren möglichen Nutzen beleuchtet. „Dass beispielsweise einige Arten der Gattung Gambierdiscus über den Verzehr bestimmter tropischer und subtropischer Fische und Meeresfrüchte die lebensbedrohliche Ciguatera-Vergiftung auslösen können, wissen wir seit den 1970er-Jahren. Viele Küstenländer haben in der Folge Überwachungsprogramme eingeführt. Weltweit werden jährlich circa 20.000 bis 60.000 Fälle registriert“, berichtet Hoppenrath. „Dabei ist die Dunkelziffer groß: Schätzungsweise gibt es allein in den USA knapp 16.000 Vergiftungen im Jahr – möglicherweise werden weltweit nur 10 Prozent der Fälle den Gesundheitsbehörden gemeldet.“ Der fortschreitende Klimawandel scheint das Problem noch zu verstärken: Korallenbleichen infolge steigender Meerestemperaturen und andere Beeinträchtigungen von Korallen-Ökosystemen führen offenbar zu einem verstärkten Vorkommen von Gambierdiscus, weshalb der Weltklimarat davon ausgeht, dass Ciguatera-Vergiftungen weiter zunehmen werden. Gleichzeitig gibt es Hinweise, dass sich Gambierdiscus inzwischen auch in gemäßigte Regionen ausgebreitet hat.

Neben den gesundheitlichen Gefahren verursachen die toxischen Einzeller auch beträchtliche wirtschaftliche Schäden. In den USA entstehen durch Ciguatera schätzungsweise 17 Millionen US-Dollar Gesundheitskosten im Jahr. Von Einfuhrverboten für Riff-Fische infolge gemeldeter Vergiftungen werden insbesondere kleine tropische und subtropische Inselstaaten empfindlich getroffen, die stark von der Fischerei abhängig sind.

Auf der anderen Seite können Dinoflagellaten aber auch eine für den Menschen nützliche Ressource sein, beispielsweise als Lieferanten von wichtigen ungesättigten Fettsäuren für eine ausgewogene Ernährung. „Die planktische Art Crypthecodinium cohnii wurde bereits in der industriellen Produktion von Omega-3-Fettsäure als Nahrungsergänzungsmittel verwendet“, erzählt Hoppenrath. „Größtenteils sind die Möglichkeiten der industriellen Verwendung benthischer Dinoflagellaten, die Omega-3-Fettsäuren in großen Mengen produzieren, aber noch weitgehend unerforscht – hier gibt es großes Potenzial.“ Auch Biokraftstoffe könnten möglicherweise aus bestimmten Arten gewonnen werden. In der medizinischen Forschung haben sich einige der toxischen Verbindungen wiederum als vielversprechend für die Entwicklung von Therapeutika, beispielsweise in der Krebstherapie, gezeigt.

„Nicht zuletzt und überraschenderweise haben sich benthische Dinoflagellaten in der Naturwissenschaft für die evolutionäre Grundlagenforschung als sehr nützlich und wichtig erwiesen – zum Beispiel bei der Erforschung der Photosynthese und verschiedener Prozesse in Zellkernen. Es sind faszinierende Lebewesen, die wir aus vielen Gründen weiter erforschen müssen!“, schließt Hoppenrath.

Publikation: Mona Hoppenrath, Nicolas Chomérat, Takeo Horiguchi, Shauna A. Murray & Lesley Rhodes: Marine benthic dinoflagellates – their relevance for science and society, 2023, 376 Seiten, 122 Abb., 8 Tab., 17 x 24 cm, gebunden, ISBN 978-3-510- 61424-0, Senckenberg-Buch 88, 2. voll. überarbeitete Neuauflage, 34.90 Euro, www.schweizerbart.de/9783510614240

Presseexemplare können unter pressestelle@senckenberg.de bestellt werden!

Wissenschaftliche Ansprechpartner:
PD Dr. Mona Hoppenrath
Senckenberg am Meer Wilhelmshaven
Tel. 04421 9475 116
mhoppenrath@senckenberg.de

Originalpublikation:
Mona Hoppenrath, Nicolas Chomérat, Takeo Horiguchi, Shauna A. Murray & Lesley Rhodes: Marine benthic dinoflagellates – their relevance for science and society, 2023, 376 Seiten, 122 Abb., 8 Tab., 17 x 24 cm, gebunden, ISBN 978-3-510- 61424-0, Senckenberg-Buch 88, 2. voll. überarbeitete Neuauflage, 34.90 Euro, www.schweizerbart.de/9783510614240

(nach oben)


Invasive Arten bedrohen die globale Vielfalt und Lebensgrundlage

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
In Österreich gibt es mehr als 2.000 nicht-heimische Arten – Neobiota sind für 60 Prozent der ausgestorbenen Arten weltweit mitverantwortlich

Invasive nicht-heimische Arten sind eine der Hauptursachen des weltweiten Artenverlusts und bedrohen die menschliche Lebensgrundlage und Gesundheit. Ein neuer Bericht des Weltbiodiversitätsrats IPBES fasst erstmals den aktuellen Stand der Forschung weltweit zusammen und beschreibt, welche Handlungsoptionen zur Verfügung stehen. Bernd Lenzner und Franz Essl von der Universität Wien waren Teil des internationalen Expert*innenteams, das über die vergangenen Jahre Informationen aus über 13.000 Fachartikeln zusammengetragen hat.

Nicht-heimische Arten (auch Neobiota genannt) sind mittlerweile auf allen Kontinenten zu finden, sogar in der abgeschiedenen Antarktis. Mit Beginn der kolonialen Expansion und der daraus folgenden wirtschaftlichen und politischen Vernetzung über Kontinente hinweg begann der Siegeszug der Neobiota. „Mehr als die Hälfte dieser Neobiota wurde aber erst seit der Mitte des 20. Jahrhunderts verschleppt. Wir haben es also mit einer rasanten Zunahme von Neobiota zu tun“, erläutert Bernd Lenzner, Mitautor des Berichts des Weltbiodiversitätsrates.

37.000 Neobiota wurden weltweit bereits durch den Menschen verschleppt
„Insgesamt kommen mittlerweile weltweit mehr als 37.000 Arten als Neobiota vor – in Österreich alleine sind es mehr als 2.000“, so Lenzner. Auch heute werden immer noch Arten absichtlich (z.B.: als Gartenpflanzen oder Haustiere) oder unabsichtlich (z.B.: als Saatgutverunreinigungen oder blinde Passagiere beim Transport von Waren) weltweit verschleppt. Ein Rückgang dieses Trends ist trotz steigender Importbeschränkungen nicht abzusehen. So wurden beispielsweise in den letzten zwei Jahrzehnten der Asiatische Marienkäfer oder der Erreger des Eschentriebsterbens in Österreich eingeschleppt.

60 Prozent der ausgestorbenen Arten geht teilweise oder ganz auf das Konto von Neobiota
Invasive Arten können erheblichen Schaden anrichten: Sie führen als Schädlinge zu Ertragsausfällen in der Landwirtschaft, wie der Maiswurzelbohrer, oder sie können Krankheiten übertragen, wie etwa die Tigermücke. „Andere Neobiota wiederum verdrängen heimische Arten – mit massiven Folgen für die globale Artenvielfalt“, erläutert Franz Essl, Biodiversitätsforscher an der Uni Wien und ebenfalls Mitautor des Berichts. Und er ergänzt: „Bei 60 Prozent der ausgestorbenen Arten waren Neobiota maßgeblich beteiligt. Besonders auf Inseln oder abgelegenen Kontinenten wie Australien waren vom Menschen neu eingeführte Arten die Hauptursache des Aussterbens.“

Viele Arten wie der Dodo auf Mauritius wurden durch Räuber wie Ratten ausgerottet. In Österreich stehen heute alle heimischen Flusskrebsarten am Rande des Aussterbens als Folge der Krebspest; eine Krankheit, die durch nordamerikanische Flusskrebse übertragen wird. Besorgniserregend sind die wirtschaftlichen Schäden durch Neobiota – der aktuelle Bericht beziffert sie auf $ 423 Milliarden US-Dollar (400 Mrd. €) jährlich, eine Vervierfachung pro Jahrzehnt seit 1970.

Handlungsoptionen für die Zukunft: Prävention und Früherkennung
Einen besonderen Schwerpunkt legt der Bericht auf die Handlungsoptionen, um künftige Schäden durch invasive Neobiota zu vermeiden. Eine Vielzahl an Beispielen illustriert, dass invasive Arten erfolgreich bekämpft und somit ihre negativen Effekte stark reduziert werden können. „Der kosteneffektivste Weg ist jedoch die Prävention, Früherkennung und schnelle Bekämpfung von Neobiota“, betont Bernd Lenzner. Effektives Management ist aber nur durch gut koordinierte nationale und internationale Anstrengungen möglich. Internationale Abkommen wie die kürzlich von der Staatengemeinschaft verabschiedeten Kunming-Montreal-Biodiversitätsziele sind ein wichtiger Schritt in die richtige Richtung. Entscheidend ist aber, dass jedes Land, auch Österreich, rasch Maßnahmen setzt – dazu gehört auch eine bessere Umsetzung der EU-Invasionsverordnung.

Wissenschaftliche Ansprechpartner:
Dr. Bernd Lenzner
Division für Bioinvasionen, Globaler Wandel & Makroökologie
Department für Botanik und Biodiversitätsforschung
Universität Wien
1030 Wien, Rennweg 14/1
T +43-680-327-8884
bernd.lenzner@univie.ac.at

Assoz.-Prof. Mag. Dr. Franz Essl
Division für Bioinvasionen, Globaler Wandel & Makroökologie
Department für Botanik und Biodiversitätsforschung
Universität Wien
1030 Wien, Rennweg 14/1
T +43-676-609-1638
franz.essl@univie.ac.at

Originalpublikation:
Bericht zu invasiven gebietsfremden Arten des Weltbiodiversitätsrats IPBES:
IPBES (2023). Summary for Policymakers of the Thematic Assessment Report on Invasive Alien Species and their Control of the Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services. Roy, H. E., Pauchard, A., Stoett, P., Renard Truong, T., Bacher, S., Galil, B. S., Hulme, P. E., Ikeda, T., Sankaran, K. V., McGeoch, M. A., Meyerson, L. A., Nuñez, M. A., Ordonez, A., Rahlao, S. J., Schwindt, E., Seebens, H., Sheppard, A. W., and Vandvik, V. (eds.). IPBES secretariat, Bonn, Germany.
https://doi.org/10.5281/zenodo.7430692

Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a…

(nach oben)


Nachhaltig leben: Je geringer der Aufwand, desto mehr Menschen tun es

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Studierenden-Projekt der Universität Hohenheim zeigt: Beim ressourcenschonenden Verhalten deckt sich die Einstellung nicht immer mit der tatsächlichen Umsetzung

Auch Menschen, die einen ressourcenschonenden Lebensstil befürworten, schaffen es nicht immer, ihrem eigenen Anspruch gerecht zu werden. Wie leicht oder wie schwer ihnen dies fällt, hängt vor allem vom Aufwand ab, den sie dafür betreiben müssen. Zu diesem Schluss kommt ein Studierenden-Projekt an der Universität Hohenheim in Stuttgart. Dort spielt forschendes Lernen eine große Rolle. So können Studierende schon im Grundstudium in den Forschungsalltag eintauchen und eigene Projekte realisieren.

Vor allem in den westlich orientierten Ländern treffen Menschen jeden Tag Milliarden von Konsumentscheidungen – mit entsprechenden Auswirkungen für Klima, Umwelt und Natur. Dass es eines Umdenkens im Umgang mit den natürlichen Ressourcen bedarf, dürfte den meisten Menschen klar sein. Doch das eigene Verhalten in Frage zu stellen, fällt vielen schwer: Den Gedanken, den eigenen Lebensstil zu ändern und auf Waren und Dienstleistungen zu verzichten, empfinden viele als Rückschritt und Verzicht.

„Dabei ist der Verzicht beim Kauf von Konsumgütern alles andere als ein Rückschritt oder ein Zeichen von Mangel. Auch mit einem geringen Verbrauch von Ressourcen kann man gut leben “, sagt Jun.-Prof. Dr. Laura Henn vom Fachgebiet Nachhaltiges Handeln und Wirtschaften. Die dahinterstehende Einstellung bezeichnen Fachleute als Suffizienz.

Suffizienz: Ressourcenschonender Lebensstil ohne Einbußen an Lebensqualität
„Suffizienz bedeutet, das eigene Handeln bewusst danach auszurichten, nicht mehr Ressourcen zu verbrauchen als unbedingt nötig – ohne dabei an Lebensqualität einzubüßen“, erklärt die Wissenschaftlerin. „Oder vereinfacht ausgedrückt: Suffizient leben bedeutet eigentlich gut leben – gut für einen selbst und gut für die Umwelt.“

Suffizient lebende Menschen kaufen bewusster, teilen, tauschen oder reparieren, um ihre Bedürfnisse mit weniger Ressourcenverbrauch genauso gut zu befriedigen. Praktisch kann dies heißen, dass sie weniger Flugreisen unternehmen, weniger Energie verbrauchen oder weniger Fleisch essen, aber auch, dass diese Menschen auf den Besitz von Gegenständen verzichten oder zumindest möglichst langlebige Produkte kaufen. So sparen sie Ressourcen und halten ihren eigenen ökologischen Fußabdruck möglichst klein.

Decken sich Anspruch und tatsächliches Verhalten?
Doch wie sieht es im Alltag aus? Folgen Menschen im Alltag ihrer Einstellung und achten jene Personen, die besonders suffizienzorientiert sind, auch verstärkt auf den Ressourcenverbrauch ihres Verhaltens? Dieser Frage sind Studierende im vierten Semester des Studiengangs „Sustainability & Change“ an der Universität Hohenheim in einem Forschungspraktikum nachgegangen.

Unter Anleitung von Jun.-Prof. Dr. Henn beschäftigten sich die Studierenden in sechs Kleingruppen damit, wie die Suffizienzorientierung von Menschen erfasst werden kann. Sie untersuchten anhand von selbstgewählten Beispielen, ob Menschen, die darin besonders hohe Werte aufweisen, auch ein nachhaltigeres Verhalten zeigen.

Aufwand entscheidet über tatsächliches Einkaufsverhalten
Ein Ergebnis der Studierenden: Je weniger aufwändig ressourcenschonendes Verhalten, desto eher und häufiger wird es umgesetzt. So haben Menschen, die in Unverpacktläden einkaufen, um möglichst viel Müll zu vermeiden, nicht nur eine höhere Suffizienzeinstellung. Sie kaufen dort auch umso häufiger ein, je höher diese ist.

Für die Studierenden ein Hinweis darauf, dass vor allem Personen mit einer hohen Motivation bereit sind, einen höheren Aufwand zu betreiben. „Einkaufen in einem Unverpacktladen ist anders als in einem Supermarkt“, erläutert Janne Hoefer. „Die Menschen müssen viel stärker im Voraus planen, was und wie viel sie einkaufen wollen, und entsprechende Gefäße mitbringen.“

„Auffällig war auch, dass die Einkaufshäufigkeit mit steigendem Alter zunahm“, ergänzt Luis Nollenberger. Generell sind nach den Beobachtungen der Studierenden die häufigsten Kunden in Unverpacktläden junge Familien.

Foodsharing benötigt hohe Motivation
Zu einem ähnlichen Ergebnis kam eine andere Gruppe von Studierenden. Sie untersuchten, wie wichtig es Menschen ist, die Verschwendung von Lebensmitteln zu vermeiden. Also beispielsweise ihre Einkäufe bzw. Mahlzeiten zu planen, Lebensmittel nicht wegzuschmeißen, Reste zu verwerten oder sich beim Foodsharing zu engagieren. Auch hier zeigte sich: Je höher die Suffizienzeinstellung einer Person, desto höher ist auch ihr Einsatz beim Lebensmittel-Management.

Besonders auffällig war dies beim Foodsharing. Die Erklärung der Studierenden: Foodsharing ist mit einem hohen Aufwand verbunden. So müssen die Personen aktiv nach Informationen über Foodsharing Angebote suchen, eventuell eine App installieren und die Lebensmittel meist zu bestimmten Zeiten abholen. Dies setzt eine besonders hohe Motivation voraus.

Suffiziente Personen kaufen seltener neue Möbel
Personen, die über viel Suffizienz verfügen, verlängern nach den Ergebnissen der Studierenden auch eher die Lebensdauer ihrer Möbel und kaufen seltener neue Möbel. Dafür bevorzugen sie Reparaturen oder gebrauchte Alternativen. Allerdings gilt hier einschränkend: In der untersuchten Stichprobe waren vor allem jüngere Menschen enthalten, die noch bei Familienangehörigen oder in Wohnheimen bzw. Wohngemeinschaften wohnten.

Bei To-Go-Getränken und auf Partys spielt Suffizienz eine untergeordnete Rolle
Wenig Einfluss der Suffizienz auf das Verhalten fanden die Studierenden hingegen bei der Verwendung von Getränkebechern und auf Partys. So untersuchte eine Gruppe, ob Kund:innen bei To-Go-Getränken die angebotenen Einweg-Becher nutzen, Wert auf wiederverwendbare Becher legen oder sogar selbst solche Behältnisse mitbringen. Zwar wiesen Personen, die Mehrwegbechern positiv gegenüber standen, auch eine höhere Suffizienzeinstellung auf. Statistisch gesehen gab es jedoch keinen Zusammenhang mit der tatsächlichen Wahl des Bechers.

Auch bei Partys konnten die Studierenden keine Verbindung zwischen der Suffizienz und dem tatsächlichen Verhalten feststellen. Dies deckt sich mit ihren eigenen subjektiven Erfahrungen, wonach bei geselligen Veranstaltungen öfter mal die eigene Einstellung zum nachhaltigen Konsum über Bord geworfen wird. „Partys sind kein klassisches Nachhaltigkeitsthema – selbst bei Studierenden, denen dies wichtig ist“, sagt Marie Fankhänel. „Hier stehen die Geselligkeit und der Spaß im Vordergrund.“

Die Studierenden fanden allerdings andere statistische Beziehungen: So kaufen Menschen mit einer höheren Suffizienz seltener neue Kleidung für eine Party – und sie bestellen sich seltener im betrunkenen Zustand Dinge im Internet.

Verzicht auf Flugreisen steht oft im Konflikt mit anderen Zielen
Nur einen geringen Zusammenhang mit der Suffizienzeinstellung konnten die Studierenden auch bei der Frage finden, wie oft Menschen das Flugzeug tatsächlich nutzen, obwohl sie grundsätzlich Flugreisen nicht befürworten.

Laut Jun.-Prof. Dr. Henn könnte eine Ursache darin liegen, dass persönliche Normen und Einstellungen zu Nachhaltigkeit das Fernreiseverhalten nicht vorhersagen können: „Der völlige Verzicht auf Flugreisen erfordert ein starkes Engagement und steht oft im Konflikt mit anderen Lebenszielen, wie beispielsweise dem Sammeln von Reiseerfahrungen.“

Studierenden-Projekt bestätigt wissenschaftliche Studien
„Auch wenn die Ergebnisse der Studierenden nicht repräsentativ sind, so zeigen sie doch ein paar Aspekte auf, die sich auch in wissenschaftlichen Veröffentlichungen finden“, erklärt Jun. Prof. Dr. Henn: „So wird die Wahrscheinlichkeit, dass eine Person einen stärker suffizienzorientierten Lebensstil führt, vor allem durch zwei Faktoren bestimmt: Einerseits dadurch, wie stark sie einen solchen Lebensstil befürwortet, und andererseits durch die Frage, welche Hindernisse sie hat das entsprechende Verhalten auch umzusetzen.“

Dazu kämen laut der Wissenschaftlerin noch Faktoren, die außerhalb des Einflussbereiches der Betreffenden lägen: „Wenn die Infrastruktur und die Politik ein suffizientes Verhalten unterstützen, ist die Wahrscheinlichkeit relativ groß, dass Menschen dies auch tun.“
Text: Stuhlemmer

Wissenschaftliche Ansprechpartner:
Jun.-Prof. Dr. Laura Henn, Universität Hohenheim, Fachgebiet Nachhaltiges Handeln und Wirtschaften, +49 (0)711 459-24945, laura.henn@uni-hohenheim.de

Weitere Informationen:
http://www.uni-hohenheim.de/presse Pressemitteilungen der Universität Hohenheim

(nach oben)


Seltene Mutation ist mögliches Angriffsziel für Krebsmedikament

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Mutationen im BRAF-Gen machen Tumoren oft besonders aggressiv. Seit einigen Jahren sind Medikamente zugelassen, die das mutierte BRAF blockieren. Sie richten sich allerdings nur gegen eine bestimmte, häufige Form der BRAF-Mutationen. Ein Forscherteam unter der Federführung von Wissenschaftlern im Deutschen Konsortium für Translationale Krebsforschung (DKTK), Standort Freiburg, und von der Universität Freiburg analysierte nun die Empfindlichkeit seltener Varianten der BRAF-Mutationen auf diese Medikamente. Die Forschenden konnten die molekularen Hintergründe für die Wirksamkeit der BRAF-Hemmstoffe entschlüsseln und damit möglicherweise die Entwicklung präziserer Wirkstoffe anstoßen.

Im DKTK verbindet sich das Deutsche Krebsforschungszentrum (DKFZ) in Heidelberg als Kernzentrum langfristig mit onkologisch besonders ausgewiesenen universitären Partnerstandorten in Deutschland.

Bei etwa acht Prozent aller Krebsfälle liegen Mutationen in dem Gen vor, das für das Enzym BRAF kodiert. BRAF-Mutationen fördern die unkontrollierte Teilung und Ausbreitung der Krebszellen. Sie werden häufig u. a. in Melanomen, bestimmten Hirntumoren und Schilddrüsenkarzinomen gefunden. Seltener treten sie auch in verbreiteten Krebsarten wie Dickdarmkrebs, nicht-kleinzelligem Lungenkrebs oder Bauchspeicheldrüsenkrebs auf.

Die Aktivität von Proteinkinasen, zu denen auch BRAF gehört, kann durch Medikamente aus der Gruppe der Kinase-Inhibitoren unterdrückt werden. Diese Wirkstoffe zielen speziell darauf ab, die häufigste krebstreibende BRAF-Mutation, BRAFV600E, abzuschalten.

Nachdem Krebsgewebe zunehmend auf BRAF-Mutationen getestet werden, entdeckten Forschende, dass neben der bekannten bekannten V600-Mutation ein breites Spektrum weiterer Veränderungen des BRAF-Gens in den Tumorzellen vorkommt. „Bislang ist jedoch wenig darüber bekannt, ob die ursprünglich für BRAFV600E entwickelten Kinase-Inhibitoren auch bei Krebsarten mit anderen BRAF-Mutationen wirksam sind,“ sagt Tilman Brummer, DKTK Freiburg und Universität Freiburg, der Seniorautor der aktuellen Arbeit, die in enger Zusammenarbeit mit den DKTK-Standorten Dresden, Heidelberg und Tübingen entstanden ist.

Zu diesem Spektrum an Mutationen zählen auch Verluste einiger Aminosäuren in einem für die Funktion von BRAF kritischen Teil des Enzyms. Solche „Deletions-Mutationen“ finden sich in vielen Krebsarten, besonders bei bestimmten Formen von Bauchspeicheldrüsenkrebs. „In der molekularbiologischen Standard-Diagnostik werden diese Bereiche von BRAF nicht erfasst, wodurch diese Mutationen bei den fünf bis 10 Prozent von Pankreas-Tumoren ohne KRAS-Mutationen vermutlich übersehen werden. Bei den umfangreichen molekularen Analysen von Tumorbiopsien, wie wir sie im DKTK MASTER-Programm* durchführen, um klinische Entscheidungen auf einer umfassenden molekularen Informationsbasis zu treffen, fallen uns diese Deletions-Mutationen jedoch immer häufiger auf“, sagt Stefan Fröhling, geschäftsführender Direktor am NCT Heidelberg und Leiter des DKTK MASTER-Programms.

„Ob BRAF-Deletions-Mutanten durch für BRAFV600E entwickelte Kinase-Inhibitoren wie Dabrafenib blockiert werden können, ist nach wie vor unklar. Strategien gegen diese Mutanten könnten neue zielgerichtete Behandlungsoptionen aufzeigen“, sagt Manuel Lauinger von der Universität Freiburg, Erstautor der aktuellen Arbeit, und ergänzt: „Tatsächlich deuten Fallberichte darauf hin, dass das Medikament Dabrafenib, ein Kinase-Inhibitor, der zur Behandlung von durch BRAFV600E-getriebenen Krebsarten entwickelt wurde, auch gegen Tumoren wirkt, die bestimmte Varianten der Deletions-Mutanten tragen.“

Ausgelöst durch die Entdeckung von zwei neuen Varianten der BRAF-Deletions-Mutante an den DKTK-Standorten Heidelberg und Tübingen, führte Manuel Lauinger einen detaillierten Vergleich der verschiedenen Deletions-Mutanten in Bezug auf ihre biochemischen und pharmakologischen Eigenschaften durch. Er fand heraus, dass sie sich überraschenderweise trotz ihrer sehr ähnlichen genetischen Veränderung in ihrer Empfindlichkeit gegenüber Dabrafenib deutlich unterscheiden. Darüber hinaus konnte Lauinger ein molekulares Detail identifizieren, das bestimmten Deletions-Mutanten Resistenz gegen Dabrafenib verleiht. Diese Erkenntnisse können neue Ansätze für die Entwicklung zukünftiger Arzneimittel für die Präzisionsonkologie liefern.

Während vor einer Behandlung mit Dabrafenib die genauen molekularen Details der jeweiligen BRAF-Deletions-Mutante beachtet werden müssen, gilt dies offenbar nicht für die so genannte dritte Generation an BRAF-Inhibitoren. Diese Wirkstoffe, die derzeit in klinischen Studien geprüft werden, erwiesen sich als wirksam gegen alle Mitglieder der Gruppe der BRAF-Deletions-Mutanten. Diese Untersuchungen wurde in Krebszelllinien sowie auch in Tumor-Organoiden („Mini-Tumoren“), die aus den Krebszellen individueller Patienten gezüchtet worden waren, durchgeführt.

* MASTER = Molecularly Aided Stratification for Tumor Eradication Research: Dieses Programm wurde ursprünglich am NCT Heidelberg und am NCT Dresden etabliert und stellt seit 2016 eine gemeinsame Aktivität aller DKTK-Standorte dar.
Originalveröffentlichung:
Lauinger, M., Christen, D., Klar, R.F.U., Roubaty, C., Heilig, C.E., Stumpe, M., Knox, J, Radulovich, N., Tamblyn, L., Xie, I., Horak, P., Forschner, A., Bitzer, M., Wittel, U.A., Boerries, M., Ball, C.R., Heining, C., Glimm, H., Fröhlich, M., Hübschmann, D., Gallinger, S., Fritsch, R., Fröhling, S., O’Kane, G., Dengjel, J. und T. Brummer (2023). BRAFΔβ3-αC in-frame deletion mutants differ in their dimerization propensity, HSP90 dependence and druggability.
Science Advances 2023, DOI: 10.1126/sciadv.ade7486

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.

Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:

Nationales Centrum für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 8 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)

Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

(nach oben)


Wie Windturbinen auf Turbulenzen reagieren

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Sprunghafte Leistungsänderungen von Windkraftanlagen könnten sich mit Hilfe einer neuen stochastischen Methode abschwächen lassen. Ein deutsch-iranisches Team zeigt in einer neuen Studie, dass die kurzfristigen Schwankungen der elektrischen Leistung vor allem auf die Kontrollsysteme der Windturbinen zurückzuführen sind. Gleichzeitig liefern die in der Zeitschrift PRX Energy veröffentlichten Ergebnisse Hinweise darauf, wie sich die Kontrollsysteme so optimieren lassen, dass die Turbinen gleichmäßiger Strom produzieren.

Die Leistung von Windkraftanlagen kann innerhalb von Sekunden um die Hälfte schwanken. Solche Fluktuationen im Megawattbereich belasten sowohl die Stromnetze als auch die Anlagen selbst. Einen möglichen Ansatz, um diese sprunghaften Änderungen zu vermeiden, zeigt nun eine neue Studie von Forschern der Universität Oldenburg und der Sharif Universität in Teheran (Iran) auf. Das Team berichtet, dass die kurzfristigen Schwankungen der elektrischen Leistung vor allem auf die Kontrollsysteme der Windturbinen zurückzuführen sind. Gleichzeitig liefern die Ergebnisse Hinweise darauf, wie sich die Kontrollsysteme so optimieren lassen, dass die Turbinen gleichmäßiger Strom produzieren. Die Studie ist in der Zeitschrift PRX Energy erschienen.

Das Team um Hauptautor Dr. Pyei Phyo Lin von der Universität Oldenburg analysierte Daten mehrerer Anlagen in einem Windpark. „Weil Windkraftanlagen unter turbulenten Windbedingungen arbeiten – ähnlich wie ein Flugzeug, das bei starkem Wind landet – schwanken alle Messdaten sehr stark, es ist kein klares Signal zu erkennen. Wir sprechen von Rauschen“, berichtet Lin. Der Physikingenieur und seine Kollegen untersuchten Zeitreihen der Windgeschwindigkeit, der elektrischen Leistung der Anlagen und der Drehgeschwindigkeit des Generators mit stochastischen Methoden.

Mit ihrem neuen mathematischen Ansatz gelang es den Forschern, das Rauschen in den Daten in zwei verschiedene Anteile aufzuspalten, von denen einer auf den Wind zurückzuführen ist und der andere auf die Reaktion des Kontrollsystems der Anlage. „Meist wird das Rauschen als lästiger Effekt betrachtet, der die Messungen stört“, sagt Lin. „Jetzt liefert uns das Rauschen neue Informationen über das System – das ist eine neue Qualität“, ergänzt Ko-Autor Dr. Matthias Wächter, der an der Universität Oldenburg die Arbeitsgruppe Stochastische Analyse leitet.

Wie das Team berichtet, deuten die Ergebnisse darauf hin, dass die Kontrollsysteme von Windkraftanlagen häufig nicht optimal auf kurzfristige Schwankungen des Windes reagieren: Meist wechseln sie die Kontrollstrategie, was zu den beobachteten starken Schwankungen der elektrischen Leistung führen kann. Durch die neuen Forschungsergebnisse sei es nun jedoch möglich, turbulente Windphänomene und die Reaktion der Kontrollsysteme zu entkoppeln. „Auf diese Weise wird es möglich, die Kontrollsysteme zu verfeinern, damit Windkraftanlagen gleichmäßiger Strom erzeugen“, so der Turbulenzexperte Prof. Dr. Joachim Peinke von der Universität Oldenburg, der an der Studie beteiligt war. Gleichzeitig lasse sich so die Effizienz von Windkraftanlagen verbessern und ihre Lebenszeit verlängern.

Prof. Dr. Mohammad Reza Rahimi Tabar, der zum Forschungsteam der aktuellen Studie gehörte, ist derzeit Fellow am Hanse-Wissenschaftskolleg in Delmenhorst.

Wissenschaftliche Ansprechpartner:
Dr. Pyei Phyo Lin (für Anfragen auf Englisch), Tel.: 0441/798-5052, E-Mail: pyei.phyo.lin@uol.de
Prof. Dr. Joachim Peinke, Tel.: 0441/798-5050, E-Mail: peinke@uol.de

Originalpublikation:
Pyei Phyo Lin, Matthias Wächter, M. Reza Rahimi Tabar und Joachim Peinke: „Discontinuous Jump Behavior of the Energy Conversion in Wind Energy Systems“, PRX Energy 2, 033009, https://doi.org/10.1103/PRXEnergy.2.033009

Weitere Informationen:
https://uol.de/twist

(nach oben)


Zukünftig künstliche Hüften für ein ganzes Leben?

Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg
Interdisziplinäres Forschungsteam der Uni Magdeburg entwickelt haltbare und biokompatible Materialien für dauerhafte Implantate

Ein interdisziplinäres Forschungsteam aus Werkstoffingenieurinnen und -ingenieuren sowie Biologinnen und Medizinstudierenden der Otto-von-Guericke-Universität Magdeburg entwickelt neue Materialien für langlebige Implantate. Biokompatible und antibakterielle Legierungen mit speziellen biomechanischen Eigenschaften sollen künftig schädliche Wechselwirkungen der Implantate mit dem umliegenden menschlichen Gewebe und dadurch entstehende Entzündungsreaktionen beziehungsweise Infektionen verhindern. Dadurch können die Haltbarkeit und Verträglichkeit künstlicher Gelenke verlängert und der Austausch des Implantats, eine sogenannte Implantatrevision, vermieden werden. Speziell Revisionsoperationen stellen eine enorme Belastung für die Patientinnen und Patienten dar und verursachen erhebliche Mehrkosten für das Gesundheitssystem.

„Durch die gestiegene Lebenserwartung und anhaltende Aktivität der Zielgruppe, erhöht sich die Belastung der Gelenke enorm, was wiederum zu einem vermehrten Verschleiß führt“, erklärt die Projektleiterin Prof. Dr. Manja Krüger vom Institut für Werkstoff- und Fügetechnik der Universität Magdeburg. „Die Folge ist eine Zunahme von Implantationen künstlicher Gelenke bei Patientinnen und Patienten und damit verbunden ein steigender Bedarf an besonders haltbaren und verträglichen Werkstoffen für diese Implantate.“ Aktuell eingesetzte Implantatwerkstoffe seien zwar prinzipiell schon von sehr hoher Qualität, aufgrund von Lockerungen, bedingt durch Abrieb und Korrosion, kann es dennoch zu postoperativen Komplikationen kommen, so die Ingenieurin weiter. Um diese Probleme zu beheben, würden für die Patienten und Patientinnen belastende und teure Revisionsoperationen nötig. „Vor allem während der Nutzung im Organismus entstehender Abrieb und resultierende Infektionen führen häufig dazu, dass Endoprothesen, also Implantate, wieder entfernt oder ausgetauscht werden müssen.“

Damit diese Revisionsoperationen in Zukunft nur noch selten nötig werden, forschen die Wissenschaftlerinnen und Wissenschaftler der Universität Magdeburg in zwei Teilbereichen: Zum einen befassen sich Ingenieure und Ingenieurinnen des Lehrstuhls für Hochtemperaturwerkstoffe mit der Materialentwicklung, also dem Design der Legierung sowie mit den mikrostrukturellen und mechanischen Eigenschaften der Materialien und deren Herstellung. Zum anderen arbeiten Biologinnen und Medizin-Studierende aus der Experimentellen Orthopädie des Universitätsklinikums daran, die Verträglichkeit des neuen Werkstoffs für den Organismus zu verstehen und zu optimieren.

„Uns interessieren dabei besonders sogenannte biokompatible Werkstoffe“, erklärt die Materialwissenschaftlerin Manja Krüger, „also im weiteren Sinne für das biologische System verträgliche Materialien.“ Biokompatibel seien, beispielsweise refraktärmetallbasierte Multikomponenten-Werkstoffsysteme, so Krüger. „Diese sogenannten Hoch- und Mediumentropie-Werkstoffe ermöglichen eine große Vielfalt von Kombinationen, was zu völlig neuen Werkstoffen mit außergewöhnlichen Eigenschaften führt. Kürzlich entwickelte Materialien dieser Art zeigen zum Beispiel hervorragende mechanische Eigenschaften, verbesserte Abriebfestigkeit und sowohl korrosive als auch thermische Beständigkeit, die denen von aktuellen Legierungen überlegen sind.“ Diese Legierungen hätten gegenüber den im Moment eingesetzten silberbeschichteten Implantaten den Vorteil, dass bei ihnen noch keine Resistenzen bekannt seien. „Wir wissen, dass Bakterien im Laufe der Jahre einen Resistenzmechanismus gegen Silber entwickeln können, sodass die ursprüngliche antibakterielle Wirkung des Elements abgeschwächt wird. Das wiederum bedeutet, dass auch Silberimplantate irgendwann nicht mehr antibakteriell wirken und periprothetische Infekte, also Infektionen, die sich um eine künstliche Implantation im Körper herum entwickeln, auftreten können“, fügt die Biologin Prof. Jessica Bertrand von der Experimentellen Orthopädie des Universitätsklinikums an.

Langfristiges Ziel der Forscherinnen und Forscher ist es, ein passendes Legierungssystem als neuartigen Implantatwerkstoff zu identifizieren, zu entwickeln und im Labor zu erproben. „Konkret heißt das: Die zugrundeliegenden materialwissenschaftlichen Zusammenhänge sind geklärt, die mechanischen Eigenschaften sind bekannt und übertreffen die branchenüblichen Anforderungen aktuell im Einsatz befindlicher Werkstoffe für Endoprothesen beziehungsweise sind entsprechend patientenspezifisch einstellbar und für die Biokompatibilität beziehungsweise die antibakterielle Wirkung des Systems ist der Nachweis erbracht“, so Prof. Krüger.

Das Forschungsteam besteht aus Prof. Dr. Manja Krüger, Maximilian Regenberg, Dr. Georg Hasemann und Dr. Janett Schmelzer von der Fakultät für Maschinenbau sowie Prof. Dr. Jessica Bertrand, Caroline Grimmer und Munira Kalimov von der Experimentellen Orthopädie. Das Team wurde für seine interdisziplinäre Forschung mit dem zweiten Platz in der Kategorie „Innovativste Vorhaben der Grundlagenforschung“ des Hugo-Junkers-Preises 2023 ausgezeichnet.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manja Krüger, Institut für Werkstoff- und Fügetechnik, Fakultät für Maschinenbau, Tel.: +49 391 67-54516, E-Mail: manja.krueger@ovgu.de

(nach oben)


Nord- und Ostsee im Spannungsfeld von Meeresnutzung und Meeresschutz

Eva Sittig Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Jahrestagung der DAM-Forschungsmission sustainMare an der Uni Kiel stellt Handlungswissen für Politik und Gesellschaft in den Mittelpunkt

• 280 Wissenschaftlerinnen und Wissenschaftler aus 28 Institutionen und 40 Arbeitsgruppen forschen erstmals gemeinsam in sieben Projekten zu Zukunftsthemen der Nord- und Ostsee
• Transdisziplinäre Forschungsagenda mit Akteurinnen und Akteuren aus Politik, Wirtschaft und Zivilgesellschaft
• Mehr als 170 Forschende zu Gast an der Christian-Albrechts-Universität zu Kiel (CAU) thematisieren multiple ökologische, ökonomische und gesellschaftliche Auswirkungen der Nutzung von Nord- und Ostsee

Die Nordsee und die Ostsee und ihre Küsten beherbergen eine einzigartige Vielfalt an Lebewesen. Der Druck auf diese Lebensräume steigt allerdings. Der Klimawandel und der für die kommenden Jahre geplante Ausbau der Offshore-Energiegewinnung werden die Nord- und Ostsee stark verändern. In dieser Situation benötigen wir neue Maßnahmen zum Schutz der Natur und den Erhalt der biologischen Vielfalt. Ansprüche, beispielsweise aus der Industrie, der Fischerei, dem Tourismus oder der Landwirtschaft müssen mit europäischen Naturschutzabkommen wie der Biodiversitätsstrategie 2030 oder politischen Vorgaben zum Ausbau der Offshore-Windenergie in Einklang gebracht werden. In diesem komplexen Spannungsfeld gilt es, Handlungswissen für Politik und Gesellschaft bereitzustellen, das zu einem nachhaltigen Umgang mit dem Meeresraum und seinen Ökosystemleistungen bei gleichzeitiger Mehrfachnutzung beitragen kann. Erstmals forschen dazu Wissenschaftlerinnen und Wissenschaftler aus 28 Partnerinstitutionen interdisziplinär und transdisziplinär mit Expertinnen und Experten aus der Praxis in der Forschungsmission „Schutz und nachhaltige Nutzung mariner Räume – sustainMare“ der Deutschen Allianz Meeresforschung (DAM). Heute (Mittwoch, 30. August) beginnt an der Christian-Albrechts-Universität zu Kiel (CAU) die zweite Jahrestagung der Mission, an der mehr als 170 Wissenschaftlerinnen und Wissenschaftler sowie Vertreterinnen und Vertreter verschiedener Interessengruppen teilnehmen.

Karin Prien, Ministerin für Allgemeine und Berufliche Bildung, Wissenschaft, Forschung und Kultur des Landes Schleswig-Holstein, begrüßte die Teilnehmenden zu Beginn der Konferenz: „Der Schutz der Meere und der Küstenregionen ist nicht nur für Norddeutschland, sondern für die gesamte Welt von hoher Relevanz und der Arbeit der Forscherinnen und Forscher auf diesem Gebiet kann nicht genug Bedeutung beigemessen werden. Ich bin stolz darauf, dass sich das Land Schleswig-Holstein durch die Förderung der DAM inklusive der Forschungsmissionen aktiv beteiligen kann.“

Der Vorsitzende der DAM, Dr. Jochen Harms, betont zusätzlich: „Unsere größte Herausforderung ist, die unterschiedlichen Nutzungsinteressen mit dem Schutz unserer beiden Meere in Einklang zu bringen – um sie auch für künftige Generationen als Lebensgrundlage zu bewahren. Wissenschaftliche Erkenntnisse dafür zu erarbeiten, steht im Fokus der Mission sustainMare.“

Erhöhter Forschungsbedarf durch massive Veränderungen im System Nord- und Ostsee
„Die Nord- und Ostsee werden sich in den nächsten 25 Jahren gravierend verändern. Nicht nur die Folgen des Klimawandels werden die die Regionen weiter belasten. Auch die verstärkte Nutzung durch Industrie, Schifffahrt, Militär und für die Energieerzeugung wird sich massiv auf die Ökosysteme auswirken. Das ist eine Herausforderung für die Fischerei und den Meeresschutz, aber auch für die Forschung. Unser Verständnis der Systeme Nordsee und Ostsee wie wir sie kennen wird durch diese Veränderungen an Bedeutung verlieren und neue Forschungsfragen werden aufgeworfen, die nur im breiten Verbund der wissenschaftlichen Institutionen bearbeitet werden können“, sagt Professorin Corinna Schrum vom Helmholtz-Zentrum Hereon und Sprecherin der DAM-Forschungsmission sustainMare.

Forschende ziehen Bilanz aus den Ergebnissen von insgesamt sieben Projekten
Im Rahmen der dreitägigen Konferenz werden nun die ersten Ergebnisse nach eineinhalb Jahren Forschung von insgesamt fünf Verbundprojekten und zwei Pilotmissionen zusammengetragen und die Weichen für die zukünftige wissenschaftliche Agenda gestellt. Dabei konzentrieren sich die Forscherinnen und Forscher auf drei thematische Schwerpunkte: Biodiversität und die Auswirkungen anthropogener Belastungen und Nutzungen auf marine Ökosysteme, Schadstoffbelastungen mit dem Schwerpunkt auf Munitionsaltlasten aus den Weltkriegen sowie die Entwicklung von Modellierungsinstrumenten zur Erstellung von Zukunftsszenarien, insbesondere unter Berücksichtigung der Klimaveränderungen und des Nutzungsdrucks durch Offshore-Windenergie, Fischerei oder Sedimentmanagement.

Gerade im Hinblick auf die zunehmende Mehrfachnutzung von Nord- und Ostsee ist es wichtig, solche Modelle zu entwickeln, in denen klassische Auswertungsmethoden durch neue molekulare und semi-autonome Methoden ergänzt werden. Ziel ist es, Lücken in der Datenerhebung zu schließen, um wissensbasierte Managementoptionen abzuleiten.

Transdisziplinärer Forschungsansatz mit Akteuren außerhalb der Wissenschaft
Dafür wählt sustainMare einen besonderen Ansatz: Akteure aus Politik und Behörden, aus Fischerei, Tourismus, Umweltverbänden und Wirtschaft werden aktiv in die Forschung eingebunden. Dabei setzen die Wissenschaftlerinnen und Wissenschaftler auf etablierte transdisziplinäre Methoden wie Reallabore und Dialogformate, um Fragestellungen und Ergebnisse mit betroffenen Stakeholdern hin zu tragfähigen Konzepten weiterzuentwickeln. So wurden beispielsweise für die Zukunft der Küstenfischerei in der westlichen Ostsee Reallabore in Schleswig-Holstein und Mecklenburg-Vorpommern aufgebaut. „Die Küstenfischerei ist ein Nahrungslieferant und ein wichtiges Kulturgut in Norddeutschland. Sie soll möglichst erhalten bleiben. Mit dem Instrument der Reallabore wächst der Austausch zwischen den Akteuren und das gemeinsame Verständnis über die Funktionsweise des Ökosystems, aber auch über die Rolle der Küstenfischerei für die lokalen Gemeinschaften. Gemeinsam können wir hier lokale Lösungsansätze für eine nachhaltige Fischerei entwickeln und ausprobieren“, erklärt CAU-Professorin Marie-Catherine Riekhof, Mitorganisatorin der sustainMare-Tagung.

Auch in der Nordsee werden die Mehrfachnutzungen und die Biodiversität in Meeresschutzgebieten mit einem Reallabor-Ansatz und mit neuartigen Methoden erforscht, die nicht mehr in die Ökosysteme eingreifen. Indikatoren zur Bewertung des ökologischen Zustands von Küstenökosystemen und deren Anwendung in der Naturschutzpraxis werden darüber hinaus in den Nationalparks Schleswig-Holsteins und Niedersachsens entwickelt.

Akutes Umweltproblem: Bergung von Nachkriegsmunition
Ein akutes Umweltproblem, auf das die Mission ihr Augenmerk richtet, sind die erheblichen Munitionsaltlasten, die in der deutschen Nordsee und Ostsee nach dem Zweiten Weltkrieg verklappt wurden. Auch hier wurde im Rahmen der Forschungsmission sustainMare ein transdisziplinärer Ansatz gewählt. „Der Handlungsdruck ist groß. Die Munition liegt dort teilweise seit mehr als 100 Jahren im Salzwasser, so dass sich die Metallhüllen zersetzen. Wir konnten Schadstoffe wie TNT in marinen Lebewesen nachweisen. Es gibt bereits weit fortgeschrittene Konzepte für die Beseitigung der Nachkriegsmunition, die nun in den kommenden Jahren umgesetzt werden sollen. Glücklicherweise existiert ein breiter gesellschaftlicher und politischer Konsens darüber, endlich mit der Problemlösung zu beginnen“, sagt Professor Jens Greinert vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und Mitorganisator der Jahrestagung.

Erstmalig ganzheitlicher Zustand von Schutzgebieten in Nord- und Ostsee erfasst
Wertvolle Erkenntnisse für die gesamte Mission sustainMare wurden zudem in den beiden Pilotmissionen „Ausschluss mobiler, grundberührender Fischerei in Schutzgebieten der Deutschen ausschließlichen Wirtschaftszone (AWZ) von Nord- und Ostsee“ gewonnen. Hierbei ist die zentrale Frage, wie sich ein Ausschluss der Schleppnetzfischerei auf die Lebensgemeinschaften, die Beschaffenheit des Meeresbodens, die Biogeochemie der Sedimente und auf die Austauschprozesse zwischen Sediment und Wassersäule auswirken wird. Erstmalig wurde dafür ein ganzheitlicher Basiszustand der Schutzgebiete erfasst, um verfolgen zu können, wie sich Ökosysteme ohne Schleppnetzstörung entwickeln. Auf der Grundlage dieser Datenerhebung wird nun mit neuen und traditionellen Methoden ein Monitoring entwickelt, das dazu beiträgt, Zustandsveränderungen rechtzeitig zu erkennen und Gegenmaßnahmen einzuleiten.

Folgen mehrfacher Nutzung der Küstengewässer im Fokus zukünftiger Forschung
Die Energiewende und besonders die Notwendigkeit der Sicherung der Energieerzeugung hat im vergangenen Jahr zu einer erheblichen Beschleunigung des Ausbautempos der Offshore-Energiegewinnung geführt. Das ist eine Entwicklung, der sich die Forschungsmission sustainMare nicht verschließen kann. Schon heute sind Auswirkungen auf die Strömungsverhältnisse und den Meeresboden sowie Veränderungen der Lebensräume für Fische, Meeressäuger oder Seevögel zu beobachten. Die Folgen der intensiven Nutzung unserer Küstengewässer, die Untersuchung von wirksamen Schutzkonzepten und Konzepten zur besseren Ausnutzung des Meeresraumes werden deshalb im weiteren Verlauf der Forschungsmission noch zentraler für die Forschung werden.

Fotos stehen zum Download bereit:
https://www.uni-kiel.de/de/pressemitteilungen/2023/209-baumkurre-nordsee.jpg
Baumkurre im Einsatz in der Nordsee.
© AWI; Hermann Neumann, Thünen-Institut für Seefischerei

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-gruppenfoto-auftakt.jpg
Auftakt zur sustainMare-Jahrestagung an der Uni Kiel zu Zukunftsthemen der Nord- und Ostsee: Karin Prien (4.v.l.), Ministerin für Allgemeine und Berufliche Bildung, Wissenschaft, Forschung und Kultur des Landes Schleswig-Holstein, CAU-Präsidentin Prof. Simone Fulda (5.v.r.), Tobias Goldschmidt (4.v.r.), Minister für Energiewende, Klimaschutz, Umwelt und Natur des Landes Schleswig-Holstein (MEKUN), Prof. Corinna Schrum (3.v.r.) vom Helmholtz-Zentrum Hereon, Sprecherin der DAM-Forschungsmission sustainMare und Leiterin des sustainMare-Projektes CoastalFutures, Dr. Joachim Harms (2.v.r.), Vorsitzender des DAM-Vorstands, im Kreis der Projektleitenden und Organisatorinnen und Organisatoren der Konferenz.
© Jürgen Haacks, Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-simone-fulda.jpg
Professorin Simone Fulda, Präsidentin der Christian-Albrechts-Universität zu Kiel (CAU), begrüßte die Teilnehmenden der sustainMare-Jahrestagung.
© Jürgen Haacks, Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-marie-catherine-riekhof.j…
Prof. Dr. Marie-Catherine Riekhof vom Center for Ocean and Society im CAU-Forschungsschwerpunkt Kiel Marine Science (KMS), leitet sustainMare-Projekt SpaceParti mit Fokus Fischerei, räumliche Nutzung, Biodiversität und Reallabore.
© Jürgen Haacks, Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-fischerei-hafen.jpg
Die Küstenfischerei ist ein Nahrungslieferant und ein wichtiges Kulturgut in Norddeutschland. Mit dem Instrument der Reallabore sollen lokale Lösungsansätze für eine nachhaltige Fischerei entwickelt und ausprobiert werden.
© Heike Schwermer, CeOS/Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-jens-greinert.jpg
Im Projekt CONMAR, das Professor Dr. Jens Greinert vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel leitet, wird zum Thema Munition im Meer geforscht.
© Jürgen Haacks, Uni Kiel

Weiteres Bildmaterial ist verfügbar unter:
Zu Projektbildern von sustainMare (abrufbar bis einschließlich 11. September 2023), https://cloud.rz.uni-kiel.de/index.php/s/tFQXysyzggSWykb
Zum Bildarchiv der DAM, https://www.allianz-meeresforschung.de/download

Ein Video steht zur Ansicht bereit:
https://videoportal.rz.uni-kiel.de/Mediasite/Play/8e31813a4cc44590a08ad1601f9e4a… (abrufbar bis einschließlich 11. September 2023)
Videobotschaft von Bettina Stark-Watzinger, Bundesministerium für Bildung und Forschung (BMBF), zum Auftakt der sustainMare-Jahrestagung. Die DAM Forschungsmission sustainMare wird vom BMBF und den norddeutschen Bundesländern Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein gefördert.
© Bundesministerium für Bildung und Forschung (BMBF)

Über sustainMare
In der Forschungsmission „sustainMare – Schutz und nachhaltige Nutzung mariner Räume“ der DAM untersuchen rund 250 Forschende in zwei Pilot- und fünf Verbundprojekten, wie zukünftig eine nachhaltige Nutzung bei gleichzeitigem Schutz der Meere gewährleistet werden kann. Durch inter- und transdisziplinäre Forschungsansätze sollen das Wissen über multiple Stressoren und die Auswirkungen des Klimawandels auf das Ökosystem Meer erhöht und mithilfe von Zukunftsszenarien konkrete Handlungsempfehlungen für und mit verschiedenen Zielgruppen erarbeitet werden. Übergreifend koordiniert wird sustainMare am Helmholtz-Zentrum Hereon. Seit Dezember 2021 wird sustainMare in seiner ersten dreijährigen Phase vom Bundesministerium für Bildung und Forschung (BMBF) mit 25 Mio. Euro gefördert. Die DAM erarbeitet mit ihren 22 Mitgliedseinrichtungen lösungsorientiertes Wissen und Handlungsoptionen für einen nachhaltigen Umgang mit den Küsten, Meeren und dem Ozean.
Die sustainMare-Forschungsmission ist eine Aktivität im Rahmen der UN Ozeandekade für Ozeanforschung und Teil des Dekadenprogramms „smartNet“. Die sustainMare-Konferenz ist gleichzeitig als Veranstaltung unter dem Dach des „European Maritime Day in my Country“ anerkannt, einer Kampagne der Europäischen Kommission zu Stärkung des Meeresschutzes als auch der wirtschaftlichen Bedeutung der Meere für eine nachhaltige Blaue Wirtschaft in Europa.
https://www.sustainmare.de/

Über die Deutsche Allianz Meeresforschung
Die Deutsche Allianz Meeresforschung (DAM) wurde 2019 vom Bund und den norddeutschen Ländern gegründet, um den nachhaltigen Umgang mit Küsten, Meeren und dem Ozean zu stärken. Mit ihren 24 Mitgliedseinrichtungen und den eigenen Forschungsmissionen CDRmare und sustainMare erarbeitet die DAM lösungsorientiertes Wissen und vermittelt Handlungsoptionen in Politik, Wirtschaft und Zivilgesellschaft. Sie wird vom Bund, vertreten durch das Bundesministerium für Bildung und Forschung (BMBF), und den norddeutschen Bundesländern Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein gefördert.
https://www.allianz-meeresforschung.de/
https://cdrmare.de/
https://www.sustainmare.de/

Wissenschaftliche Kontakte:
Prof. Dr. Corinna Schrum
Helmholz-Zentrum Hereon
Sprecherin der DAM-Forschungsmission sustainMare
E-Mail: corinna.schrum@hereon.de

Prof. Dr. Marie-Catherine Riekhof
Direktorin des Center for Ocean and Society (CeOS)
Forschungsschwerpunkt Kiel Marine Science (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: mcriekhof@ae.uni-kiel.de

Prof. Dr. Jens Greinert
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
E-Mail: jgreinert@geomar.de

Pressekontakte:
Friederike Balzereit
Wissenschaftskommunikation | Öffentlichkeitsarbeit
Kiel Marine Sciences (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: fbalzereit@uv.uni-kiel.de
Telefon: 0431/880-3032, 0160/9726-2502

Christoph Wöhrle
Helmholtz-Zentrum Hereon
Kommunikation und Medien ℓ Communication and Media
E-Mail: christoph.woehrle@hereon.de
Telefon: 04152/87-1648, 0171/8064-979

Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Eva Sittig, Text/Redaktion: Friederike Balzereit Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de Internet: https://www.uni-kiel.de Twitter: https://www.twitter.com/kieluni Facebook: https://www.facebook.com/kieluni Instagram: https://www.instagram.com/kieluni

Wissenschaftliche Ansprechpartner:
Prof. Dr. Corinna Schrum
Helmholz-Zentrum Hereon
Sprecherin der DAM-Forschungsmission sustainMare
E-Mail: corinna.schrum@hereon.de

Prof. Dr. Marie-Catherine Riekhof
Direktorin des Center for Ocean and Society (CeOS)
Forschungsschwerpunkt Kiel Marine Science (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: mcriekhof@ae.uni-kiel.de

Prof. Dr. Jens Greinert
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
E-Mail: jgreinert@geomar.de

Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/209-sustainmare-jahrestagung

(nach oben)


Frauen im Fokus

Tanja Hoffmann M.A. Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen
Eine neue Nachwuchsforschungsgruppe an der Uni Siegen untersucht die Beiträge von Frauen in der Physik- und Mathematikgeschichte des 20. Jahrhunderts. Ein Ziel des Projektes ist auch, zu einem neuen Verständnis von Wissenschaftsphilosophie und -geschichte beizutragen.

Die Kernspaltung, die DNA-Doppelhelix-Struktur, die Radioaktivität: Viele bahnbrechende wissenschaftliche Entdeckungen gehen maßgeblich auf die Forschungsleistungen von Frauen zurück. Auch zahlreiche Ansätze und Theorien, die heute zum Grundbestand der mathematischen Physik zählen, wurden von Wissenschaftlerinnen (mit)entwickelt. Zu ihren Lebzeiten wurden sie jedoch häufig kaum für ihre Errungenschaften gewürdigt. Bis heute sind ihre Namen vielen Menschen unbekannt – während berühmte Physiker wie Albert Einstein, Max Planck oder Werner Heisenberg in aller Munde sind. Eine Nachwuchsforschungsgruppe am Department Mathematik der Universität Siegen hat es sich zum Ziel gesetzt, die Beiträge von Frauen in der Physik- und Mathematikgeschichte des 20. Jahrhunderts zu erforschen – und sogenannte „Gender Biases“ im Schnittfeld von Wissenschafts- und Philosophiegeschichtsschreibung zu analysieren.

„Gender Biases sind systematische Verzerrungseffekte, die durch geschlechtsbezogene Vorurteile geprägt sind und zu Benachteiligungen führen“, erklärt die Leiterin der Siegener Nachwuchsforschungsgruppe, Dr. Andrea Reichenberger: „Gender Biases wirken nicht nur in unserer alltäglichen Kommunikation und Interaktion, sondern eben auch in der Wissenschaft und Forschung – und nicht zuletzt in der Wissenschaftsphilosophie und -geschichte. Uns geht es deshalb zum einen darum, den Anteil von Frauen an der Entstehung wichtiger Erkenntnisse in der mathematischen Physik neu zu bewerten. Zum anderen möchten wir neue Ansätze einer Philosophie und Geschichte der Wissenschaften vorstellen, indem wir innovative Perspektiven auf das Thema Gleichstellung aufzeigen.“

Ein Beispiel für die Unterbewertung der wissenschaftlichen Beiträge von Frauen ist die amerikanische Mathematikerin Christine Ladd-Franklin: Bis kurz vor ihrem Tod im Jahr 1930 wurde ihr von der John Hopkins University trotz erreichter Qualifikation der Doktortitel vorenthalten, weil sie eine Frau war. Dennoch waren ihre Beiträge in Philosophie, Logik, Mathematik und Psychologie sehr einflussreich und führten dazu, dass Ladd-Franklin in zahlreichen Publikationen zitiert wurde. Nach ihrem Tod geriet die Wissenschaftlerin jedoch rasch in Vergessenheit, stattdessen wurde ihr Lehrer, der Mathematiker und Philosoph Charles Sanders Peirce, als herausragender Logiker seiner Zeit gefeiert.

„Zu ihren Lebzeiten waren Christine Ladd-Franklins Arbeiten zur Algebra der Logik einflussreich und wichtig, das lässt sich auch statistisch nachweisen. Ihr Einfluss auf die Geschichte und Philosophie der Logik sollte daher angemessener eingeordnet werden“, sagt Jasmin Özel von der Siegener Forschungsgruppe.

Weitere Wissenschaftlerinnen, mit denen sich Andrea Reichenberger und ihr Team beschäftigen, sind unter anderen die französische Logikerin und Physikerin Paulette Destouches-Février oder auch die deutsch-australische Physikerin und Philosophin Ilse Rosenthal-Schneider. Rosenthal-Schneider promovierte 1920 an der Universität Berlin zum Thema „Das Raum-Zeit-Problem bei Kant und Einstein“, Albert Einstein begleitete die Arbeit in Gesprächen und Diskussionen. Doch trotz Empfehlungsschreiben von Einstein, Max Planck und Max von Laue erhielt die Wissenschaftlerin nach ihrer Emigration nach Australien nie mehr als eine Tutorenstelle. Und dennoch lieferte Rosenthal-Schneider mit ihrer unermüdlichen Lehr- und Publikationstätigkeit wichtige Impulse für das später gegründete Institut für „History and Philosophy of Science“ an der Universität Sydney.

Archivmaterial wie Briefe oder wissenschaftliche Aufsätze sind eine wichtige Quelle für die Siegener Forscher*innen. Neben der qualitativen Analyse solcher Texte erheben sie auch quantitative Daten, beispielsweise zur Anzahl der Zitierungen in wissenschaftlichen Publikationen. „Die Kombination von qualitativen und quantitativen Forschungsmethoden ist sehr gewinnbringend, wenn es darum geht, sich dem tatsächlichen Anteil von Frauen in der Geschichte der Physik und Mathematik anzunähern“, erklärt Reichenberger. Der Blick auf die Historie habe zudem direkte Bezüge zu Gegenwart und Zukunft, betont sie: „Wird die scheinbare Abwesenheit von Frauen im wissenschaftlichen Kanon unhinterfragt fortgeschrieben, dann bleiben tief liegende, stereotype Denkmuster erhalten und werden von Generation zu Generation weitervererbt. Auf diese Machtstrukturen möchten wir aufmerksam machen.“

Hintergrund:
Die Nachwuchsforschungsgruppe „Geschichte und Philosophie neu denken: Frauen im Fokus“ wird von der Universität Siegen im Rahmen des Professorinnen-Programms von Bund und Ländern mit 420.000 Euro gefördert. Neben Dr. Andrea Reichenberger und Jasmin Özel gehören Julia Franke-Redding und Dr. Rudolf Meer zu der Siegener Nachwuchsforschungsgruppe. Meer ist mit einem Marie Curie STAR Fellowship aus Österreich an die Universität Siegen gekommen, um in der Gruppe zu forschen. Alle vier Wissenschaftler*innen sind ausgebildete Philosophie-Historiker*innen mit einem Schwerpunkt auf den Fächern Physik und Mathematik.

Wissenschaftliche Ansprechpartner:
Dr. Andrea Reichenberger (Leiterin der Nachwuchsforschungsgruppe)
E-Mail: andrea.reichenberger@uni-siegen.de
Tel.: 0271 740 5601

(nach oben)


Meereisrückgang lässt Zooplankton künftig länger in der Tiefe bleiben

Folke Mehrtens Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Sonnenlicht kann wegen der zunehmenden Meereisschmelze in der Arktis immer tiefer in den Ozean eindringen. Weil sich das Zooplankton im Meer an den Lichtverhältnissen orientiert, verändert sich dadurch auch sein Verhalten – vor allem dabei der Auf- und Abstieg der winzigen Tiere innerhalb der Wassersäule. Wie ein internationales Forschungsteam unter Leitung des Alfred-Wegener-Instituts nun zeigt, könnte dies in Zukunft zu häufigeren Hungerphasen beim Zooplankton und zu negativen Effekten bis hin zu Robben und Walen führen. Die Studie ist im Fachmagazin Nature Climate Change erschienen.

Ausdehnung und Dicke des Meereises in der Arktis schwinden in Folge des menschengemachten Klimawandels deutlich. So schrumpft die durchschnittliche Fläche des Eises derzeit um etwa 13 Prozent pro Dekade. Schon 2030 – so zeigen es aktuelle Studien und Modellrechnungen – könnte der Nordpol im Sommer erstmals eisfrei sein. Die physikalischen Umweltbedingungen für das Leben im Nordpolarmeer ändern sich dadurch ebenso deutlich. Das Sonnenlicht etwa kann bei schrumpfender und dünnerer Eisdecke viel tiefer in das Wasser des Ozeans eindringen. In der Folge kann etwa die Primärproduktion – also das Wachstum – von Mikroalgen in Wasser und Eis unter bestimmten Bedingungen stark ansteigen. Wie sich die veränderten Lichtbedingungen auf höhere trophische Ebenen der Nahrungskette – wie beispielsweise das sich unter anderem von Mikroalgen ernährende Zooplankton – auswirken, ist bislang noch nicht gut verstanden. Ein internationales Forschungsteam um Dr. Hauke Flores vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) hat nun einen wichtigen wissenschaftlichen Baustein für ein besseres Verständnis geliefert.

„In den Ozeanen findet jeden Tag die gewaltigste synchrone Massenbewegung von Organismen auf dem Planeten statt“, sagt Hauke Flores. „Und das ist die tägliche Wanderung des Zooplanktons, zu dem etwa die winzigen Copepoden, auch bekannt als Ruderfußkrebse, und der Krill zählen. Nachts kommt das Zooplankton nah an die Wasseroberfläche, um zu fressen. Tagsüber wandert es wieder in die Tiefe, um sich vor Fressfeinden zu schützen. Einzelne Organismen des Zooplanktons sind zwar winzig, in der Summe aber ergibt sich so eine enorme tägliche Vertikalbewegung von Biomasse in der Wassersäule. In den Polargebieten sieht diese vertikale Wanderung allerdings anders aus. Sie ist hier saisonal, das heißt, dass das Zooplankton einem jahreszeitlichen Zyklus folgt. In der monatelangen Helligkeit des Polartags im Sommer bleibt das Zooplankton dauerhaft in größeren Tiefen, in der monatelangen Dunkelheit der Polarnacht im Winter kommt ein Teil des Zooplanktons dann dauerhaft in das oberflächennahe Wasser direkt unter dem Eis.“

Ganz wesentlich bestimmt werden sowohl die tägliche Wanderung in niedrigen Breiten als auch die saisonale Wanderung in den Polargebieten vom Sonnenlicht. Die winzigen Tiere mögen es meist dämmrig. Sie bleiben gern unterhalb einer bestimmten Lichtintensität (kritisches Isolumen), die meist sehr niedrig ist und weit im dunklen Dämmerlichtbereich liegt. Wenn sich im Laufe des Tages oder der Jahreszeiten die Sonnenlichtintensität ändert, folgt das Zooplankton dem Isolumen, was letztlich dann zum Auf- und Absteigen in der Wassersäule führt. „Speziell im Bereich der oberen 20 Meter Wassersäule direkt unter dem Meereis fehlten bislang Daten zum Zooplankton“, erläutert Hauke Flores. „Genau dieser schwer für Messungen erreichbare Bereich ist aber der spannendste, weil genau hier im und unter dem Eis die Mikroalgen wachsen, von denen sich das Zooplankton ernährt.“ Um hier zu messen, konstruierte das Team ein autonomes biophysikalisches Messobservatorium, das sie am Ende der MOSAiC-Expedition des AWI-Forschungseisbrechers Polarstern im September 2020 unter dem Eis verankerten. Das Gerät konnte hier – fernab jeder Lichtverschmutzung durch menschliche Aktivitäten – kontinuierlich die Lichtintensität unter dem Eis und die Bewegungen des Zooplanktons messen.

„Im Ergebnis konnten wir ein sehr niedriges kritisches Isolumen für das Zooplankton von 0,00024 Watt/Quadratmeter bestimmen“, sagt der AWI-Forscher. „Diesen Wert haben wir dann in unsere Computermodelle integriert, die das Meereissystem simulieren. So haben wir dann für verschiedene Klimaszenarien berechnet, wie sich die Tiefe dieses Isolumens bis zur Mitte dieses Jahrhunderts verändert, wenn das Meereis in Folge des fortschreitenden Klimawandels immer dünner wird.“ Dabei zeigte sich, dass das kritische Isolumen wegen der immer weiter abnehmenden Eisdicke immer früher im Jahr in größere Tiefen absinkt und immer später im Jahr wieder die Oberflächenschicht erreicht. Da das Zooplankton grundsätzlich unterhalb des kritischen Isolumens bleibt, wird es dieser Bewegung folgen. Deshalb hält es sich in den Zukunftsszenarien immer länger in größeren Tiefen auf und seine Zeit im Winter unter dem Eis wird immer kürzer.

„Künftig wird sich in einem wärmeren Klima das Eis im Herbst später bilden, was zu einer geringeren Eisalgenproduktion führt“, erklärt Hauke Flores. „In Kombination mit dem späteren Aufstieg kann das beim Zooplankton im Winter häufiger zu Nahrungsmangel führen. Im Gegenzug kann ein früherer Abstieg des Zooplanktons im Frühjahr eine Gefährdung für tiefer lebende Jungstadien von ökologisch wichtigen Zooplanktonarten bewirken, die dann vermehrt von den ausgewachsenen Tieren gefressen werden könnten.“

„Insgesamt zeigt unsere Studie einen bisher nicht beachteten Mechanismus auf, über den sich die Überlebenschancen des Zooplanktons in der Arktis in naher Zukunft weiter verschlechtern könnten“, sagt der AWI-Forscher. „Dies hätte fatale Auswirkungen auf das ganze Ökosystem bis hin zu Robben, Walen und Eisbären. Unsere Modellsimulationen zeigen aber auch, dass sich die Vertikalwanderung bei Einhaltung des 1,5 Grad-Ziels wesentlich weniger verschiebt als bei einem ungebremsten Fortschreiten der Treibhausgasemissionen. Deswegen ist für das arktische Ökosystem jedes Zehntel Grad weniger menschengemachte Erwärmung von entscheidender Bedeutung.“

SPERRFRIST: Montag, 28. August 2023 um 17:00 Uhr MESZ (16:00 London Time, 11:00 (US Eastern Time)

Wissenschaftliche Ansprechpartner:
https://www.awi.de/ueber-uns/service/expertendatenbank/hauke-flores.html

Originalpublikation:
H. Flores, G. Veyssiere, G. Castellani, J. Wilkinson, M. Hoppmann, M. Karcher, L. Valcic, A. Cornils, M. Geoffroy, M. Nicolaus, B. Niehoff, P. Priou, K. Schmidt, J. Stroeve: Sea-ice decline makes zooplankton stay deeper for longer; Nature Climate Change (2023). DOI: 10.1038/s41558-023-01779-1

Weitere Informationen:
http://multimedia.awi.de/medien/pincollection.jspx?collectionName=04b0ddd9f0d0c7… weitere Bilder

(nach oben)


Schutzschild gegen Coronaviren

Bianca Hermle Kommunikation und Medien
Universitätsklinikum Tübingen
Gute Neuigkeiten für Patientinnen und Patienten mit einer erworbenen oder angeborenen Immunschwäche: Die Ergebnisse einer klinischen Phase II Studie am Universitätsklinikum Tübingen unter Leitung von Prof. Dr. Juliane Walz und Prof. Dr. Helmut Salih zeigen eine wirksame Aktivierung der T-Zellen gegen das Coronavirus. Nach positiven Ergebnissen der vorangegangen Phase I bei gesunden Probandinnen und Probanden konnte der T-Zell-Aktivator „CoVac-1“ diese Effekte nun erstmalig bei Krebspatientinnen und Krebspatienten reproduzieren. Die Ergebnisse wurden aktuell in der renommierten Fachzeitschrift Nature communications publiziert.

Tübinger T-Zell-Aktivator bietet immungeschwächten Patientinnen und Patienten Schutz
Auch nach Ende der COVID-19-Pandemie sind virale Infektionen wie SARS-CoV-2 für Patientinnen und Patienten mit geschwächtem Immunsystem eine ernst zu nehmende Bedrohung. Zu dieser Gruppe gehören insbesondere an Krebs erkrankte Menschen, die durch die Erkrankung selbst oder aufgrund der Tumortherapie keine ausreichende Immunantwort nach einer natürlichen Infektion oder einer Impfung mit herkömmlichen Impfstoffen bilden können. Bei diesen Personen entwickeln sich häufig keine Antikörper gegen die Viruserkrankung. Für diese immungeschwächten Menschen hat das Tübinger Team einen Impfstoff entwickelt, mit dem Ziel, sie besser vor Infektionserkrankungen zu schützen. Dieser aktiviert gezielt T-Zellen, die ein wichtiger Bestandteil unseres Immunsystems sind und in der Abwehr von Infektionserkrankungen eine entscheidende Rolle einnehmen.

Die Forschenden haben dafür den neuartige T Zell Aktivator CoVac-1 verwendet, der für die Krebsimmuntherapie entwickelt wird. Dies ist der Hauptforschungsschwerpunkt der Tübinger Immunologinnen und Immunologen. CoVac-1 wurde schon 2022 erfolgreich an gesunden Probandinnen und Probanden erprobt und zeigte eine gute Verträglichkeit bei sehr guter Immunstimulation, also einer sehr starken Aktivierung der T-Zellen.

Ergebnisse der Phase-II-Studie
Insgesamt wurden 54 Patienten und Patientinnen im Rahmen der Studie einmalig geimpft. Die meisten Studienteilnehmenden litten an Blutkrebserkrankungen und zeigten aufgrund ihrer Erkrankung selber oder aber der Tumortherapie ein deutlich geschwächtes Immunsystem. Es traten so gut wie keine Nebenwirkungen auf.
Nur vereinzelt wurde über leichte Beschwerden wie Kopfschmerzen und Müdigkeit berichtet.

Bei allen Probandinnen und Probanden entwickelte sich an der Impfstelle eine lokale Verhärtung. „Diese Lokalreaktion wird für unseren T-Zell-Aktivator erwartet und gewünscht. Sie ist Ausdruck der Bildung eines Depots an der Impfstelle, das einen schnellen Abbau der T-Zell-Reaktion verhindert und so eine langanhaltende Immunreaktion ermöglicht“, erklärt Dr. Jonas Heitmann, einer der Erstautoren der Studie.
Besonders hervorzuheben ist die langanhaltende Wirkung. Noch vier Wochen nach Impfung wurde eine breite und starke T-Zell-Immunantwort nachgewiesen. In ersten Folgeuntersuchungen blieben diese Immunantworten in unveränderter Stärke bestehen. Selbst in stark immungeschwächten Patientinnen und Patienten waren die durch CoVac-1 aktivierten T-Zell-Antworten deutlich stärker ausgeprägt als bei Genesenen nach natürlicher Infektion und auch potenter als die T-Zell-Immunität, die durch zugelassene mRNA- oder Vektorimpfstoffe erzeugt wird.

Eigene Impfstoffentwicklung, Herstellung und Erprobung
CoVac-1 wird im Wirkstoffpeptidlabor und der sogenannten GMP-Einheit des Universitätsklinikums und der Medizinischen Fakultät Tübingen hergestellt. Auch hier wird auf die langjährige Erfahrung und Expertise bei der Produktion von Impfstoffen für Krebserkrankte zurückgegriffen. Die klinische Evaluation des T-Zell-Aktivators erfolgt in der KKE Translationale Immunologie, einer deutschlandweit einzigartigen Einrichtung im Department Innere Medizin des Universitätsklinikums. Diese wurde etabliert, um innovative Immuntherapiekonzepte möglichst rasch in ersten klinischen Studien erproben zu können, damit Patienten und Patientinnen schnellstmöglich von neuen Erkenntnissen der Forschung profitieren. Die Studie wurde unter Leitung des Tübinger Universitätsklinikums in Tübingen und an Kliniken in Frankfurt am Main und der Berliner Charité durchgeführt.

Weitere Entwicklung von T-Zell-Aktivatoren
Basierend auf diesen ermutigenden Ergebnissen arbeitet das Team bereits an der Entwicklung von Impfungen unter Verwendung von T-Zell-Aktivatoren gegen zahlreiche weitere Infektionserkrankungen, die eine Bedrohung für immungeschwächte Tumorpatienten und -patientinnen darstellen. Zudem liefert diese Studie einen wichtigen Beitrag für die Entwicklung von therapeutischen Impfungen für Betroffene. Dies wird derzeit in Patientinnen und Patienten mit verschiedenen soliden Tumoren und Blutkrebserkrankungen untersucht.

Originalpublikation:
Phase I/II trial of a peptide-based COVID-19 T-cell activator in patients with B-cell deficiency; doi: https://doi.org/10.1038/s41467-023-40758-0

(nach oben)


Emissionsgutschriften durch vermiedene Entwaldung halten oft nicht, was sie versprechen

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Projekte, die die Abholzung von Wäldern reduzieren, verkaufen oft Emissionsgutschriften – zum Beispiel an Verbraucher, die Flugtickets erwerben. Über 90 Prozent dieser Projektgutschriften gleichen jedoch die Treibhausgasemissionen nicht wirklich aus. Zu diesem Schluss kommt eine Studie der Vrije Universiteit Amsterdam (Niederlande), der Universität Bonn, der University of Cambridge (Vereinigtes Königreich) und des European Forest Institutes in Barcelona (Spanien). Sie wurde beispielhaft für 26 Projekte in sechs Ländern durchgeführt. Die Ergebnisse sind nun im renommierten Journal Science erschienen.

Weltweit gibt es ein wachsendes Interesse an Kompensationsmechanismen für den Klimaschutz. Emissionsgutschriften erreichten im Jahr 2022 einen Marktwert von insgesamt 2 Milliarden Dollar. Darüber hinaus wird die Übertragung von Emissionsgutschriften als handelbare finanzielle Einheiten, die Treibhausgasemissionen kompensieren, im Pariser Klima-Abkommen von 2015 gefördert. Das internationale Forschungsteam untersuchte insgesamt 26 Projekte in Peru, Kolumbien, Kongo, Tansania, Sambia und Kambodscha. Die meisten dieser Schutzprojekte haben kaum zum Waldschutz beigetragen. Darüber hinaus waren die Treibhausgas-Reduktionen durch den Waldschutz geringer als angegeben.

West und seine Forscherkollegen bewerteten die Wirkung von freiwilligen REDD+-Projekten: Reducing Emissions from Deforestation and forest Degradation (Minderung von Emissionen aus Entwaldung und Schädigung von Wäldern) in Entwicklungsländern. Dabei handelt es sich um ein freiwilliges Klimaschutzinstrument, das es ermöglicht, Treibhausgasemissionen durch Waldschutz zu kompensieren.

Die Forscher sammelten Daten über freiwillige REDD+-Projekte und Projektregionen, einschließlich der historischen Entwaldung, um kontrafaktische Szenarien für die Projektgebiete zu erstellen: Szenarien darüber, was ohne das REDD+-Programm geschehen wäre. Anschließend verglichen sie diese Referenzszenarien mit den Berechnungen der Projektentwickler.

Für die meisten dieser Projekte fanden die Forscher keine Belege dafür, dass sie die Entwaldung verringern. Sie schätzen, dass 90 Prozent der Gutschriften aus den REDD+-Projekten die Treibhausgasemissionen nicht tatsächlich ausgleichen. Die Projekte, die die Abholzung reduzieren, überschätzen ihre Auswirkungen. Das führt dazu, dass die Projekte mehr Kohlenstoffgutschriften ausstellen, als sie sollten.

Den Forschern zufolge bedeutet dies, dass die von Einzelpersonen und Organisationen zur Reduzierung ihrer eigenen Emissionen gekauften Emissionsgutschriften größtenteils “heiße Luft” sind und in Wirklichkeit nicht ausgleichen. “Wir machen uns selbst etwas vor, wenn wir diese Kompensationen kaufen”, sagt Dr. Thales A. P. West vom Institut für Umweltstudien der Vrije Universiteit Amsterdam. “Einzelpersonen und Organisationen geben Milliarden von Dollar für eine Strategie zur Eindämmung des Klimawandels aus, die nicht funktioniert, anstatt dieses Geld in etwas zu investieren, das tatsächlich etwas bewirken kann, zum Beispiel in saubere Energie.”

An der Studie ist auch Prof. Dr. Jan Börner vom Institut für Lebensmittel- und Ressourcenökonomik (ILR) sowie vom Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn beteiligt. “Emissionsgutschriften aus dem REDD+-Programm können ein Weg zur Reduzierung des Kohlendioxid-Ausstoßs sein. Die Ergebnisse der Studie sehe ich als einen dringenden Aufruf dafür zu sorgen, dass die Methoden zur Verifizierung und Evaluierung der emittierten Zertifikate verbessert werden”, sagt Börner. Der Professor für Ökonomie der nachhaltigen Landnutzung & Bioökonomie ist auch Sprecher des Transdisziplinären Forschungsbereichs “Sustainable Futures” an der Universität Bonn.

Beteiligte Institutionen und Finanzierung:
Neben der Vrije Universiteit Amsterdam (Niederlande) und der Universität Bonn sind an der Studie die University of Cambridge (Vereinigtes Königreich), das European Forest Institute in Barcelona (Spanien), das Center for International Forestry Research in Lima (Peru), die North Carolina State University in Raleigh (USA) und die University of New South Wales in Sydney (Australien) beteiligt. Die Forschung wurde von der Internationalen Klima- und Waldinitiative Norwegens (NICFI), dem Meridian Institute, der Global Comparative Study on REDD+ des Center for International Forestry Research und dem Bundesministerium für Ernährung und Landwirtschaft sowie der Deutschen Forschungsgemeinschaft gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jan Börner
Institut für Lebensmittel- und Ressourcenökonomik (ILR)
Zentrum für Entwicklungsforschung (ZEF)
Universität Bonn
Tel. +49 228 73-3548
E-Mail: jborner@uni-bonn.de

Originalpublikation:
Thales A. P. West, Sven Wunder, Erin O. Sills, Jan Börner, Sami W. Rifai, Alexandra N. Neidermeier, Gabriel Frey, Andreas Kontoleon: Action needed to make carbon offsets from forest conservation work for climate change mitigation, Science, DOI: 10.1126/science.ade3535; https://www.science.org/doi/10.1126/science.ade3535

(nach oben)


Viele Kinder meiden die Schultoiletten

Dr. Inka Väth Kommunikation und Medien
Universitätsklinikum Bonn
Institut für Hygiene und Öffentliche Gesundheit des Universitätsklinikums Bonn leitet wissenschaftliche Auswertung einer umfassenden Studie zu Sanitäranlagen an Berliner Schulen

Zusammen mit dem Institut für Hygiene und Öffentliche Gesundheit (IHPH) des Universitätsklinikums Bonn (UKB) hat die German Toilet Organization (GTO) mit Sitz in Berlin eine wissenschaftliche Studie zu Schultoiletten an 17 weiterführenden Schulen aus 11 Berliner Bezirken durchgeführt. Heute wurde sie im Rahmen einer Pressekonferenz der Öffentlichkeit vorgestellt. Aus den Studienergebnissen geht klar hervor, dass die Mehrheit der Schülerinnen und Schüler die Schultoiletten als einen negativen Ort wahrnimmt und daher die Nutzung von vielen vermieden wird. Funktionelle Schäden, fehlende Privatsphäre, Gestank und eine unzureichende Versorgung mit Füllgütern wie Toilettenpapier und Seife sind weitere Beanstandungen, die sich mit Berichten aus anderen Städten decken. Es wurde aber auch deutlich, dass einfache Maßnahmen signifikante Verbesserungen erzielen können. Dazu gehören die strukturell verankerte Partizipation der Schülerinnen und Schüler in die Gestaltung und Nutzung von Sanitärräumen, ein gut organisiertes und sichtbares Mängelmanagement durch die Schule sowie die Umsetzung von zwei Reinigungszyklen pro Tag, wovon mindestens eine im Tagdienst durchgeführt werden sollte.

Ziel der Berliner Studie [1] war es, valide Daten zur subjektiven Wahrnehmung und dem Nutzungsverhalten aus der Perspektive der Schülerinnen und Schüler bezüglich ihrer Schultoiletten zu erheben und gleichzeitig eine Bestandsaufnahme zur Funktionsfähigkeit und Ausstattung sowie zu wichtigen strukturellen Prozessen wie Reinigung, Wartung und Instandhaltung der Schultoiletten durchzuführen. Darüber hinaus war es den Autorinnen und Autoren der Studie in der Konzeption und Auswertung besonders wichtig, mögliche Zusammenhänge zwischen einzelnen Messgrößen zum Zustand der Toiletten, strukturellen Maßnahmen der Schule und der Wahrnehmung der Schülerinnen und Schüler zu ermitteln. Aus den Ergebnissen konnten Handlungsempfehlungen für Schulen und Politik abgeleitet werden, verbunden mit einer klaren Aufforderung, jetzt zu handeln.

Die Ergebnisse bestätigen die Erfahrungen, die sowohl die GTO als auch das IHPH in vielfältigen Projekten gesammelt haben: Sanitärräume sind dann ein Ort, an dem sich die Schulkinder gerne aufhalten, wenn sie in ihrer Komplexität erfasst und so gestaltet werden, dass sie nicht allein auf das Merkmal „Ausstattung“ oder „Fehlverhalten der Schülerinnen und Schüler“ reduziert werden. Die Vermeidung des Toilettengangs während des Schulaufenthalts aufgrund der negativen Wahrnehmung der Sanitärräume führt zu einer Reihe vielfach belegter gesundheitlicher Risiken, angefangen von Konzentrationsstörungen bis hin zu Blasenentzündungen, Verstopfung mit Bauchschmerzen und sogar Infektionskrankheiten. Aus diesem Grunde drängen das IHPH und auch die GTO schon lange darauf, den Ort endlich aus der Tabuzone herauszuholen und anstelle von Schuldzuweisungen eine konstruktive, gemeinschaftliche Herangehensweise für eine nachhaltige Besserung der Zustände voranzutreiben.

Dr. Andrea Rechenburg, die die Auswertung der Daten am IHPH leitete, betonte, dass das Monitoring des Nachhaltigkeitsziels Nr. 6 „Verfügbarkeit und nachhaltige Bewirtschaftung von Wasser und Sanitärversorgung für alle gewährleisten“ in Deutschlands Schulen lückenhaft ist, auch wenn national die Versorgung als gesichert gilt. Hier entsteht der Eindruck, dass im Grunde kein Handlungsbedarf bestehe, dabei sind aktuell keine Daten für weiterführende Schulen und den städtischen und ländlichen Raum vorhanden, und die tatsächliche Funktionalität von Sanitärräumen wird nicht dokumentiert. Zukünftig müsse mit erweiterten Indikatoren gearbeitet werden, die abbilden, welche Bedarfe es für die Schülerinnen und Schüler heute wirklich gibt und wo diese im Sinne des Nachhaltigkeitsziel 6 für alle und zu jeder Zeit erfüllt werden.

Das Institut für Hygiene und öffentliche Gesundheit (IHPH) beschäftigt sich mit seiner Initiative „Hygiene-Tipps für Kids“ bereits seit 20 Jahren mit Themen der Infektionsprävention und Hygiene im direkten Lebensumfeld von Kindern. Der schlechte Zustand der Schultoiletten ist immer wieder Ausgangspunkt von Anfragen aus der Schulgemeinschaft. Innovative, partizipative Elemente wie die Ausbildung von „Junior-Hygieneinspektoren“ und der Blick auf die strukturellen Prozesse von Reinigung und Wartung sind von Beginn an Teil des Konzepts. Wasser, Sanitärversorgung und Hygiene (WASH) in Schulen ist ein Themenkomplex zu dem das IHPH in seiner Funktion als Kollaborationszentrum der Weltgesundheitsorganisation (WHO) auch international schon seit 2015 arbeitet. Es war u. a. maßgeblich beteiligt an der Erstellung des in 2019 von der WHO herausgegebenen Informationspakets zur Verbesserung von WASH in Schulen für das Schulpersonal [2].

Quellen
[1] German Toilet Organization, Institut für Hygiene und Öffentliche Gesundheit des Universitätsklinikums Bonn. Toiletten machen Schule® – Studie zu Sanitäranlagen an Berliner Schulen, Berlin: 2023. germantoilet.org/de/ [Letzter Zugriff 25.8.2023], www.ukbonn.de/ihph, www.hygiene-tipps-fuer-kids.de.
[2] Improving health and learning through better water, sanitation and hygiene in schools: An information package for school staff. Copenhagen: WHO Regional Office for Europe;2019. www.who.int/europe/publications/i/item/9789289054508 [Letzter Zugriff 18.8.2023]
Weiterführende Informationen auf folgenden Webseiten:
www.ukbonn.de/ihph/

Pressekontakt:
Daria Siverina
Stellv. Pressesprecherin am Universitätsklinikum Bonn
Stabsstelle Kommunikation und Medien am Universitätsklinikum Bonn
Tel. +49 228 287-14416
E-Mail: daria.siverina@ukbonn.de

Dr. Andrea Rechenburg
Geschäftsführerin WHO Kollaborationszentrum
Institut für Hygiene und Öffentliche Gesundheit
WHO Kollaborationszentrum für Wassermanagement und Risikokommunikation zur Förderung der Gesundheit
Universitätsklinikum Bonn
Tel.: +49 228 287-19518
E-Mail: Andrea.Rechenburg@ukbonn.de

Zum Universitätsklinikum Bonn: Im UKB werden pro Jahr etwa 500.000 Patient*innen betreut, es sind ca. 9.000 Mitarbeiter*innen beschäftigt und die Bilanzsumme beträgt 1,6 Mrd. Euro. Neben den über 3.300 Medizin- und Zahnmedizin-Studierenden werden pro Jahr weitere 585 Personen in zahlreichen Gesundheitsberufen ausgebildet. Das UKB steht im Wissenschafts-Ranking sowie in der Focus-Klinikliste auf Platz 1 unter den Universitätsklinika (UK) in NRW und weist den dritthöchsten Case Mix Index (Fallschweregrad) in Deutschland auf. Das F.A.Z.-Institut hat das UKB 2022 und 2023 als Deutschland begehrtesten Arbeitgeber und Ausbildungs-Champion unter den öffentlichen Krankenhäusern bundesweit ausgezeichnet.

(nach oben)


Hitzewellen werden häufiger und tödlicher

Peter Rüegg Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Hitzewellen mit vermehrten Todesfällen aufgrund von Dehydrierung, Hitzeschlag oder Herz-​Kreislaufkollaps nehmen zu. Die Übersterblichkeit eines heissen „Jahrhundertsommers“ wie 2003 ist heute alle zehn bis zwanzig Jahre zu erwarten, und in einer Zwei-​Grad-Welt alle zwei bis fünf Jahre. Südeuropa ist besonders von zunehmenden Hitzewellen bedroht, ebenso die Golf-​ und Atlantikküsten der USA, die Pazifikküste Lateinamerikas, der Mittlere Osten und Südostasien.

Hitzewellen, wie wir sie aktuell erleben, sind besonders für ältere, kranke und arme Menschen tödlich. Die Hitzewelle von 2003 mit Temperaturen in Europa bis zu 47,5 Grad, gehörte mit geschätzten 45’000 bis 70’000 Todesopfern innert weniger Wochen zu den schlimmsten Naturkatastrophen der vergangenen Jahrzehnte. Wälder standen in Flammen, Felder verdorrten und in den Städten füllten sich die Notfallstationen. Die weltweiten Kosten beliefen sich auf rund 13 Milliarden US-​Dollar. Trotzdem ist die öffentliche Aufmerksamkeit für die Risiken solcher Hitzewellen im Vergleich zu anderen klimabedingten Extremen noch gering. Das ist riskant, wie eine aktuell im Fachmagazin «Nature Communications» erschienene externe SeiteStudiecall_made zeigt. Hitzewellen wie diejenige von 2003 könnten in den kommenden Jahren zur neuen Norm werden.

Epidemiologie und Klimamodellierung kombiniert
Forschende des Instituts für Umweltentscheidungen der ETH Zürich haben für die Studie mit einer internationalen Gruppe von Epidemiologinnen und Epidemiologen zusammengearbeitet. Diese sammelt seit 2013 systematisch Daten zur täglichen hitzebedingten Übersterblichkeit für 748 Städte und Gemeinden in 47 Ländern Europas, Südostasiens, Lateinamerikas, in den USA und Kanada. Mit diesem Datensatz haben die Forschenden die Beziehung zwischen täglicher Durchschnittstemperatur und Mortalität für sämtliche 748 Orte berechnet. Daraus ergibt sich für jeden Ort eine Idealtemperatur, bei der es zur geringsten Übersterblichkeit kommt. In Bangkok zum Beispiel liegt dieser Wert bei 30 Grad, in São Paulo bei 23, in Paris bei 21 und in Zürich bei 18 Grad.

Physikalisch plausible Wetterextreme modelliert
Jedes Zehntelgrad über diesem Idealwert vergrössert die Übersterblichkeit. «Hitze ist nicht gleich Hitze», sagt Samuel Lüthi, Erstautor der Studie und Doktorand an der Professur für Wetter-​ und Klimarisiken von David Bresch. «Dieselbe Temperatur wirkt sich in Athen und Zürich komplett unterschiedlich auf die hitzebedingte Übersterblichkeit in der Bevölkerung aus.» Diese hängt nicht nur von der Temperatur ab, sondern auch von der Physiologie (Gewöhnung), Verhalten (lange Siestas über Mittag), Städteplanung (Grünflächen vs. Beton), der demographischen Bevölkerungsstruktur und dem jeweiligen Gesundheitssystem.

Mit den Idealwerten berechneten die Forschenden, wie sich die Übersterblichkeit bei einer durchschnittlichen globalen Erhitzung von 0.7 Grad (Wert für das Jahr 2000), 1.2 Grad (Wert für das Jahr 2020), 1.5 und 2 Grad entwickelt. Dafür nutzten sie fünf besonders leistungsstarke Klimamodelle, sogenannte SMILEs (Single-​Model Initial-​condition Large Ensembles). «Wir haben dasselbe Modell bis zu 84-​mal mit jeweils leicht veränderten Wetterbedingungen laufen lassen. Das ergibt eine Vielzahl möglicher Wettersysteme, die bei einem bestimmten CO2-​Gehalt in der Atmosphäre wahrscheinlich sind», erklärt Lüthi. Diese Daten koppelten die Forschenden anschliessend mit einem epidemiologischen Model, um die entsprechende Hitzemortalität zu berechnen.

Bisherige Prognosen zu Hitzemortalität basierten meist auf Berechnungen mit einem Klimamodell für einen bestimmten Zeitraum. «Mit unserer Methode können wir Extreme im Klimasystem viel besser quantifizieren und Unsicherheiten aufgrund von Eigenheiten bestimmter Modelle reduzieren.» Mittels Supercomputern hat Lüthi die Hitze-​Mortalitätsauswirkungen von über 7000 Jahren physikalisch möglicher Wetterphänomene berechnet. Der entsprechende Datensatz beläuft sich auf über ein Terrabyte.

Bis zu 15 Prozent hitzebedingte Todesfälle
Die Ergebnisse zeigen, dass das Risiko von Hitzewellen mit grosser Übersterblichkeit bereits in den vergangenen 20 Jahren stark zugenommen hat. «Die Übersterblichkeit eines Hitzesommers wie 2003, der früher als extremes Ereignis galt, das alle 100 Jahre vorkommt, erwarten wir heute alle 10 bis 20 Jahre», sagt Lüthi, «und in einer um zwei Grad wärmeren Welt an vielen Orten sogar alle zwei bis fünf Jahre». Hitzemortalitätswerte, die noch im Jahr 2000 als sehr unwahrscheinlich galten (einmal alle 500 Jahre), werden in einer Zwei-​Grad-Welt 14-​mal alle 100 Jahre auftreten. Unter der Annahme, dass keine Anpassung an die Hitze geschieht, erhöht sich damit die Wahrscheinlichkeit der Mortalität bei solch extremen Hitzewellen um den Faktor 69.

Manche Regionen sind besonders von zunehmenden Hitzewellen bedroht, darunter die Golf-​ und Atlantikküsten in den USA, die Pazifikküste Lateinamerikas, der Mittlere Osten, Südostasien und die Mittelmeerregion. Selbst in moderaten Klimaszenarien kann in diesen Gebieten ein heisser Sommer dazu führen, dass zehn Prozent der gesamten Todesfälle in einem Land durch Hitze bedingt sind. In Paris, das 2003 besonders von der Hitzewelle betroffen war, waren es damals fünf bis sieben Prozent. Das sind rund 2700 Menschen, die allein in der französischen Metropole aufgrund der Klimaerhitzung frühzeitig gestorben sind. An Dehydrierung, Hitzeschlag oder Herz-​Kreislaufkollaps. «In Zukunft könnten laut unseren Berechnungen in Paris bis zu 15 Prozent der Todesfälle hitzebedingt sein», sagt Lüthi. Europa und insbesondere Südeuropa gehörten zu den «Hotspots». Zwei Faktoren kämen dort zusammen: Die Temperaturen steigen doppelt so schnell wie im globalen Mittel, und die Bevölkerung ist überdurchschnittlich alt.

Beängstigender Ausblick
«Die Resultate haben mich erschreckt», sagt der 30-​jährige Klimawissenschaftler. «Ich habe während der Studie immer wieder versucht, hinter den Zahlen die betroffenen Menschenleben zu sehen. Das ist beängstigend.» Dabei seien die den Modellierungen zugrunde liegenden Annahmen eher konservativ. Mit den aktuellen Treibhausgasemissionen ist die Welt nicht auf dem Pfad zu einer maximalen Erhitzung von 1.5 bis 2 Grad Celsius, wie in der Studie angenommen, sondern zu 2.6 Grad. Zudem sind das Bevölkerungswachstum, die Migration in die Städte und die Zunahme von älteren Menschen nicht in den Zukunftsszenarien berücksichtigt – alles Faktoren, welche die hitzebedingte Übersterblichkeit weiter erhöhen dürften. Schliesslich fehlten für die Studie epidemiologische Daten zu Afrika und Indien, beides Regionen, die stark von der Klimakrise und von Armut betroffen sind.

Die Forschenden schreiben, dass die Resultate die Dringlichkeit zum Handeln verdeutlichen. Um zunehmende Hitzewellen zumindest einzudämmen, sei der wichtigste Schritt, so schnell wie möglich aus den fossilen Energien auszusteigen, sagt Lüthi. Die Studie zeige, dass das Risiko bei 1.5 Grad zwar bereits hoch ist, aber immer noch deutlich geringer als bei zwei Grad. Allerdings kann sich die Gesellschaft auch teilweise an höhere Temperaturen anpassen, um die Auswirkungen künftiger Hitzewellen zu vermindern. «Wir sollten uns nun schnellstmöglich auf das Unabwendbare vorbereiten und Situationen, die nicht mehr kontrollierbar sind, um jeden Preis verhindern», rät Lüthi.

Wissenschaftliche Ansprechpartner:
Samuel Lüthi

Originalpublikation:
Lüthi S, Fairless C, Fischer EM et al. Rapid increase in the risk of heat-​related mortality. Nature Communications 14, 4894 (2023). Doi: 10.1038/s41467-​023-40599-x

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/08/hitzewellen-we…

(nach oben)


Meere geben Mikroplastik an die Atmosphäre ab

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Winzige Plastikteilchen sind selbst fernab von Küsten in der Meeresluft zu finden. Deutsche und norwegische Forschende präsentieren erstmals Daten dazu, wie hoch die Masse verschiedener Plastiksorten in der Luft über dem Nordatlantik ist und woher die Partikel stammen. Demnach werden sie nicht nur vom Wind transportiert, sondern gelangen zum Teil auch aus dem Meerwasser in die Atmosphäre. Die Ergebnisse sind kürzlich im Fachjournal Nature Communications erschienen.

Die Meeresluft enthält selbst in entlegenen Teilen der Welt Mikroplastikteilchen. Die winzigen Kunststoffpartikel stammen nicht nur von Quellen an Land, sondern gelangen auch über das Meerwasser in die Atmosphäre. Das ermittelten deutsche und norwegische Forschende unter Leitung von Dr. Barbara Scholz-Böttcher von der Universität Oldenburg. Für ihre Studie analysierten sie Luftproben, die sie entlang der norwegischen Küste bis in die Arktis genommen hatten. Die Ergebnisse sind jetzt im Fachjournal Nature Communications publiziert.

„Mit unserer Studie präsentieren wir erstmals Daten dazu, wie hoch die Masse verschiedener Plastiksorten in der Meeresluft ist“, so Isabel Goßmann, Doktorandin am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg und Erstautorin. Das Forschungsteam sammelte die Proben 2021 während einer Exkursion des Forschungsschiffs Heincke. Der nördlichste Punkt der Fahrt war die Bäreninsel, die südlichste Insel des Svalbard-Archipels, die auf halbem Weg zwischen dem Festland und der Hauptinsel Spitzbergen liegt. Das Team verwendete zwei unterschiedliche Vorrichtungen, um Luftproben zu sammeln. Die Geräte saugten aktiv Luft an und waren in zwölf Metern Höhe am Bug des Forschungsschiffs montiert.

Diese Luftproben analysierten die Forschenden mit Hilfe der Pyrolyse-Gaschromatographie-Massenspektrometrie. Dieses Verfahren ermöglicht es, die verschiedenen Kunststoffsorten durch thermische Spaltung und selektive Analyse nachzuweisen und zu quantifizieren. Anschließend führte das Team Modellrechnungen durch und rekonstruierte so Quellen und Verbreitungswege der nur wenige Tausendstel Millimeter großen Teilchen.

Das Ergebnis: In allen Proben tauchten Mikroplastikteilchen aus Polyester auf, außerdem Polyethylenterephthalate (PET), die vermutlich als Textilfasern in die Atmosphäre gelangt waren. Auch weitere Kunststoffe ließen sich nachweisen, unter anderem Polypropylen (PP), Polycarbonat und Polystyrol. Eine weitere wichtige Quelle stellte Reifenabrieb dar, also kleine Gummipartikel, die sich bei der Fahrt und vor allem beim Bremsen von Autoreifen ablösen. Die Forschenden ermittelten Konzentrationen von bis zu 37,5 Nanogramm – also Milliardstel Gramm – Mikroplastik pro Kubikmeter Luft. „Diese Schadstoffe sind omnipräsent. Wir finden sie selbst in abgelegenen polaren Regionen“, sagt Hauptautorin Goßmann.

Bisher war kaum etwas darüber bekannt, wie stark die Meeresluft mit Mikroplastik inklusive Reifenabrieb verschmutzt ist. „Es gibt insgesamt nur wenige Untersuchungen zur Konzentration dieser Schadstoffe in der Luft“, so Studienleiterin Scholz-Böttcher vom ICBM. „Unsere Modellrechnungen deuten darauf hin, dass das Mikroplastik in der Meeresluft sowohl direkt von Quellen an Land als auch aus dem Meer stammt“, berichtet die Forscherin. Das Team geht davon aus, dass Plastikteilchen, die nahe der Meeresoberfläche schwimmen, zum Beispiel bei stürmischem Wetter über die Gischt oder durch platzende Luftbläschen in die Atmosphäre gelangen.

Ins Meerwasser gelangt das Mikroplastik wiederum über Flüsse, aber auch aus der Atmosphäre, aus der die Partikel etwa durch Regen herausgewaschen werden. Eine weitere mögliche Quelle sind Schiffe: In einer früheren Studie hatte ein Team um Scholz-Böttcher nachgewiesen, dass Schiffsanstriche in der offenen Nordsee die größte Quelle für Mikroplastik darstellen. In der aktuellen Studie fanden sich Inhaltsstoffe von Farben wie Polyurethane oder Epoxidharze auch in den Luftproben.

Neben Forschenden des ICBM waren an der Studie auch Forscherinnen und Forscher des Alfred-Wegener-Instituts, Helmholz-Zentrum für Polar und Meeresforschung (AWI) in Bremerhaven, der TU Berlin, des Norwegischen Instituts für Luftuntersuchungen (NILU) und des Norwegischen Instituts für Öffentliche Gesundheit (NIPH) beteiligt.

Wissenschaftliche Ansprechpartner:
Dr. Barbara Scholz-Böttcher, Tel.: 0441/798-5362, E-Mail: barbara.scholz.boettcher@uol.de

Originalpublikation:
Isabell Goßmann et al: “Occurrence and backtracking of microplastic mass loads including tire wear particles in northern Atlantic air”, Nature Communications 14, 3707 (2023). https://doi.org/10.1038/s41467-023-39340-5

Weitere Informationen:
https://uol.de/icbm/ogc

(nach oben)


Niedrigere Entzündungsmarker unter Vitamin D-Supplementierung

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Nach derzeitiger Studienlage geht die Vitamin D-Einnahme mit einer verringerten Krebssterblichkeit einher. Könnten entzündungshemmende Effekte des Vitamins die Ursache dafür sein? Eine am Deutschen Krebsforschungszentrum (DKFZ) durchgeführte Metaanalyse ergab nun: Die Vitamin D-Einnahme senkt bei Menschen, die an Krebs oder Krebsvorstufen leiden, die Serumspiegel eines wichtigen Entzündungsmarkers.

Vitamin-D-Mangel ist weltweit verbreitet und kommt besonders häufig bei Krebspatienten vor. Ob eine Vitamin D-Supplementierung die Entstehung von Krebs verhindern bzw. die Prognose von Krebskranken verbessern kann, wurde bereits in zahlreichen Studien untersucht. Nach derzeitiger Studienlage senkt eine regelmäßige Vitamin D3-Einnahme die Wahrscheinlichkeit, an einer Krebserkrankung zu versterben, um ca. zwölf Prozent.

Die biologischen Mechanismen, über die Vitamin D den Ausgang einer Krebserkrankung beeinflusst, sind noch weitgehend ungeklärt. Es gibt Hinweise auf einen Einfluss des Vitamins auf entzündungsfördernde Signalwege. „Hohe Spiegel an Entzündungsmarkern sind bei Krebspatienten häufig mit einem ungünstigen Ausgang der Erkrankung verbunden. Dies gilt insbesondere für Darm-, Brust-, Pankreas-, Leber- und Prostatakrebs. Es erscheint daher plausibel, dass eine Vitamin D-Supplementierung den entzündungsfördernden Prozessen entgegenwirkt und damit den Verlauf der Erkrankung günstig beeinflussen kann“, sagt Hermann Brenner vom Deutschen Krebsforschungszentrum.

Um diese Vermutung zu prüfen, führten Wissenschaftler um Brenner nun erstmals eine systematische Literaturrecherche durch, bei der sie Studien zur Wirkung einer Vitamin D-Supplementierung auf verschiedene Entzündungsmarker zusammenfassten. Die Forscherinnen und Forscher berücksichtigten dabei acht Studien. Die insgesamt 592 eingeschlossenen Teilnehmer, die an Krebs oder an Krebsvorstufen litten, waren per Zufall dem Vitamin D-Arm oder dem Placebo-Arm zugewiesen worden.

Die DKFZ-Forscher fanden bei Studienteilnehmern unter Vitamin D-Substitution deutlich niedrigere Serumspiegel des entzündungsfördernden Tumor-Nekrosefaktors alpha (TNF alpha). Dieser Botenstoff wird bei so gut wie allen Entzündungen ausgeschüttet und aktiviert eine Vielzahl verschiedener Immunzellen. Für zwei weitere wichtige Botenstoffe, Interleukin 6 und CRP, beobachteten die Forscher ebenfalls niedrigere Spiegel unter Vitamin D-Substitution, jedoch waren die Effekte bei den insgesamt noch sehr begrenzten Patientenzahlen nicht statistisch signifikant.

Eine Einschränkung bisheriger Studien ist, dass alle Patienten die gleiche Dosis erhielten unabhängig von ihrem Ausgangs-Vitamin D-Spiegel. In einer gezielten, dem individuellen Bedarf angepassten Vitamin D-Supplementierung sieht Hermann Brenner ein noch deutlich größeres Potenzial. Hierzu führt sein Team derzeit in Zusammenarbeit mit zahlreichen Kliniken in Deutschland eine große randomisierte Studie durch. Erste Ergebnisse haben bereits gezeigt, dass mit einer solchen personalisierten Vitamin D-Supplementierung der Vitamin D-Mangel sehr zuverlässig ausgeglichen werden kann.

Durch sorgfältige längerfristige Nachbeobachtung einer noch deutlich größeren Zahl von Patienten untersuchen die Forscher nun, wie sich dieser neue Ansatz auf das Entzündungsgeschehen, die Lebensqualität und die Prognose der Patienten auswirkt. Erste Ergebnisse hierzu werden im kommenden Jahr vorliegen.

* Der für den Vitamin D-Mangel genutzte Schwellenwert des 25-Hydroxyvitamin D-Spiegels im Blut lag bei 30 nmol/L (= 12 ng/ml). Zählt man Personen mit einer weniger gravierenden Vitamin D-Unterversorgung (25-Hydroxyvitamin D-Spiegels im Blut < 50 nmol/L (= 20 ng/ml)) hinzu, weisen etwas mehr als die Hälfte der Deutschen zumindest eine Unterversorgung auf. Es gibt jedoch auch Leitlinien, die andere Schwellenwerte benutzen. Da der Vitamin D-Spiegel im Blut v.a. von der Besonnung der Haut abhängt, schwankt dieser Prozentsatz zudem stark mit den Jahreszeiten.

Tafirenyika Gwenzi, Anna Zhu, Petra Schrotz-King, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Effects of vitamin D supplementation on inflammatory response in patients with cancer and precancerous lesions: systematic review and meta-analysis of randomized trials.
Clinical Nutrition 2023, DOI: https://doi.org/10.1016/j.clnu.2023.05.009

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.

Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:

Nationales Centrum für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 8 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)

Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

Originalpublikation:
Tafirenyika Gwenzi, Anna Zhu, Petra Schrotz-King, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Effects of vitamin D supplementation on inflammatory response in patients with cancer and precancerous lesions: systematic review and meta-analysis of randomized trials.
Clinical Nutrition 2023, DOI: https://doi.org/10.1016/j.clnu.2023.05.009

(nach oben)


Neue Studie der Goethe-Universität zeigt: Auch gereinigtes Abwasser wirkt sich auf Flüsse aus

Dr. Anke Sauter Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Kläranlagen sind ohne Zweifel eine große Errungenschaft, haben sie doch erheblich zur Verbesserung der Wasserqualität in natürlichen Gewässern beigetragen. Eine im Fachjournal „Water Research“ veröffentlichte Studie zeigt aber, dass noch immer Substanzen in den Wasserkreislauf gelangen, die sich auf die Zusammensetzung der darin lebenden Organismen auswirken.

Die Einleitungen aus Kläranlagen bewirken einerseits, dass manche Arten verloren gehen, andere wiederum profitieren. Dezimiert werden vor allem bestimmte Insektenordnungen, wie die Larven von Steinfliegen und Köcherfliegen. Bestimmte Würmer und Krebstiere hingegen können in ihrer Anzahl hingegen zunehmen. Dies weist ein Team der Goethe-Universität um Daniel Enns und Dr. Jonas Jourdan in einer im Fachjournal „Water Research“ veröffentlichten großangelegten Studie nach. Sie haben insgesamt 170 Kläranlagen in Hessen auf die Artenzusammensetzung von Wirbellosen untersucht.

Kläranlagen gehören unverzichtbar zur Infrastruktur der modernen Welt; sie haben einen wesentlichen Beitrag zur Verbesserung der Wasserqualität in unseren Oberflächengewässern geleistet. Allerdings sind sie meist nur eingeschränkt in der Lage, sogenannte Spurenstoffe, zu denen auch Wirkstoffe aus Medikamenten und Körperpflegeprodukten, Pestizide und andere synthetische Substanzen gehören, vollständig aus dem Abwasser zu entfernen. So gelangen diese Stoffe in behandeltem Abwasser zurück in die Gewässer und stellen eine zusätzliche Belastung für Flüsse und Bäche dar, die die Wasserfauna und die bereits anfälligen Insektengemeinschaften weiter unter Druck setzt. Bisherige Studien – die sich zumeist auf einzelne Kläranlagen konzentrierten – haben bereits gezeigt, dass die Gemeinschaften der wirbellosen Organismen unterhalb der Einleitungen im Allgemeinen von verschmutzungstoleranten Artgruppen dominiert werden.

Bisher war jedoch unklar, wie allgegenwärtig diese Veränderungen sind. Deshalb hat nun ein Team von Biologinnen und Biologen der Goethe-Universität Frankfurt umfassend untersucht, wie sich die Abwässer aus 170 hessischen Kläranlagen auf die Artenzusammensetzung von Wirbellosen auswirkt. Dabei erfolgte eine Anpassung der herkömmlichen Vorstellung, dass durch den Menschen verursachter Stress die Anzahl der Arten und somit die Vielfalt in Lebensräumen verringert: Die Befunde deuten darauf hin, dass vielmehr ein Artenaustausch beobachtet wird. Manche Arten gehen durch Einleitungen aus Kläranlagen durchaus verloren – das betrifft zum Beispiel die Larven von Steinfliegen und Köcherfliegen, sie verschwinden durch die Abwassereinleitungen vielerorts völlig. Andere Artgruppen, etwa bestimmte Würmer und Krebstiere hingegen profitieren und lassen sich vermehrt nachweisen. Diese Veränderung ist vor allem in Bächen und kleineren Flüssen zu beobachten. Es konnten deutliche Veränderungen in der Zusammensetzung der Artgemeinschaft zwischen den Standorten flussaufwärts und flussabwärts der Kläranlagen festgestellt werden. Insgesamt verändern Kläranlagen die Bedingungen flussabwärts zugunsten von toleranten und zum Nachteil der empfindlichen Artgruppen.

Wie lässt sich die Belastung der Gewässer reduzieren?
Moderne Reinigungstechniken wie Ozonung oder Aktivkohle können die Wasseraufbereitung in Kläranlagen effizienter machen, so dass eine breitere Palette von Schadstoffen, einschließlich zahlreicher Spurenstoffe, aus dem Abwasser entfernt werden kann, bevor es wieder in die Gewässer gelangt. Auch die Zusammenlegung kleinerer Kläranlagen kann zu einer Entlastung der Umwelt beitragen. Bei allen Maßnahmen ist wichtig zu beachten, dass stromaufwärts gelegene Abschnitte nicht bereits beeinträchtigt sind und sich in einem guten chemischen und strukturellen Zustand befinden.

Bilder zum Download: https://www.uni-frankfurt.de/141365425

Wissenschaftliche Ansprechpartner:
Dr. Jonas Jourdan
Wissenschaftlicher Mitarbeiter
Institut für Ökologie, Evolution und Diversität
Goethe-Universität Frankfurt am Main
Telefon 069 798-42149
E-Mail: jourdan@bio.uni-frankfurt.de
Twitter: @Jourdan_Jonas

Originalpublikation:
Enns D, Cunze S, Baker NJ, Oehlmann J, Jourdan J (2023) Flushing away the future: The effects of wastewater treatment plants on aquatic invertebrates. Water Research, 120388. doi.org/10.1016/j.watres.2023.120388

(nach oben)


Nachhaltiger Umgang mit Regen- und Siedlungsabwasser: Software plant und optimiert Entwässerungssysteme automatisch

Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Um Regen- und Abwasser aufzusammeln, gibt es in Deutschland eine gut ausgebaute Infrastruktur mit Kanalnetzen und Kläranlagen. Anders sieht es in Entwicklungsländern aus, in denen dies oft fehlt. Ein Start-up der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) will hier Abhilfe schaffen. Es bietet dazu seine Software „ZIGGURAT“ an, die automatisch Entwässerungssysteme nachhaltig planen und optimieren kann. Die Technik berücksichtigt auch die blau-grüne Infrastruktur, das heißt, mögliche Wasserspeicher und technische Maßnahmen zur Versickerung und Verdunstung von Regenwasser. Die Gründer werden mit einem EXIST-Stipendium vom Bundeswirtschaftsministerium gefördert.

Slums, in denen Wellblechhütten dicht an dicht nebeneinanderstehen; direkt daneben Müllberge und stehende Abwässer – solche Zustände gibt es in vielen Gegenden der Welt. Rund die Hälfte der Weltbevölkerung lebt nach wie vor ohne Kanalisationsanschluss und stetig entstehen neue städtische Flächen ohne geordnete Entwässerung. Dabei haben sich die Vereinten Nationen in ihren Nachhaltigkeitszielen auf die Fahne geschrieben, den Zugang zu sauberem Wasser und sanitäre Anlagen für alle Menschen zu ermöglichen. Um dies zu erreichen, braucht es allerdings eine entsprechende Infrastruktur.

Die Planung solcher Kanalnetze für Schmutz-, Regen- oder Mischwasser ist jedoch aufwendig und bedarf einer großen Expertise. „Dabei spielen verschiedene Parameter wie Layout, der Grad der De- oder Zentralisierung, die Kanaldurchmesser und das Gefälle, die Verlegetiefen, die Pump- und Speicheranlagen eine Rolle“, sagt Timo Dilly vom Gründerteam.

Eine Software, mit der sich städtische Entwässerungssysteme automatisch nachhaltig planen lassen, entwickelt derzeit das Team um Dilly von der RPTU in Kaiserslautern. „Sie basiert unter anderem auf der Verknüpfung einer Vielzahl allgemein gültiger technischer Regeln der Tiefbauplanung und mathematischer Methoden, mit denen sich sinnvolle Lösungsvarianten generieren lassen“, sagt Dilly weiter. „Dafür haben wir eigene Algorithmen entwickelt. All dies beruht auf aktuellen Erkenntnissen aus eigenen Forschungsarbeiten in der Siedlungsentwässerung und Hydroinformatik.“

Auch der Klimawandel spielt bei den Planungen solcher Entwässerungssysteme eine Rolle, wie Dilly erläutert: „Der Umgang mit Regenwasser muss komplett neu gedacht werden, wenn man sich zunehmende Wetterextreme vor Augen führt. Wir brauchen Möglichkeiten zum Speichern von Regenwasser, aber auch naturnahe Elemente wie ausreichend Grünflächen. Dadurch lässt sich in heißen Sommermonaten das Stadtklima verbessern.“ In diesem Zusammenhang spricht man auch von blau-grüner Infrastruktur, die bei der Planung neuer Siedlungsentwässerungssysteme eine immer wichtigere Rolle spielt und auch bei ZIGGURAT eingeplant ist. „Mit diesen Maßnahmen erhöhen Städte die Resilienz gegenüber Extremen, senken Kosten und reduzieren negative Auswirkungen auf die Umwelt“, betont Dilly.

In diesem Punkt eignet sich die Software auch für hiesige Städte und Gemeinden, die ihre Entwässerungssysteme künftig anpassen wollen.

Am jungen Unternehmen beteiligt sind neben Dilly seine Kollegen Dr. Amin E. Bakhshipour, Professor Dr. Ulrich Dittmer und Ralf Habermehl aus dem Lehrgebiet Siedlungswasserwirtschaft an der RPTU in Kaiserslautern. Unterstützt werden sie von Marius Lauer, der betriebswirtschaftliche Kenntnisse miteinbringt.

Ihre Software ZIGGURAT möchten sie in Zukunft in einer Online-Plattform zur Verfügung stellen, auf der sich Interessierte einen kostenpflichtigen Account erstellen können. Das Team aus Kaiserslautern stellt neben der Software auch seine Expertise zur Verfügung und bietet etwa Unterstützung bei der Planung an.

Bei seinem Weg in die Selbstständigkeit wird das Unternehmen mit einem „EXIST-Gründerstipendium“ des Bundesministeriums für Wirtschaft und Klimaschutz und dem Europäischen Sozialfonds zur „Existenzgründung aus der Wissenschaft“ gefördert.

Mehr unter ziggurat.ai

Fragen beantwortet:
Timo Dilly
Ziggurat
E-Mail: timo.dilly@rptu.de
Tel.: 0631-205-4643

(nach oben)


Neuer Infektionsmechanismus beim Coronavirus entdeckt

Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Forschende der Medizinischen Fakultät Heidelberg und des Universitätsklinikums Heidelberg erforschen molekulare Zusammenhänge, die Infektion und Ausbreitung des Coronavirus SARS-CoV-2 begünstigen / Ergebnisse bieten Ansatzpunkt für die Entwicklung antiviraler Therapien

Das Virus SARS-CoV-2, das für die COVID-19-Pandemie verantwortlich ist, löst in den infizierten Zellen eine Stressreaktion aus, die das Eindringen des Virus in die Zellen erleichtert. Auf der Suche nach dem zugrundeliegenden molekularen Mechanismus identifizierten Forschende der Medizinischen Fakultät Heidelberg der Universität Heidelberg und des Universitätsklinikums Heidelberg (UKHD) in Zusammenarbeit mit dem Deutschen Krebsforschungszentrum (DKFZ) sowie der Universität Bristol einen zellulären Faktor mit dem Namen NUAK2. Dessen Menge wird durch die SARS-CoV-2 vermittelte Stressreaktion erhöht und er begünstigt den Eintritt und die Ausbreitung des Coronavirus in menschlichen Zellen. Damit könnte NUAK2 neuer Ansatzpunkt für die Entwicklung antiviraler Wirkstoffe sein.

Das Forschungsteam um Professor Dr. Dr. h.c. Ralf Bartenschlager, Leiter der Abteilung Molekulare Virologie am Zentrum für Infektiologie am UKHD und Dr. Vibhu Prasad, Wissenschaftler in der Molekulare Virologie hat nun die molekularen Wege, die beteiligt sind, wenn SARS-CoV-2 die Zelle infiziert, analysiert. Das zelluläre Eiweißmolekül NUAK2 spielt dabei eine zentrale Rolle.

In Experimenten blockierten die Heidelberger Wissenschaftlerinnen und Wissenschaftler das NUAK2 in den Zellen. Dadurch wurde das Eindringen von SARS-CoV-2-Partikeln in die Zelle vermindert, weil NUAK2 die Menge an ACE2, der Rezeptor für das Virus, reguliert. „Darüber hinaus zeigten unsere Untersuchungen, dass eine erhöhte NUAK2-Konzentration in infizierten Zellen die Anzahl an Rezeptoren auch in nicht infizierten Zellen erhöhte. Dadurch wurden auch diese Zellen verstärkt mit dem SARS-CoV-2 infiziert“, berichtet Dr. Vibhu Prasad.

Und nicht nur bei SARS-CoV-2 ließen sich diese Zusammenhänge nachweisen, sondern auch bei anderen Coronavirus-Arten wie beispielsweise dem humanen Coronavirus-229E – dem „Erkältungsvirus“ – und dem sehr gefährlichen MERS-Coronavirus, das von Kamelen auf den Menschen übertragen werden kann.

„Die Forschungsergebnisse liefern wertvolle Einblicke in die komplizierten Mechanismen der SARS-CoV-2-Infektion und -Ausbreitung. Das Verständnis der Rolle von NUAK2 eröffnet neue Wege für therapeutische Maßnahmen. Indem wir den NUAK2-regulierten Viruseintritt unterbrechen, können wir möglicherweise die Ausbreitung des Virus verhindern und dadurch die Auswirkungen von Coronaviren abmildern“, sagt Professor Ralf Bartenschlager.

Wissenschaftliche Ansprechpartner:
Professor Dr. Dr. h.c. Ralf Bartenschlager, Dr. Vibhu Prasad

Originalpublikation:
Prasad V, Cerikan B, Stahl Y, et al. Enhanced SARS-CoV-2 entry via UPR-dependent AMPK-related kinase NUAK2. Mol Cell. 2023;S1097-2765(23)00467-7. doi:10.1016/j.molcel.2023.06.020

Weitere Informationen:
https://www.klinikum.uni-heidelberg.de/zentrum-fuer-infektiologie/molecular-viro…

(nach oben)


Unit Dose: Mehr Sicherheit in der Arzneimitteltherapie

Anna Reiss Presse- und Öffentlichkeitsarbeit
Universitätsklinik der Ruhr-Universität Bochum – Herz- und Diabeteszentrum NRW Bad Oeynhausen
HDZ NRW etabliert mit „Unit Dose“ jetzt modernste Technik zur Medikamentenversorgung

Die Unit-Dose-Herstellung der Zentralapotheke am Herz- und Diabeteszentrum NRW (HDZ NRW), Bad Oeynhausen, ist der erste große Baustein verschiedener Digitalisierungs-vorhaben, die im Sinne des Krankenhauszukunftsgesetzes am Bad Oeynhausener Spezialklinikum bis Ende 2024 umgesetzt werden. Von dieser neuen automatisierten Medikamentenversorgung profitieren vor allem die Patienten und das Pflegepersonal. Die Innovation wurde über ein Jahr lang sorgfältig vorbereitet.

„Die Maschine verpackt lückenlos, detailliert und zuverlässig für jeden Patienten zu jedem Einnahmezeitpunkt die genau für ihn richtigen Medikamente – insgesamt etwa 4.000 Stück am Tag“, sagt Anke Möller, Leiterin der Apotheke am Herz- und Diabeteszentrum NRW (HDZ NRW), Bad Oeynhausen. Bisher einmalig ist diese Form der sogenannten Unit-Dose-Versorgung in Ostwestfalen-Lippe aufgrund eines optischen Kontrollgeräts, mit dem Mensch und Maschine gemeinsam einen zusätzlichen Sicherheitscheck ausführen.

Auf den Pflegestationen im HDZ NRW sehen sich vier Apothekerinnen und Apotheker die ärztliche Verordnung der Medikamente an. Wenn zum Beispiel die Medikamente untereinander Wechselwirkungen aufweisen oder die Arzneimitteltherapie im Abgleich mit den Diagnosen optimiert werden kann, besprechen sie dies unter Berücksichtigung aktueller Laborwerte der Patienten mit den Ärztinnen und Ärzten. Die Daten werden anschließend aus der digitalen Patientenakte für den computergesteuerten Automaten freigegeben. Gibt das System grünes Licht und die Medikamentenzuordnung stimmt, startet die Anlage die einzelnen Packaufträge zur hygienischen Verblisterung der Tabletten. „Das erspart unseren Pflegekräften die früher übliche Sortierung per Hand und im Vier-Augen-Prinzip. Hier ist Unit Dose so enorm schnell und präzise im Einsatz, dass die ohnehin schon sehr hohe Patientensicherheit im HDZ noch weiter gesteigert werden kann.“

Bevor die Tütchen die Apotheke verlassen, scannt ein Kontrollgerät die darin enthaltenen Arzneimittel und gleicht Form, Größe und Farbe mit einer hinterlegten Datenbank ab. Jede Abweichung bei dieser Identitätskontrolle wird durch pharmazeutisches Fachpersonal begutachtet und, wenn notwendig, korrigiert.

In den kleinen Blistertüten, die jeder Patient auf seiner Station erhält, befinden sich seine verordneten Tabletten. Persönliche Angaben wie Name, Geburtsdatum, Krankenhaus, Station, Zimmer und die genaue Bezeichnung der Medikamente können darauf abgelesen werden. Über einen kleinen QR-Code-Aufdruck können Hinweise zum jeweiligen Arzneimittel im Beipackzettel mit dem Smartphone digital abgelesen werden.

Wochentags erhalten die Pflegestationen im HDZ NRW zwei Mal täglich die ihnen zugeordneten Blistertütchen. Samstags erfolgt die Ausgabe für das Wochenende. Das Pflegepersonal auf der Station überprüft dann nochmals jede einzelne Medikamentenzuteilung vorab darauf, ob es sich um den richtigen Patienten, das richtige Arzneimittel, die richtige Dosierung, Verabreichungsform und den richtigen Einnahmezeitpunkt handelt. Anschließend wird die Einnahme überprüft und in der digitalen Patientenakte dokumentiert. Diese sechsmalige Prüfung auf Richtigkeit bezeichnet man als 6-R-Regel. Dank der jetzt vom Automaten vorbereiteten beschrifteten Einzelverpackungen ist auch diese standardmäßige Überprüfung sicherer und einfacher geworden.

„Unsere neue digitale Unterstützung in der Medikamentenversorgung steigert die Arzneimitteltherapiesicherheit, entlastet die Pflegekräfte und macht damit auch den Pflegeberuf attraktiver“, fasst Anke Möller die Vorteile der Unit-Dose-Versorgung im HDZ NRW zusammen, die bis Ende September auf allen Normalstationen des Klinikums etabliert sein wird. Nicht zu vergessen sei auch der ökologische Aspekt des Projekts: Weil der Automat mit Tabletten-Schüttware arbeitet, spart man bereits jetzt im HDZ NRW trotz des zusätzlichen Folienmaterials erhebliche Mengen von Verpackungsmüll ein.

Hintergrundinformation: Zukunftsweisende Technik
Mit „Unit Dose“ wird die sogenannte Verblisterung bezeichnet, indem Tabletten, Kapseln und Dragees durch digitale Anbindung an die Patientenakte automatisch für jeden Patienten individuell in hoher Geschwindigkeit in kleine Folienbeutel verpackt, beschriftet und zugeordnet werden. Als Alternative zur traditionellen Stationsversorgung wird Unit-Dose zunehmend in Konzepte zur Verbesserung der Arzneimitteltherapiesicherheit im klinischen Bereich aufgenommen, insbesondere mit der Einführung elektronischer Verordnung und digitaler Patientenakten. Tatsächlich ist eine zentral über die Klinikapotheke gesteuerte Unit-Dose-Versorgung deutschlandweit jedoch erst in wenigen Krankenhäusern etabliert. Als Gesamtlösung aus elektronischer Verschreibung, Dosier- und Interaktionsprüfungen durch Stationsapothekerinnen und Stationsapotheker, automatisierter patientenbezogener Kommissionierung von Einzeldosen und IT-gestützter Verabreichungsdokumentation bietet sie bei entsprechender Ablauforganisation nachweislich Vorteile hinsichtlich der Arzneimittel- und Patientensicherheit, der Verbesserung von medikamentösen Therapien, Transparenz von Fallkosten und einer möglichen Senkung des Arzneimittelbudgets. Am HDZ NRW zieht man in Erwägung, eine Medikamentenversorgung nach Unit-Dose-Prinzip zukünftig auch auf andere von der Zentralapotheke mitversorgte Kliniken und Einrichtungen auszuweiten.

Bildmaterial finden Sie zum Download bereitgestellt unter
https://cloud.hdz-nrw.de/d/e1cef7cd5285429495f0/

Hinweis zur Verwendung von Bildmaterial: Die Verwendung des Text- und Bildmaterials zur Pressemitteilung ist bei Nennung der Quelle vergütungsfrei gestattet. Das Bildmaterial darf nur in Zusammenhang mit dem Inhalt dieser Pressemitteilung und namentlicher Nennung des Herz- und Diabeteszentrum NRW, Bad Oeynhausen, verwendet werden.

Als Spezialklinik zur Behandlung von Herz-, Kreislauf- und Diabeteserkrankungen zählt das Herz- und Diabeteszentrum Nordrhein-Westfalen (HDZ NRW), Bad Oeynhausen, mit 36.000 Patientinnen und Patienten pro Jahr, davon 14.800 in stationärer Behandlung, zu den größten und modernsten Zentren seiner Art in Europa. Unter einem Dach arbeiten fünf Universitätskliniken und drei Universitäts-Institute seit mehr als 30 Jahren interdisziplinär zusammen. Das HDZ NRW ist seit 1989 Universitätsklinik der Ruhr-Universität Bochum. Die Professorenschaft des HDZ NRW ist zusätzlich seit 2023 Mitglied der Medizinischen Fakultät OWL der Universität Bielefeld. Die Einrichtung ist bekannt als größtes Herztransplantationszentrum in Deutschland.

In der Zentralapotheke des HDZ NRW unter der Leitung von Anke Möller sind aktuell 30 Mitarbeitende, darunter 8 Apotheker/innen und 13 Pharmazeutisch-Technische Assistenten/Assistentinnen (PTA) beschäftigt. Neben den Kliniken des HDZ NRW versorgt die Apotheke 18 weitere Einrichtungen (über 4.500 Betten) in der Region. Zur Ausstattung zählen unter anderem eine halbautomatische Kommissionieranlage für Arzneimittel, Medizinprodukte und apothekenübliches Nebensortiment sowie Laborräume auf über 200 Quadratmetern zur Herstellung von parenteralen Arzneimitteln und Zytostatika.

Weitere Informationen:
Herz- und Diabeteszentrum Nordrhein-Westfalen
Universitätsklinik der Ruhr-Universität Bochum
Presse- und Öffentlichkeitsarbeit
Leitung: Anna Reiss
Georgstr. 11
32545 Bad Oeynhausen
Tel. 05731 97-1955
Fax 05731 97-2028
E-Mail: info@hdz-nrw.de

Weitere Informationen:
http://www.hdz-nrw.de

Anhang
Pressemitteilung HDZ NRW vom 09.08.2023

(nach oben)


Tiefengeothermie: NRW hat günstige Voraussetzungen für den Ausbau der Geothermie

Kosta Schinarakis Pressestelle
Fraunhofer-Einrichtung für Energieinfrastrukturen und Geothermie IEG
Nordrhein-Westfalen will das Potenzial der Geothermie heben und damit einen wichtigen Schritt in Richtung klimaneutrale Industrieregion gehen. Der Landtag NRW bat das Fraunhofer IEG um eine Stellungnahme, zur Rolle von tiefer, mitteltiefer und oberflächennaher Geothermie in der Wärmewende des Landes. Anlässlich der gestrigen Sachverständigenanhörung im zuständigen Ausschuss unterstrich Fraunhofer IEG die günstigen geologischen Bedingungen für die Tiefengeothermie, aber auch die Markt-Hemmnisse, die nur politisches Handeln ausräumen kann.

»Zwei zentrale Faktoren behindern den Ausbau der Tiefen Geothermie«, unterstreicht Rolf Bracke, Leiter des Fraunhofer IEG. »Das Fündigkeitsrisiko bei gleichzeitig erheblichen Investitionskosten für Projektentwickler sowie die unzureichende Datenlage zum tiefen Untergrund jenseits von 1000 Metern.« Ein hohes Potenzial für die Wärmewende in einem der größten europäischen Ballungsräume stelle dagegen die Grubenwassernutzung und Wärmespeicherung im Steinkohlengebirge dar. Zur Beseitigung der Hemmnisse und Nutzung der Potenziale sei nun politisches Handeln angezeigt.

Die Hälfte des Energieumsatzes in Deutschland geht in die Wärmeversorgung von Gebäuden und Industrieprozessen. Doch noch immer ist der Anteil von alternativer Wärme bei unter 20 Prozent. Die nachhaltige Geothermie hat genug Potenzial um den Wärmebedarf NRWs großteils zu decken. Erdwärme steht ganzjährig und verlässlich zur Verfügung, ist wetterunabhängig, CO2-frei und lokal. In Kombination mit Hochtemperaturwärmepumpen könnte Geothermie auch ein Viertel des Wärmebedarfes der Industrie decken, etwa in den Sektoren Nahrungsmittel, Papier, Zement, Gewächshaus oder Chemie. Vor allem in Süd-Deutschland arbeiten derzeit rund 40 geothermische Anlagen mit einer installierten Wärmeleistung von ca. 400 MW. Die Herstellungskosten liegen bei ca. 2-2,5 Mio. Euro pro installierte Leistung von 1 MW und die Erzeugungskosten bei wettbewerbsfähigen 30 Euro/MWh.

Aus Sicht der Fraunhofer IEG sollte ein ambitionierter »Masterplan Geothermie NRW« alle Optionen der geothermischen Nutzung adressieren und ambitionierte, landesbezogene Ausbauziele benennen. Ein Handlungsfeld eines solchen Masterplans ist sicherlich die Bildung einer verlässlichen Datengrundlage. Hier bietet sich eine Kombination aus den Methoden geophysikalische Erkundung und Tiefbohrung an, die den Kern einer landesweiten Explorationsstrategie bilden sollten. Die gewonnenen Rohdaten und Erkenntnisse sollen den Marktteilnehmer – etwa Projektentwicklern und Stadtwerken – unverzüglich digital zu Verfügung stehen.

Da Geothermie im überragenden öffentlichen Interesse liegt, sollten Förder- und Finanzinstrumente des Landes das Fündigkeitsrisiko der oftmals mittelständigen Wärmeversorger senken. Solche Instrumente könnten das Erreichen der strategischen Ziele des Landes innerhalb der Wärmewende massiv beschleunigen.

Darüber hinaus können Vereinfachungen bzw. Bündelungen von Genehmigungsverfahren nach dem Wasser-, Umweltverträglichkeitsprüfungs-, Naturschutz- und im Vergaberecht Projekte wesentlich beschleunigen. Eine Option kann die Ausweisung sog. »Go-to-Gebiete« für Heiz(kraft)werke in der Landesentwicklungs- und Bauleitplanung sein.

Um den ambitionierten geothermischen Zubau gewährleisten zu können, müssen auch Fachkräfte- und Schulungskapazitäten entlang der gesamten Planungs-, Administrations- und Installationskette aufgebaut werden. Dem Anspruch des Industrielandes NRW auf Technologieführerschaft entsprechend sollten vorhandene Branchen und Unternehmen mit Schlüsseltechnologien der Geothermie durch gezielte Wirtschaftsförderungsmaßnahmen für den Transformationsprozess »Geothermische Wärmewende« gestärkt werden.

Weitere Informationen:
http://Tagesordnung: https://www.landtag.nrw.de/home/der-landtag/tagesordnungen/WP18/300/E18-388.html
http://Videostream: https://www.landtag.nrw.de/home/mediathek/video.html?kid=b8084895-03a4-4b92-83ba…
http://Sitzungmappe: https://www.landtag.nrw.de/portal/WWW/dokumentenarchiv/Dokument/esm/MME18-388.pd…

(nach oben)


Wie durcheinander gewürfelte Daten unsere Sicherheit verbessern können

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Riesige Datenströme durchlaufen täglich unsere Computer und Smartphones. Um diese zu verarbeiten, bestehen technische Geräte vereinfacht gesagt aus zwei wesentlichen Einheiten: Einem Prozessor, also einer Art Schaltzentrale und dem Arbeitsspeicher (RAM), den man mit einem Gedächtnis vergleichen kann. Da der Speicher um ein Vielfaches langsamer darin ist, Daten bereitzustellen als der Prozessor in der Lage ist, diese Daten zu verarbeiten, arbeiten moderne Prozessoren mit einem Zwischenspeicher, dem so genannten Cache, der eine Art Brücke zwischen den beiden bildet. In diesem Zwischenspeicher befinden sich oftmals private Daten, die für Angreifer ein attraktives Ziel darstellen könnten.

Ein Team aus Bochumer Wissenschaftlern hat nun in Kooperation mit Forschern aus Japan eine innovative Verschlüsselung designt, die nicht nur eine größere Sicherheit bietet als die bisherigen Ansätze, sondern auch effizienter und schneller ist. Die Arbeit dazu stellen sie auf der renommierten Konferenz „Usenix Security Symposium“ in Anaheim, Kalifornien (USA), vor.

Beteiligt daran sind Dr. Federico Canale und Prof. Dr. Gregor Leander vom Lehrstuhl für Symmetrische Kryptographie, Jan Philipp Thoma und Prof. Dr. Tim Güneysu vom Lehrstuhl für Security Engineering, alle von der Ruhr-Universität Bochum, sowie Yosuke Todo von NTT Social Informatics Laboratories und Rei Ueno von der Tohoku University (Japan).

Cache bisher nicht gut gegen Seitenkanal-Angriffe geschützt
Dass der Cache gegen eine bestimmte Art von Angriffen nicht gut geschützt ist, hat CASA-Forscher Prof. Dr. Yuval Yarom, der seit April 2023 an der Ruhr-Universität tätig ist, schon vor Jahren aufgedeckt. Die schweren Sicherheitslücken Spectre und Meltdown hatten damals für Wirbel gesorgt, weil sie alle gängigen Mikroprozessoren sowie Cloud-Dienste betrafen. Ein Cache ist ein eher unscheinbares Element, leistet aber eine wichtige Arbeit: In ihm lagern Daten zwischen, die sehr oft abgerufen werden. Seine Hauptfunktion liegt darin, Zugriffszeiten zu verringern – denn würden die Daten jedes Mal vom Prozessor (CPU) beim langsameren Arbeitsspeicher abgerufen werden, würde dies die Schnelligkeit verringern. Also holt sich die CPU bestimmte Daten aus dem Cache. Bei dieser Kommunikation zwischen CPU und Cache können allerdings Angreifer ansetzen. Ihre Methode: Sie überschreiben die recht ungesicherten Daten im Cache. Das System kann die Daten nicht mehr im Cache finden und fordert sie deshalb aus dem Hauptspeicher an. Dieser Vorgang ist messbar langsamer. „In sogenannten Timing-Seitenkanalangriffen können Angreifer die Zeitunterschiede messen und dazu nutzen Speicherzugriffe von anderen Programmen zu beobachten. Dadurch lassen sich zum Beispiel private Schlüssel für Verschlüsselungsalgorithmen stehlen“, erklärt Jan Philipp Thoma vom Lehrstuhl für Security Engineering.

Innovative Lösung mit mathematischem Hintergrund
Zwar wurden für manche Angriffe Patches entwickelt, die die Lücke schließen sollten, aber eine beweisbare Sicherheit konnten diese nicht bieten. Nun hat das Team aus Bochum und Japan jedoch eine innovative Lösung gefunden: „Unsere Idee besteht darin, dass wir die Daten im Cache mithilfe mathematischer Prozesse durcheinanderwürfeln“, erklärt Gregor Leander, der vor kurzem einen ECR Advanced Grant für seine Forschung erhalten hat. Durch diese Randomisierung in den Caches des CPUs können die Angriffe abgewehrt werden, da sie verhindert, dass Angreifer die Daten aus dem Cache entfernen können.

„Der interdisziplinäre Ansatz aus Überlegungen der Kryptografie und der Hardware-Sicherheit stellt ein Novum innerhalb der Computersicherheit dar. Zwar gab es zuvor schon Ideen zu randomisierten Cache-Architekturen, allerdings waren diese nicht sehr effizient und nicht in der Lage, starke Angreifer vollständig abzuhalten“, sagt Tim Güneysu, der den Lehrstuhl für Security Engineering innehat. Das neue Modell SCARF arbeitet mit einer Blockverschlüsselung, die für diesen Bereich ganz neu von den Wissenschaftlern gedacht wurde. „Normalerweise verschlüsseln wir Daten mit 128 Bit, im Cache arbeiten wir teilweise mit 10 Bit. Das ist ein komplexer Vorgang, weil es viel länger dauert, diese Daten mit einem großen Schlüssel zu mischen“, so Gregor Leander. Der große Schlüssel wird benötigt, weil eine kürzere Verschlüsselung solch kleiner Datenmengen leichter von Angreifern gebrochen werden könnte.

Die oben beschriebene Randomisierung benötigt normalerweise viel Zeit, was die Arbeitsweise des Cache einschränken würde. SCARF hingegen arbeitet dank der Blockchiffrierung schneller als alle bisher designten Lösungen. „SCARF kann als Modulbaustein in Cache Architekturen eingesetzt werden und sorgt automatisch für sichere – das heißt nicht vorhersagbare – Randomisierung bei gleichzeitig niedriger Latenz, also Reaktionszeit“, führt Jan Philipp Thoma aus und fasst zusammen: „Mit SCARF bieten so wir eine effiziente und sichere Lösung für die Randomisierung.“

Doppelter Schutz durch Kombination mit ClepsydraCache
Somit könnte die Arbeit der Forscher einen elementaren Einfluss auf den Schutz von sensiblen Daten innerhalb der digitalen Gesellschaft leisten. Darüber hinaus stellen die Forscher in Zusammenarbeit mit anderen Kollegen eine weitere Arbeit auf dem diesjährigen „Usenix Security Symposium“ vor, die mit SCARF kombiniert werden kann. Das Paper „ClepsydraCache – Preventing Cache Attacks with Time-Based Evictions“ zeigt ebenfalls eine neue Idee für die Sicherheit des Zwischenspeichers auf. Daran beteiligt sind ebenfalls Jan Philipp Thoma, Gregor Leander und Tim Güneysu sowie CASA-Forscher Lucas Davi von der Uni Duisburg-Essen. Es ist außerdem in enger Zusammenarbeit mit Forschern des Lehrstuhls für Integrierte Systeme an der Ruhr-Universität Bochum entstanden. „ClepsydraCache setzt auf sogenanntes Cache Decay in Kombination mit der Randomisierung des Indexes. Cache Decay bedeutet, dass Daten, die längere Zeit nicht verwendet werden, automatisch aus dem Cache entfernt werden“, beschreibt Jan Philipp Thoma den Prozess.

Für die Sicherheit der Daten ist ein solcher Vorgang wichtig, weil er weniger Cache-Konflikte entstehen lässt. Diese Konflikte führen zur Verlangsamung des Prozesses und könnten ebenfalls mithilfe der oben beschriebenen Seitenkanalangriffe zu Rückschlüssen auf Daten führen. Die Wissenschaftler konnten beweisen, dass ihr Vorschlag bekannten Angriffsvektoren standhält und sich problemlos in bestehende Architekturen einbauen lässt.

Interdisziplinäre Arbeit führt zu erfolgreicher Forschung
Durch die Vereinbarkeit der beiden Arbeiten „SCARF“ und „Clepsydracache“ könnten künftige Generationen von Caches sicherer werden als je zuvor – und müssten dabei keinerlei Einbußen in ihrer Schnelligkeit verzeichnen. Das Teamwork zeigt somit, dass der interdisziplinäre Ansatz, den das Exzellenzcluster CASA „Cybersecurity in the Age of Large-Scale Adversaries“ verfolgt, zu richtungsweisenden Forschungsergebnissen führen können.

Redaktion: Christina Scholten
Wissenschaftliche Ansprechpartner:
Prof. Dr. Tim Güneysu
Lehrstuhl für Security Engineering
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 24626
E-Mail: tim.gueneysu@ruhr-uni-bochum.de

Prof. Dr. Gregor Leander
Lehrstuhl für Symmetrische Kryptographie
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 28402
E-Mail: gregor.leander@ruhr-uni-bochum.de

Jan Philipp Thoma
Lehrstuhl für Symmetrische Kryptographie
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 27891
E-Mail: jan.thoma@ruhr-uni-bochum.de

Originalpublikation:
Federico Canale, Tim Güneysu, Gregor Leander, Jan Philipp Thoma, Yosuke Todo, Rei Ueno: SCARF – A low-latency block cipher for secure cache-randomization, 32th USENIX Security Symposium, 2023, Anaheim, USA, Download Pre-Print: https://www.usenix.org/system/files/usenixsecurity23-canale.pdf

Jan Philipp Thoma, Christian Niesler, Dominic Funke, Gregor Leander, Pierre Mayr, Nils Pohl, Lucas Davi, Tim Güneysu: ClepsydraCache – Preventing cache attacks with time-based evictions, 32th USENIX Security Symposium, 2023, Anaheim, USA, Download Pre-Print: https://www.usenix.org/system/files/sec23summer_48-thoma-prepub.pdf

(nach oben)


Kartografie der Mobilfunk-Sicherheit

Annabelle Theobald Unternehmenskommunikation
CISPA Helmholtz Center for Information Security
„Als Mobilfunkforscher ist man in gewisser Weise Gefangener seiner geografischen Position“, sagt CISPA-Forscher Dr. Adrian Dabrowski. Was er damit meint ist, dass Mobilfunkforschende wegen der großen Zahl von Anbietern und Netzen bislang nur mit großem Aufwand Tests in ausländischen Mobilfunknetzen vornehmen können. Zusammen mit Gabriel Gegenhuber von der University Vienna und weiteren Kollegen hat Dabrowski deshalb MOBILEATLAS entwickelt, eine Infrastruktur, die die Testung quer durch Europa erlaubt – egal von wo aus. Sein Paper „Geographically Decoupled Measurements in Cellular Networks for Security and Privacy Research” stellt er auch auf der Top-IT-Sicherheitskonferenz USENIX vor.

2G, 3G, 4G, 5G – Was sich anhört wie die Ziehung beim Bingo bezeichnet die aktuell verwendeten Mobilfunkstandards. Der jüngste Standard der 5. Generation – dafür stehen all die Gs – ist noch im Aufbau. Der älteste, 2G, wurde schon in den 1990er-Jahren Jahren eingeführt und ist noch immer in Verwendung. „2G wird vor allem für Sprachübertragung oder für einfache smarte Geräte verwendet; etwa ein Getränkeautomat, der anzeigt, dass er nachgefüllt werden muss“, erklärt Dabrowski. Das darauffolgende 3G wurde 2021 in Deutschland abgeschaltet und durch 4G, auch LTE genannt, ersetzt. Mit 4G lassen sich unterwegs auch zum Beispiel Streamingdienste nutzen oder Videotelefonie durchführen. Mittlerweile gelten diese Mobilfunkstandards, die nebeneinander existieren, weltweit. Durch das sogenannte Roaming sollen Mobilfunk-Kund:innen auch im Ausland die mit ihrem Mobilfunkanbieter vereinbarten Services nutzen können und den versprochenen Sicherheits- und Privatsphäreschutz genießen. Sollen.

Ist das „Roam-Like-At-Home-Prinzip“ ein leeres Versprechen?
Die Rede ist hier vom sogenannten Roam-Like-At-Home-Prinzip, das EU-Bürger:innen in der 2022 neugefassten EU- Roamingverordnung versprochen wird. Die Bundesnetzagentur schreibt dazu: „Durch die Neufassung der Roaming-Verordnung gilt auf Reisen in der EU nicht nur der gleiche Preis wie zuhause, sondern auch grundsätzlich die gleiche Qualität.“ Dabrowski bezweifelt, dass dieses Versprechen eingehalten werden kann. „Beim Roaming arbeiten das Heimatnetzwerk und das Netzwerk des Landes, in dem ich zu Gast bin, zusammen. Sie wollen einen Service anbieten, der auch hinsichtlich Privatsphäre und Sicherheit so konsistent ist wie der im Heimatnetz. Die technische Umsetzung ist dabei aber komplett verschieden.“ So werde zum Beispiel bei einem Urlaub in der Schweiz die Telefonieverbindung direkt übers Schweizer Netz hergestellt, während die Internetverbindung den Umweg über Deutschland nehme. Im Heimnetzwerk ginge beides den direkten Weg. „Wenn man genau hinschaut gibt es keine Konsistenz zwischen Roaming- und Nicht-Roaming-Verbindungen“, erklärt der Forscher. Die Mobilfunk-Anbieter hätten extrem viel Gestaltungsspielraum und seien bislang kaum zu kontrollieren. Das gilt laut Dabrowski auch hinsichtlich der Sicherheit der Netze.

Grenzüberschreitende Tests bislang kaum möglich
Das Problem: Bislang sind Tests und Messungen über die Grenzen hinweg extrem aufwendig. „Europa ist extrem zersplittert. In jedem Land gibt es viele Mobilfunkanbieter. Deutschland ist mit seinen nur drei Anbietern die Ausnahme. Wenn ich feststelle, dass in einem unserer inländischen Mobilfunknetze eine Sicherheitslücke ist und prüfen will, ob das in anderen Netzen auch der Fall ist, hab‘ ich derzeit zwei Möglichkeiten: Entweder ich reise viel herum und teste jedes Netz in jedem Land in jeder Konstellation, oder ich statte in jedem Land möglichst viele Geräte mit möglichst vielen verschiedenen SIM-Karten von unterschiedlichen Anbietern aus. In kürzester Zeit habe ich so 1000 SIM-Karten, 1000 Verträge und eine Privatinsolvenz.“

„Entkoppelte Messungen“ sind die Lösung
Die Lösung könnte ein von den Forschenden entwickeltes Framework sein, das die geografische Trennung der SIM-Karte vom Mobilfunkmodem erlaubt. Das Modem ist eine Komponente in mobilen Endgeräten wie etwa Smartphones, das die Verbindung zwischen den Geräten und einem Mobilfunknetz herstellt. Seine Aufgabe ist es, die Funkdaten in die richtige Form zu bringen und an die Sendemasten senden und von dort zu empfangen. Die SIM-Karte dient zur Identifikation der Nutzer:innen und ordnet das Smartphone einem bestimmten Netz zu. Dabrowski erklärt, was das alles mit seinem Framework zu tun hat: „Normalerweise sind SIM-Karte und Telefon eine Einheit. Wir trennen diese Einheit auf und entfernen die SIM-Karte aus dem Telefon. Wir simulieren das Kommunikationsprotokoll übers Internet und können so quasi virtuell reisen. Nochmal einfacher an einem Beispiel erklärt: Wir verbinden einmal die SIM-Karte mit unserer Messstation in Deutschland und können so tun, als wären wir in Deutschland. Dann trennen wir sie und verbinden sie zu unserer Messstation in Frankreich und können so tun als seien wir da. Wir brauchen dafür nur noch ein Endgerät in Deutschland oder eben in Frankreich.“

Kostengünstig und Open Source
Die daraus resultierende Mess- und Testplattform, die für die Standards 2G bis 4G funktioniert, bietet laut Dabrowski eine kontrollierte Experimentierumgebung die erweiterbar und kostengünstig ist. „Zudem ist unser Ansatz Open Source, sodass andere Forscher Standorte, SIM-Karten und Messskripte dazu beitragen können.“ Die Forschenden machen die Plattform unter dem Namen MobileAtlas zugänglich und nutzbar. Das Tool dürfte dabei nicht nur für Wissenschaftler:innen interessant sein. „Mobilfunkanbieter:innen könnten damit auch erstmals prüfen, ob ihre Roamingpartner ihre Versprechen halten.“ Der Name Mobile Atlas kommt dabei nicht von Ungefähr. Er wurde laut Dabrowski abgeleitet vom Namen der seit 2010 existierenden Internet-Testplattform RIPEATLAS. „RIPE NCC ist die Europäische Internetverwaltung. Der RIPE Atlas ist ein globales Netz von Messgeräten, die die Konnektivität und Erreichbarkeit des Internets messen.“

Die Grenzen der Grenzenlosigkeit
Mit dem MOBILEATLAS gibt es bislang in zehn Ländern Messstationen und die für die Messungen geeignete Infrastruktur. Dabrowski hofft, dass sich das Messnetzwerk durch die Hilfe anderer Forschender schnell vergrößert. „Allerdings werden wir auch schauen müssen, dass kein Unfug mit den SIM-Karten getrieben wird, damit uns keine Kosten entstehen. Ob wir MOBILEATLAS so umfänglich anbieten können wie RIPE NCC ihre Plattform muss sich noch zeigen. Dass sich mit ihrem Ansatz interessante Informationen zu Tage fördern lassen, haben Dabrowski und seine Kollegen bewiesen: „Wir haben zum Beispiel entdeckt, dass sich in einigen Mobilfunknetzen bestimmte Dienste so tarnen lassen, dass der dafür anfallende Datenverkehr nicht vom im Tarif enthaltenen Datenvolumen abgezogen wird. Für Endnutzer:innen schlimmer sind allerdings die Sicherheitsproblematiken, die wir ebenfalls nachweisen konnten. So haben wir zum Teil problematische Firewall-Konfigurationen gefunden oder versteckte SIM-Kartenkommunikation mit dem Heimnetzwerk aufgedeckt.“ Allzu beunruhigend sind die Befunde dabei nicht. Eine Ausnutzung dieser Probleme würde sehr gezielte Angriffe und versierte Angreifer:innen voraussetzen. „Aber solche Lücken sind nie gut. Und jetzt haben wir die Möglichkeit, die Anbieter darauf hinzuweisen.“

Originalpublikation:
Gegenhuber, Gabriel Karl and Mayer, Wilfried and Weippl, Edgar and Dabrowski, Adrian
(2023) MobileAtlas: Geographically Decoupled Measurements in Cellular Networks for Security and Privacy Research. In: USENIX Security Symposium 2023, August 9-11, 2023, Anaheim, California, United State. Conference: USENIX-Security Usenix Security Symposium

Weitere Informationen:
https://www.mobileatlas.eu/

(nach oben)


10 Millionen Euro für die Erzeugung erneuerbarer, flüssiger Energieträger aus Kohlenstoffdioxidemissionen

Anette Mack Presse- und Öffentlichkeitsarbeit
Steinbeis Europa Zentrum
Das Innovationsprojekt CAPTUS zeigt nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien. Als Projektpartner unterstützt das Steinbeis Europa Zentrum das internationale Konsortium aus 17 Partnern in CAPTUS beim Austausch und bei der Verbreitung der Projektaktivitäten und Ergebnisse, um so die gewonnenen Erkenntnisse effektiv an Zielgruppen der Industrie und Öffentlichkeit zu vermitteln. Daneben ist das Steinbeis Europa Zentrum auch für die Netzwerkaktivitäten mit anderen EU-geförderten Projekten und Initiativen im gleichen Themenbereich verantwortlich.

Am 15. und 16. Juni 2023 feierten die Projektpartner, darunter das Steinbeis Europa Zentrum, den Auftakt des EU-Projekts CAPTUS in Zaragoza, Spanien. Das Innovationsprojekt zeigt nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien; darunter die Nutzbarmachung und Wertsteigerung von Kohlenstoffemissionen und deren Integration in erneuerbare Energiequellen.

Aufgrund ehrgeiziger klimapolitischer Maßnahmen stehen energieintensive Industrien heute vor einer großen Herausforderung. Sie müssen auf den globalisierten Märkten wettbewerbsfähig bleiben und gleichzeitig Maßnahmen zur drastischen Reduzierung ihrer Kohlenstoffemissionen ergreifen. In diesem Szenario des Übergangs spielt die Kohlenstoffabscheidung, -nutzung und -speicherung eine Schlüsselrolle , und es werden Technologien mit unterschiedlichem Reifegrad und unterschiedlicher Leistung erforscht. Die Umwandlung von Kohlenstoffdioxid in hochwertige erneuerbare Energieträger mit regenerativen Energien ist eine vielversprechende Strategie, um den anthropogenen Kohlenstoffkreislauf zu schließen, um auf diese Weise die Einsparziele bei Treibhausgasen und Energiebedarf zu erfüllen. Es gibt zwar bereits verschiedene Umwandlungsverfahren, aber die meisten sind noch sehr material- und energieaufwändig, kostspielig und ineffizient.

Im EU-Projekt CAPTUS werden hierzu neue innovative Lösungen erarbeitet. CAPTUS wird nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien aufzeigen, indem industrielle Kohlenstoffemissionen aufgewertet und Stromüberschüsse aus erneuerbaren Energien integriert werden. Es werden drei vollständige Wertschöpfungsketten für erneuerbaren Energieträgern an drei verschiedenen Demonstrationsstandorten demonstriert.
1. Aus Abgasen eines Stahlwerks werden durch eine zweistufige Fermentation mikrobiologisch Triglyceride hergestellt.
2. Zur Herstellung von Bio-Ölen in einer Chemieanlage werden Lipid-produzierende Mikroalgen kultiviert und dann gefolgt von hydrothermal verflüssigt.
3. Auf der Basis einer elektrochemischen Reduktion von CO2 aus Zementwerkabgasen wird Ameisensäure erzeugt.

Die vorgeschlagenen Technologien werden vom Labor- bis zum Pilotmaßstab geprüft, und die gewonnenen erneuerbaren Energieträger werden durch Qualitätsbewertungen und Veredelungsstudien für die Herstellung von Hochleistungskraftstoffen validiert. Darüber hinaus wird CAPTUS die Integration der validierten Lösungen für energieintensive Industrien hinsichtlich wirtschaftlicher, ökologischer, gesellschaftlicher, regulatorischer und geopolitischer Kriterien analysieren. Ebenso werden Richtlinien und Strategien für einen Dekarbonisierungsplan entwickelt, das Bewusstsein und die Akzeptanz von Kohlenstoffbindungs und -speicherungstechnologien wird erhöht und die gewonnenen erneuerbaren Energieträger werden verbessert. Schließlich geht es auch darum, geeignete Geschäftsmodelle und Replikationsmöglichkeiten zu schaffen.

Als Projektpartner unterstützt das Steinbeis Europa Zentrum das internationale Konsortium aus 17 Partnern beim Austausch und bei der Verbreitung der Projektaktivitäten und Ergebnisse, um so die gewonnenen Erkenntnisse effektiv an Zielgruppen der Industrie und Öffentlichkeit zu vermitteln. Daneben ist das Steinbeis Europa Zentrum auch für die Netzwerkaktivitäten mit anderen EU-geförderten Projekten und Initiativen im gleichen Themenbereich verantwortlich.

Das Innovationsprojekt CAPTUS wird von der EU im Rahmen des Forschungs- und Innovationsprogramm Horizon Europe mit 10 Millionen Euro finanziert. Das Konsortium besteht aus 18 Partnern aus 8 Ländern, die multidisziplinäre Kompetenzen und Ressourcen aus Wissenschaft, Forschung, Technik, Industrie und Universitäten vereinen:
1. Fundación circe centro de investigación de recursos y consumos energéticos (Koordinator) – Spanien
2. Sintef AS – Norwegen
3. Universidad de Cantabria – Spanien
4. Agencia estatal consejo superior de investigaciones cinefíficas – Spanien
5. Universita degli studi di Genova – Italien
6. Steinbeis Europa Zentrum/ Steinbeis Innovation gGmbH – Deutschland
7. Ethniko kentro erevnas kai technologikis anaptyxis – Greece
8. Bio base europe pilot plant VZW – Belgien
9. Novis GmbH – Deutschland
10. Apria systems SL – Spanien
11. Draxis environmental SA – Griechenland
12. A4f algafuel SA – Portugal
13. Goodfuel BV – Niederlande
14. Rina consulting SPA – Italien
15. Arcelormittal Belgium NV- Belgien
16. Hychem, química sustentável SA – Portugal
17. Cementos portland valderrivas SA – Spanien
18. Energy efficiency in industrial processes asbl – Belgien

Das Projekt mit einer Dauer von 48 Monaten (Juni 2023- Mai 2027) und einem Gesamtbudget von 10 Millionen Euro, feierte das Auftakttreffen am 15. und 16. Juni 2023 in Zaragoza, Spanien.

Kontakt:
Für zusätzliche Informationen wenden Sie sich bitte an den Projektkoordinator bei der Fundación CIRCE Centro de Investigación de Recursos y Consumos Energéticons (CIRCE)
Álvaro Pecharromán Ruiz, e-mail: apecharroman@fcirce.es
Monique Bernardes Figueirêdo, e-mail: mbernardes@fcirce.es

Kontakt am Steinbeis Europa Zentrum
Dr. Frederick von Netzer, eMail: frederick.vonnetzer@steinbeis-europa.de

Wissenschaftliche Ansprechpartner:
Fundación CIRCE Centro de Investigación de Recursos y Consumos Energéticons (CIRCE)
Álvaro Pecharromán Ruiz, e-mail: apecharroman@fcirce.es
Monique Bernardes Figueirêdo, e-mail: mbernardes@fcirce.es

(nach oben)


Nach anfänglicher Erholung: Artenvielfalt in europäischen Flüssen stagniert

Judith Jördens Senckenberg Pressestelle
Senckenberg Gesellschaft für Naturforschung
Langzeitstudie zeigt, dass der Aufschwung der europäischen Süßwasser-Biodiversität seit den 2010er Jahren ins Stocken geraten ist.
Senckenberg-Forschende haben gemeinsam mit einem großen internationalen Team anhand wirbelloser Tiere den Zustand und die Entwicklung der Biodiversität in europäischen Binnengewässern im renommierten Fachjournal „Nature“ vorgestellt. In ihrer heute erschienenen Studie zeigen sie, dass die biologische Vielfalt in Flusssystemen aus 22 europäischen Ländern über einen Zeitraum von 1968 bis 2020 deutlich angestiegen ist. Das Wissenschaftler*innen-Team warnt jedoch, dass dieser positive Trend seit 2010 stagniert und fordern daher zusätzliche Maßnahmen.

Auch wenn Eintags-, Stein-, und Köcherfliegen zu den Fluginsekten zählen – den Großteil ihres Lebens verbringen sie als Larve im Wasser. „Diese und viele weitere wirbellose Tiere tragen zu wichtigen Ökosystemprozessen in Süßgewässern bei. Sie zersetzen organische Stoffe, filtern Wasser und transportieren Nährstoffe zwischen aquatischen und terrestrischen Bereichen. Darüber hinaus sind solche Invertebraten seit langem ein Eckpfeiler zur Überwachung der Wasserqualität“, erläutert Erstautor der Studie Prof. Dr. Peter Haase vom Senckenberg Forschungsinstitut und Naturmuseum Frankfurt und fährt fort: „Solch eine Kontrolle ist immens wichtig, denn Flüsse und Seen sind großen anthropogenen Belastungen ausgesetzt und gehören zu den am stärksten vom Verlust der biologischen Vielfalt bedrohten Ökosystemen.“

Binnengewässer sind durch die landwirtschaftliche und städtische Flächennutzung verschiedenen anthropogenen Belastungen ausgesetzt. Sie akkumulieren Schadstoffe, organisch belastete Abwässer, Feinsedimente und Pestizide und sind darüber hinaus durch Veränderungen, wie beispielsweise Dämme, Wasserentnahme, invasive Arten und den Klimawandel bedroht. „Als Reaktion auf den schlechten Zustand der Gewässer in den 1950er und 1960er Jahren wurden zur Wiederherstellung von Süßwasserlebensräumen beispielsweise mit dem ‚US Clean Water Act‘ von 1972 und der EU-Wasserrahmenrichtlinie von 2000 wichtige Gegenmaßnahmen ergriffen“, erklärt Senior-Autorin Dr. Ellen A.R. Welti, vormals Senckenberg-Wissenschaftlerin und nun Forschungsökologin in den USA am Smithsonian’s Conservation Ecology Center und spricht weiter: „Diese Maßnahmen führten zu einem deutlichen Rückgang der organischen Verschmutzung und der Versauerung ab etwa 1980. In den letzten 50 Jahren haben diese Schritte zur Eindämmung der Abwasserbelastung und so zu den aufgezeigten Verbesserungen der biologischen Vielfalt im Süßwasser beigetragen. Dennoch nehmen die Anzahl und die Auswirkungen der Stressfaktoren, welche diese Ökosysteme bedrohen, weltweit weiter zu, und die biologische Qualität der Flüsse ist nach wie vor vielerorts unzureichend.“

Gemeinsam mit einem großen internationalen Team haben Haase und Letztautorin Welti einen umfassenden Datensatz von 1.816 Zeitreihen analysiert, die zwischen 1968 und 2020 in Flusssystemen in 22 europäischen Ländern gesammelt wurden und 714.698 Beobachtungen von 2.648 Arten aus 26.668 Proben umfassen. Die Auswertungen zeigen, dass sowohl die Artenvielfalt mit 0,73 Prozent pro Jahr als auch die funktionelle Diversität mit jährlichen 2,4 Prozent und die Häufigkeit der Arten mit 1,17 Prozent im Jahr über den Zeitraum der 53 Jahre deutlich angestiegen ist. „Diese Zuwächse traten jedoch hauptsächlich vor 2010 auf und haben sich seitdem leider auf einem mehr oder weniger gleichbleibenden Niveau eingependelt. Während die Zunahme der biologischen Vielfalt in den 1990er und 2000er Jahren wahrscheinlich die Wirksamkeit von Wasserqualitäts- verbesserungen und Renaturierungsprojekten widerspiegelt, deutet die sich anschließende stagnierende Entwicklung auf eine Erschöpfung der bisherigen Maßnahmen hin“, ergänzt Haase.

Laut den Studienergebnissen erholten sich Süßwassergemeinschaften flussabwärts von Staudämmen, städtischen Gebieten und Ackerland weniger schnell. Die Fauna an Standorten mit schnellerer Erwärmung verzeichneten zudem geringere Zuwächse in der Artenvielfalt, der Häufigkeit der Individuen und der funktionellen Diversität. Welti fügt hinzu: „Basierend auf einem Teildatensatz – 1299 von 1816 – konnten wir zeigen, dass rund 70 Prozent der Flussabschnitte nicht-heimische Arten aufweisen mit einem durchschnittlichen Anteil von 4,9 Prozent der Arten und 8,9 Prozent der Individuen. Es ist außerdem zu beobachten, dass sich die eingewanderten Tiere in städtischen Gebieten und stärker belasteten Lokalitäten besser zurechtfinden als die heimische Fauna. Dies könnte zu einem Verlust seltener und empfindlicher einheimischer Arten führen“.

Erhebliche Investitionen seien erforderlich, um die Abwassernetze auszubauen und die Kläranlagen zu verbessern. Das Überlaufen von Kläranlagen bei Starkregen könnte verhindert und Mikroverunreinigungen, Nährstoffe, Salze sowie andere Schadstoffe wirksamer entfernt werden, so die Autor*innen. Darüber hinaus plädiert das Forschungsteam für weitere Maßnahmen, insbesondere die Reduktion von Einträgen von Dünge- und Pflanzenschutzmitteln aus landwirtschaftlichen Flächen, die Anbindung von Überschwemmungsgebieten zur Reduktion zerstörerischer Überschwemmungen sowie zur Anpassung unserer Flusssysteme an künftige klimatische und hydrologische Bedingungen.

„Künftig sollte zudem die Überwachung der biologischen Vielfalt in Verbindung mit der parallelen Erhebung von Umweltdaten erfolgen. Nur so können wir die zeitlichen Veränderungen innerhalb der Artenvielfalt wirksam beschreiben, umweltbedingte Faktoren und stark gefährdete Gebiete ermitteln und den Schutz der biologischen Vielfalt maximieren!“, schließt Haase.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Haase
Senckenberg Forschungsinstitut und Naturmuseum Frankfurt
Tel. 06051 61954-3114
peter.haase@senckenberg.de

Originalpublikation:
Haase, P., D.E. Bowler, N.J. Baker, …, E.A.R. Welti (2023) The recovery of European freshwater biodiversity has come to a halt. Nature 620 (Issue 7974)
https://www.nature.com/articles/s41586-023-06400-1
DOI: 10.1038/s41586-023-06400-1

(nach oben)


Wann digitaler Stress auch positiv sein kann

Michael Hallermayer Stabsstelle Kommunikation und Marketing
Universität Augsburg
Stress durch Apps, E-Mails, ständige Benachrichtigungen – die Universitäten Augsburg, Bamberg, Erlangen-Nürnberg, München (LMU) und Würzburg haben in einem gemeinsamen Forschungsverbund vier Jahre lang zum gesunden Umgang mit digitalen Technologien und Medien geforscht. ForDigitHealth präsentiert seine Ergebnisse sowohl in wissenschaftlichen Publikationen wie auch einem verständlichen Online-Wegweiser für die Öffentlichkeit.

Digitale Technologien und Medien sind tief in unseren Alltag integriert. Sie halten uns in Verbindung, sind die Voraussetzung für Arbeitsprozesse, ermöglichen schnelle Abstimmungen, Inspiration, Unterhaltung, Lernen, Unterstützung und vieles mehr. Gleichzeitig entsteht dadurch digitaler Stress, den wir nicht immer gut handhaben können und der zu negativen gesundheitlichen Folgen führen kann.

Bayerns Wissenschaftsminister Markus Blume betont: „Interdisziplinär, hochaktuell und mit Mehrwert für uns alle: Der Ansatz des Forschungsverbunds ForDigitHealth war und ist mustergültig. Digitale Technologien und Medien bestimmen unseren Alltag – die Auswirkungen müssen fundiert untersucht werden, deshalb haben wir den Forschungsverbund mit insgesamt rd. 3,4 Millionen Euro gefördert. Die Ergebnisse geben uns nun wichtige Hinweise, wie wir – jeder einzelne und als Gesellschaft – mit dem Phänomen ‚Digitaler Stress‘ umgehen können. Ganz besonders freut mich, dass die Ergebnisse auch in einem Online-Wegweiser für alle zugänglich gemacht werden.“

Verschiedene Facetten erforscht
Vier Jahre lang hat der Bayerische Forschungsverbund ForDigitHealth zum gesunden Umgang mit digitalen Technologien und Medien geforscht und herausgefunden: Es kommt auf die Einstellung zum Stress an. Wenn er durch ein Individuum als Herausforderung statt als Belastung eingestuft wird, kann sich der Stress auch positiv auf eine bessere Leistung und Wohlbefinden auswirken. Hierfür müssen aber die Bedingungen stimmen: eine ausgebildete Medienkompetenz oder die Unterstützung durch Kolleginnen und Kollegen bzw. eines IT-Helpdesks, das Hilfesuchende zur Problemlösung befähigt und nicht nur das Problem selbst löst. In einer solchen Situation wird der Körper kurzfristig in Alarmbereitschaft versetzt, um die Situation bewältigen zu können. Langfristig kann dieser Stress aber auch mit Erkrankungen wie z. B. Herz-Kreislauf-Erkrankungen und Depression in Verbindung gebracht werden. Grund dafür sind langanhaltende Entzündungsprozesse, die der Körper im Rahmen der Stressreaktion durchläuft, wenn der Mensch über einen langen Zeitraum Stress ausgesetzt ist. So die Aussagen der beteiligten Wissenschaftler Dr. Manfred Schoch und Prof. Dr. Nicolas Rohleder (Co-Sprecher, Friedrich-Alexander-Universität Erlangen-Nürnberg). „Wiederholte Stresssituationen über den Arbeitstag hinweg können langfristig chronischen Stress auslösen, der krank macht. Insbesondere die Menge der digitalen Arbeit ist Treiber von chronischem digitalem Stress am Arbeitsplatz.“

ForDigitHealth hat auch erforscht, wie digitale Technologien mithilfe nutzerzentrierter Designprozesse gestaltet werden müssen, um digitalen Stress zu verringern. Die Informatik ging neue Wege und entwickelte z.B. Technologie für die Arbeit im Gehen, da sich Bewegung zum Stressabbau sehr gut eignet. Auch wurde bearbeitet, wie man mithilfe von Apps digitalen Stress besser bewältigen kann und erste Prototypen vorgestellt.

Prof. Dr. Elisabeth André (Universität Augsburg) als Co-Sprecherin des Verbunds, unterstreicht: „Wir haben Ernst gemacht mit dem Anspruch unseres Geldgebers, wirklich interdisziplinär zu arbeiten, also Methoden, Theorien, Perspektiven aus den fünf vertretenen Fachdisziplinen zu integrieren und neue Erkenntnisse zu erreichen. Neben dem Anspruch an Interdisziplinarität hatten wir den Auftrag, uns in den gesellschaftlichen Diskurs zum Thema digitaler Stress einzubringen.“

Online-Wegweiser gibt Tipps
Der Bayerische Forschungsverbund hat mögliche Lösungsansätze im Umgang mit digitalem Stress aufbereitet. In „Digitaler Stress: Der Wegweiser“ wurden Informationen und Hinweise zu Ursachen, Folgen und Wirkweisen für die Öffentlichkeit auf der Webseite des Verbunds festgehalten. Auch die zugrundeliegenden Publikationen können im Wegweiser leicht nachgelesen werden. Der Verbund ist mit ausgewiesenen Expertinnen und Experten aus den fünf Fachdisziplinen Medizin, Psychologie, Informatik, Wirtschaftsinformatik und Kommunikationswissenschaft besetzt. Im Rahmen von fünf übergeordneten Querschnittsthemen und in insgesamt elf Teilprojekten wurde das Thema digitaler Stress beforscht.

In ForDigitHealth arbeiten Wissenschaftlerinnen und Wissenschaftler von fünf bayerischen Universitäten zusammen (Universität Augsburg, Otto-Friedrich-Universität Bamberg, Friedrich-Alexander-Universität Erlangen-Nürnberg, Ludwig-Maximilians-Universität München und Julius-Maximilians-Universität Würzburg). Der Verbund wird durch das Bayerische Staatsministerium für Wissenschaft und Kunst mit rund 3,4. Mio. Euro über vier Jahre gefördert.

Die Teilprojekte im Überblick
Prof. Dr. Henner Gimpel, Wirtschaftsinformatiker an der Universität Augsburg und der Universität Hohenheim, befasste sich in zwei Teilprojekten einerseits mit der Bewältigung von digitalem Stress am Arbeitsplatz und der Frage, ob der Stress neben bekannten negativen Folgen auch positive Auswirkungen haben kann. Zum anderen wurde untersucht, wie man appgestützt den Umgang mit digitalem Stress unterstützen kann.

Prof. Dr. Jeffrey Wimmer, Kommunikationswissenschaftler an der Universität Augsburg, stellte sich die Frage, in welcher Form Menschen digitalen Stress in der Freizeit wahrnehmen, wie sie damit umgehen und welche Rolle ihr soziales Umfeld dabei spielt.

Prof. Dr. Susanne Kinnebrock, Kommunikationswissenschaftlerin an der Universität Augsburg, hat sich mit der Frage befasst, wie digitaler Stress in den Medien (u.a. in Online-Foren) dargestellt wird und welche Umfelder, Ursachen und Symptome dort thematisiert werden.

Prof. Dr. Nicolas Rohleder, Gesundheitspsychologe an der Friedrich-Alexander-Universität Erlangen-Nürnberg, hat sich mit dem Zusammenhang zwischen psychologischen und biologischen Stressreaktionen befasst.

Prof. Dr. Dennis Nowak und Prof. Dr. Matthias Weigl, Arbeitsmediziner der Ludwig-Maximilians-Universität München und Medizinpsychologe am Universitätsklinikum Bonn, haben sich mit der Frage befasst, wie sich kurz- und mittelfristige Stressreaktionen, die durch digitale Technologien und Medien im Umfeld des Arbeitsplatzes ausgelöst werden, langfristig auswirken.

Prof. Dr. Gerhild Nieding und Dr. Wienke Wannagat, Entwicklungspsychologinnen an der Julius-Maximilians-Universität Würzburg, befassten sich mit digitalem Stress bei Jugendlichen sowie jungen und älteren Erwachsenen und der Frage, wie eine digitale Medienkompetenz aussehen und konkret umgesetzt werden kann.

Prof. Dr. Tim Weitzel und Prof. Dr. Christian Maier, Wirtschaftsinformatiker von der Otto-Friedrich-Universität Bamberg und der Ludwig-Maximilians-Universität München, haben sich gefragt, ob digitaler Stress „ansteckend“ ist und sich auf andere Personen übertragen kann, z.B. in Teams am Arbeitsplatz.

Prof. Dr. Elisabeth André, Informatikerin an der Universität Augsburg, befasste sich mit der Frage, ob künstliche Intelligenz Anzeichen von digitalem Stress erkennen kann und wie Nutzer:innen in den Lern- und Entfaltungsprozess der KI eingebunden werden können.

Prof. Dr. Albrecht Schmidt, Informatiker an der Ludwig-Maximilians-Universität München, hat sich mit der Frage befasst, wie eine menschzentrierte Gestaltung von digitalen Technologien zu einer gesundheitsförderlichen Wirkung führen kann.

Prof. Dr. Matthias Berking, Klinischer Psychologe, Prof. Dr. Björn Eskofier, Informatiker (beide an der Friedrich-Alexander-Universität Erlangen-Nürnberg) sowie Prof. Dr.-Ing. habil. Björn Schuller, Informatiker an der Universität Augsburg haben erforscht, wie Apps so optimiert werden können, dass sie die psychische Gesundheit stärken.

Wissenschaftliche Ansprechpartner:
Sabine Toussant
Geschäftsführerin Forschungsverbund ForDigithHealth
E-Mail: sabine.toussaint@mrm.uni-augsburg.de
Telefon: +49 151 10812081

Prof. Dr. Elisabeth Andé
Co-Sprecherin Forschungsverbund ForDigithHealth
E-Mail: elisabeth.andre@informatik.uni-augsburg.de
Telefon: +49 821-2341 (Sekretariat)

Weitere Informationen:
https://gesund-digital-leben.de/wegweiser Online-Wegweiser: Digitaler Stress
https://gesund-digital-leben.de Webseite des Forschungsverbunds ForDigitHealth

(nach oben)


Wasserreinigung mit Biotechnologie: Forschende finden neuen Ansatz durch Kombination von Pilzen und Bakterien

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Stickstoff, vor allem in Form von anorganischem Nitrit und Nitrat, ist eine der größten stofflichen Belastungen in Süßgewässern und menschlichen Abwässern. Forscherinnen und Forscher des chinesischen Ministeriums für Natürliche Ressourcen in Xiamen und des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) haben eine natürliche Pilz-Bakterien-Kombination identifiziert, die Nitrat besonders effizient und konstant verstoffwechselt. Dies könnte für die Weiterentwicklung der Biotechnologie in der Wasseraufbereitung entscheidend sein und ist ein weiterer Beleg für die wichtige Rolle von Pilzen in aquatischen Ökosystemen.

Stickstoff, vor allem in Form von anorganischem Nitrit und Nitrat, ist eine der größten stofflichen Belastungen in Süßgewässern und menschlichen Abwässern. Forscherinnen und Forscher des chinesischen Ministeriums für Natürliche Ressourcen in Xiamen und des IGB haben eine natürliche Pilz-Bakterien-Kombination identifiziert, die Nitrat besonders effizient und konstant verstoffwechselt. Dies könnte für die Weiterentwicklung der Biotechnologie in der Wasseraufbereitung entscheidend sein und ist ein weiterer Beleg für die wichtige Rolle von Pilzen in aquatischen Ökosystemen.

Die biologische Stickstoffentfernung, die Denitrifikation, ist ein wichtiger biochemischer Prozess. Dabei wandeln Mikroorganismen zwei der wichtigsten Stickstoffverbindungen, Nitrat und Nitrit, in gasförmigen Stickstoff um. Dies geschieht in Gewässern auf natürliche Weise durch Stoffwechselprozesse der dort lebenden Organismen und wird als Selbstreinigungskraft bezeichnet. Dieses Prinzip macht man sich auch bei der Wasseraufbereitung zunutze. Bisher wurden verschiedene Bakterien und Pilze in Reinkultur identifiziert, die Stickstoff mit und ohne Sauerstoff abbauen können. Für die Wasseraufbereitung ist vor allem der Stickstoffabbau in Gegenwart von Sauerstoff relevant, da er kostengünstiger und zudem großtechnisch umsetzbar ist.

Pilz-Bakterien-Kombinationen bislang vor allem zur Fermentation von Lebensmitteln und Getränken eingesetzt:
Die Isolierung einzelner Bakterien- oder Pilzstämme ist aufwändig und teuer. Kombinationen aus beiden, so genannte mikrobielle Konsortien, gelten als vielversprechende Alternative zu reinen Stämmen, sind aber auf dem Gebiet der Denitrifikation in Gegenwart von Sauerstoff noch wenig erforscht. Die Forschenden nahmen dies zum Anlass, dieses Potenzial zu untersuchen, da mikrobielle Konsortien beispielsweise bei der Fermentation von Lebensmitteln und Getränken schon lange eingesetzt werden. Gerade Pilze haben den Vorteil, dass sie sehr robust gegenüber Umweltstressoren wie saurem pH-Wert und hohen Temperaturen sind.

Nahezu vollständige Nitratentfernung möglich:
Das Forschungsteam identifizierte ein natürliches Bakterien-Pilz-Konsortium aus Marikulturen, das Nitrat sehr effizient und konstant aus dem Wasser entfernt. In Gegenwart von Sauerstoff beträgt die Nitratentfernung bis zu 100 Prozent und die Denitrifikationseffizienz 44 Prozent. Die Denitrifikationseffizienz gibt an, wie gut Mikroorganismen in der Lage sind, den im Nitrat gebundenen Stickstoff in molekularen Stickstoff (N₂) und Stickoxide umzuwandeln.

Mittels Hochdurchsatzsequenzierung wurden die an diesem Prozess beteiligten Bakterien- und Pilzgattungen identifiziert. Eine anschließende Netzwerkanalyse zeigte, welche Arten positiv miteinander interagieren und sich daher besonders für eine Kombination eignen.
„Es ist uns gelungen, denitrifizierende Bakterien-Pilz-Gruppen zu identifizieren, die das Potenzial haben, Nitrat besonders gut aus dem Wasser zu entfernen. Das ist ein wichtiger Schritt, um mikrobielle Konsortien für eine optimale Wasseraufbereitung zusammenzustellen“, erklärt IGB-Forscher Professor Hans-Peter Grossart, Mitautor der Studie.

Da die Suche nach geeigneten Mikroorganismen-Gemeinschaften aus Bakterien und Pilzen noch ein sehr junges Forschungsgebiet ist, gibt es noch keine Anwendungen in der Praxis. Die Autor*innen sind sich aber sicher, dass diese in Zukunft die Biotechnologie in der Abwasseraufbereitung deutlich prägen werden.

Originalpublikation:
Zuo, Xiaotian et al., Aerobic denitrifying bacterial-fungal consortium mediating nitrate removal: Dynamics, network patterns and interactions, iScience, Volume 26, Issue 6, 106824, DOI:https://doi.org/10.1016/j.isci.2023.106824

Weitere Informationen:
https://www.igb-berlin.de/news/wasserreinigung-mit-biotechnologie

(nach oben)


Niedrige Wasserstände lösen Sondermessprogramm an der Elbe aus

Martin Labadz Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Seit mehreren Wochen herrscht an der Elbe Niedrigwasser. Gestern startete daher das Messprogramm für hydrologische Extreme der Flussgebietsgemeinschaft (FGG) Elbe. Die BfG koordiniert gemeinsam mit den Behörden der Anrainerländer Sachsen, Sachsen-Anhalt, Niedersachsen und Brandenburg das Sondermessprogramm, das die Auswirkungen des Niedrigwassers auf die Wasserqualität untersucht.

Ergänzend zu den monatlichen Routinemessungen werden an ausgewählten Messstellen entlang der Elbe sowie der unteren Mulde, Saale und Havel im nun kürzeren 14-tägigem Abstand Wasserproben genommen. Das innerhalb der FGG Elbe etablierte Messprogramm startete bereits 2013. Im Labor werden in den Messproben dann wichtige Kenngrößen wie zum Beispiel Nährstoffkonzentrationen, aber auch Schadstoffe und Spurenstoffe bestimmt. „Das heute gestartete Messprogramm ist speziell auf die Niedrigwassersituation abgestimmt. Die kürzere Messperiode ermöglicht uns einen detaillierteren Blick auf die Wasserqualität und wie sich Hitze und Dürre auf diese auswirken“, erklärt Geoökologe Dr. Daniel Schwandt.

Auslöser waren die niedrigen Wasserstände an den Bezugspegeln in Schöna und Barby im Ober- bzw. Mittellauf der Elbe. „Diese liegen seit mehr als zwei Wochen unterhalb eines festgelegten Schwellenwerts. Da außerdem für die nächsten Tage im Elbegebiet kein langanhaltender Niederschlag vorhergesagt war, haben wir unsere Länderkollegen/-innen informiert. Diese lösten dann das Sondermessprogramm aus“, so Schwandt. Laut dem BfG-Wissenschaftler war dies im Sommer 2019 das letzte Mal der Fall.

Steigt der Wasserstand für längere Zeit wieder über den Schwellenwert, wird das Programm beendet und die Auswertung der Daten beginnt. Dies übernimmt die BfG in Abstimmung mit der FGG Elbe. Die Ergebnisse der Laboruntersuchungen aller Messstellen werden zeitnah auf der Informationsplattform Undine (https://undine.bafg.de/elbe/extremereignisse/elbe_mp_extremereignisse.html) veröffentlicht. Dort sind neben Hintergrundinformationen zum Messprogramm auch Messwerte zu vorhergehenden extremen Hoch- und Niedrigwasserereignissen an der Elbe und die dazugehörigen Berichte veröffentlicht.

Bei Undine stehen unter der Überschrift „Extremereignisse“ auch Steckbriefe zu einzelnen herausragenden Hoch- und Niedrigwasserereignissen an der Elbe im Laufe der Historie zum Download bereit. Insbesondere finden sich hier Kurzbeschreibungen der extremen Niedrigwasser der Jahre 1921, 2015 und 2018.

Wissenschaftliche Ansprechpartner:
Dr. Daniel Schwandt, +49 261 1306 5479
Dr. Gerd Hübner, +49 261 1306 2010

(nach oben)


Forschungsvorhaben heavyRAIN verbessert Regenmessung für Starkregenvorhersage in Lübeck

Johanna Helbing Kommunikation/ Pressestelle
Technische Hochschule Lübeck
Wann und wo wird Starkregen auftreten? Wie können Bürger*innen und Einsatzkräfte vor einem nahenden Ereignis gewarnt werden? Das sind die Fragen, die die hydro & meteo GmbH in Kooperation mit den Stadtwerken Lübeck, der Hansestadt Lübeck und der Technischen Hochschule (TH) Lübeck im Rahmen des Projektes „heavyRAIN“ in Lübeck beantworten möchte.

Der Schutz vor Starkregen ist eine der zentralen Herausforderungen der Klimafolgenanpassung. Im Starkregenfall zählt jede Minute, um kurzfristige Maßnahmen zur Verminderung von Schäden zu ergreifen und sich in Sicherheit zu begeben. Eine schnellere und präzisere Vorwarnung hilft den Einsatzkräften proaktiv zu handeln.

Das Forschungsvorhaben „heavyRAIN“ erhält von September 2022 bis August 2025 im Rahmen der Innovationsinitiative mFUND eine Förderung durch das Bundesministerium für Digitales und Verkehr (BMDV). Ziel ist es, ein verbessertes Frühwarnsystem für Starkregen zu entwickeln. In den kommenden drei Jahren werden in vier deutschen Städten (Bochum, Hagen, Lüdenscheid und Lübeck) eigene Niederschlagsmessungen durchgeführt. Hiermit und mit weiteren Wetterdaten wird die Vorhersagemethodik verbessert.

Initiiert und durchgeführt wird das Projekt von der Okeanos Smart Data Solutions GmbH aus Bochum, der hydro & meteo GmbH aus Lübeck, dem Bochumer Institut für Technologie gGmbH und dem Landesamt für Natur, Umwelt und Verbraucherschutz NRW. Unterstützt werden sie von den Städten Bochum, Hagen, Lübeck und Lüdenscheid, die gleichzeitig als Orte der Feldstudien fungieren, sowie vom Deutschen Wetterdienst, der Emschergenossenschaft & Lippeverband, den Stadtwerken Bochum Netze, dem Wetternetz Hagen, den Stadtwerken Lüdenscheid & Herscheid, den Stadtwerken Lübeck Digital (bis vor kurzem „Travekom“), den Wirtschaftsbetrieben Hagen sowie der Technischen Hochschule Lübeck.

Das hydrometeorologische Ingenieurbüro hydro & meteo GmbH, ein seit vielen Jahren mit Niederschlagsdaten und -warnsystemen vertrautes Unternehmen, ist der Projektpartner in Lübeck. In Zusammenarbeit mit der Abteilung für Straßenbeleuchtung der Hansestadt Lübeck werden 50 neu entwickelte, kompakte IoT-Niederschlagssensoren an Straßenlaternen im ganzen Stadtgebiet installiert. Die Niederschlagssensoren von der Firma NIVUS arbeiten mit Infrarotlicht und bieten eine Regenmessung in Echtzeit, die über das LoRaWAN-Netz der Stadtwerke Lübeck gesammelt wird. Die Messungen werden später über das Internetportal der „Smart City Region Lübeck“ (geoportal.smart-hl.city) abrufbar sein. Diese Daten werden anschließend von leistungsstarken Vorhersage-Algorithmen analysiert, um eine genaue Einschätzung der Niederschlagslage zu liefern.

Marius Kämmel studiert Umweltingenieurwesen und -management an der TH Lübeck. Im Rahmen der Lehre am Fachbereich Angewandte Naturwissenschaften erfuhr der 24-Jährige vom Projekt HeavyRAIN: „Ich war direkt davon begeistert und arbeite nun als wissenschaftlicher Mitarbeiter im Projekt mit.“ Um ein besseres Verständnis für die Funktionsweise sowie –fähigkeit der Geräte zu bekommen habe Kämmel zunächst einzelne Sensoren im Labor für Umweltverfahrenstechnik getestet. Dafür konzipierte und nutzte er einen eigenen Versuchsaufbau. „Mittlerweile installiere ich die Sensoren gemeinsam mit meinem Kollegen Bruno Castro von der hydro & meteo GmbH in sämtlichen Lübecker Stadtteilen. Diese praktische Arbeit bringt sehr viel Spaß. Es macht mich auch stolz die Sensoren an ihrem finalen Standort zu sehen.“

Das Projekt heavyRAIN wird im Rahmen der Innovationsinitiative mFUND (www.mFUND.de) durch das Bundesministerium für Digitales und Verkehr gefördert.

Wissenschaftliche Ansprechpartner:
Dr. Annika Jahnke-Bornemann
hydro & meteo GmbH
Email: a.jahnke-bornemann@hydrometeo.de

(nach oben)


Unsichtbaren Partikeln auf der Spur

Stefanie Reiffert Corporate Communications Center
Technische Universität München
Wie hoch ist die Konzentration von Mikroplastik in der Umwelt, im Trinkwasser oder in Nahrungsmitteln? Forschende der Technischen Universität München (TUM) haben jetzt eine automatisierte Analysemethode entwickelt, mit der sich die Partikel identifizieren und quantifizieren lassen.

Mikroplastik ist in der Umwelt allgegenwärtig. Die winzigen Teilchen mit einer Größe von unter fünf Millimetern können außerdem Schad- und Giftstoffe aufnehmen und transportieren. „Wir benötigen dringend Analysemethoden, die Auskunft geben über die Größe, Konzentration und Zusammensetzung der Partikel“, erklärt Dr. Natalia Ivleva vom Lehrstuhl für Analytische Chemie und Wasserchemie der TUM. Zusammen mit ihrem Team hat die Wissenschaftlerin ein neues Verfahren entwickelt.

Um das Mikroplastik zu detektieren, mussten die Forschenden mehrere Hürden überwinden: Das erste Problem ist die geringe Konzentration der Partikel. Flusswasser zum Beispiel enthält jede Menge Schwebstoffe und feinen Sand, nicht einmal ein Prozent der Partikel sind aus Kunststoff. Diese Teilchen gilt es zu isolieren, dann muss deren Konzentration bestimmt werden und schließlich die chemische Zusammensetzung. Bisher wurden hierfür Analysemethoden eingesetzt, bei denen die Proben erhitzt und die Zersetzungsprodukte untersucht wurden. Anzahl, Größe und Form der Plastik-Partikel ließen sich auf diese Weise nicht ermitteln.

Kunststoffe lassen sich durch Lichtstreuung identifizieren
„Unser Ansatz ist grundlegend anders“, betont Ivleva: „Wir arbeiten partikelbasiert, das heißt, wir zerstören die Teilchen nicht, sondern untersuchen sie direkt.“ Dabei nutzen die Forschenden die sogenannte Raman-Mikrospektroskopie, bei der mit Hilfe eines Lasers monochromatisches Licht von den Molekülen einer Probe gestreut wird. Durch Vergleich des gestreuten mit dem eingestrahlten Licht lassen sich Rückschlüsse ziehen auf die untersuchte Substanz.

Um Plastik-Partikel mit mehr als einem Mikrometer Durchmesser auf diese Weise zu analysieren, müssen die Kunststoff-Teilchen aus der wässrigen Lösung herausgefiltert, unter dem Mikroskop detektiert und dann mit Laserlicht beleuchtet werden. Weil Kunststoffe wie Polyethylen, Polystyrol oder Polyvinylchlorid die Photonen auf charakteristische Weise streuen, erzeugen sie jeweils spezifische Signale, die sich wie ein Fingerabdruck zuordnen lassen.

Automatisierung statt manueller Messungen
Die Entwicklung des Nachweisverfahren hat Jahre gedauert: „Als wir angefangen haben, waren manuelle Messungen erforderlich“, erinnert sich die Chemikerin. „Da haben wir Monate gebraucht, um ein paar Tausend Partikel zu untersuchen.“ Mittlerweile ist es dem Team gelungen, den Nachweis von Mikroplastik zu automatisieren. Eine Analyse dauert nicht mehr Wochen, sondern nur noch Stunden. Man muss die winzigen Partikel zwar immer noch aus einer wässrigen Probe herausfiltern und den Filter unter das Raman-Mikrospektroskop legen, doch alles Weitere steuert eine eigens entwickelte Software: Die Kunststoffteilchen werden zunächst lichtmikroskopisch lokalisiert, fotografiert und vermessen, wobei Partikel und Fasern unterschieden werden. Das Computerprogramm berechnet aus diesen Daten die Anzahl von Partikeln und Fasern sowie die Auswahl von Bildausschnitten für die anschließende Raman-Spektroskopie, die für ein statistisch signifikantes Ergebnis benötigt werden.

Im nächsten Schritt fällt Laserlicht auf die Probe, die Streuung wird detektiert und ausgewertet. Anzahl, Größe, Form und Zusammensetzung von Mikroplastik lässt sich auf diese Weise schnell und zuverlässig analysieren. Die Software „TUM-Particle Typer 2“ ist Open Source basiert und kann ab sofort von Forschenden auf der ganzen Welt genutzt werden.

Nanoplastik verlangt besondere Nachweisverfahren
Um auch Partikel untersuchen zu können, die Durchmesser von weniger als einem Mikrometer aufweisen, arbeitet Ivleva‘s Gruppe bereits an einem modifizierten Verfahren. „Solche Nanoteilchen sind unter einem Lichtmikroskop nur schwer oder gar nicht zu detektieren. Um die Partikel nachweisen zu können, müssen wir sie zuerst nach Größe fraktionieren und dann identifizieren“, erklärt die Forscherin.

Hierfür wird ein System für Feldflussfraktionierung verwendet. Dieses erzeugt einen Wasserstrom, der die Partikel erfasst und – abhängig von ihrer Größe – schneller oder langsamer transportiert und auf diese Weise trennt. Eine speziell entwickelte Vorrichtung erlaubt in Kombination mit Raman-Mikrospektroskopie die chemische Charakterisierung von unterschiedlichen Arten von Nanoplastik.

„Die neuen Analyseverfahren ermöglichen eine schnelle und genaue Untersuchung der Konzentration, Größe und Zusammensetzung von Mikro- und Nanoplastik“, resümiert Ivleva. „Damit wird es künftig möglich sein, auch den Einfluss dieser Partikel auf die Umwelt und die menschliche Gesundheit zu erforschen.“

Wissenschaftliche Ansprechpartner:
Dr. Natalia P. Ivleva
Technische Universität München (TUM)
Tel: +49 89 289 54 507
natalia.ivleva@tum.de
https://www.ch.nat.tum.de/hydrochemistry

Originalpublikation:
Oliver Jacob, Alejandro Ramírez-Piñero, Martin Elsner, Natalia P. Ivleva, TUM-ParticleTyper 2: Automated Quantitative Analysis of (Microplastic) Particles and Fibers down to 1 μm by Raman Microspectroscopy, Analytical and Bioanalytical Chemistry

Maximilian J. Huber, Natalia P. Ivleva, Andy M. Booth, Irina Beer, Ivana Bianchi, Roland Drexel, Otmar Geiss, Dora Mehn, Florian Meier, Alicja Molska, Jeremie Parot, Lisbet Sørensen, Gabriele Vella, Adriele Prina Mello, Robert Vogel, Fanny Caputo: Physicochemical Characterization and Quantification of Nanoplastics: Applicability, Limitations and Complementarity of Batch and Fractionation Methods, Analytical and Bioanalytical Chemistry

(nach oben)


Umweltfreundlichere Bekämpfung von Ölkatastrophen mit Biotensiden

Lydia Lehmann Stabsstelle Hochschulkommunikation
Universität Stuttgart
Können Biotenside den mikrobiologischen Ölabbau im Nordsee-Meerwasser steigern? Das hat ein internationales Forschungsteam der Universitäten Stuttgart und Tübingen sowie der China West Normal University und der University of Georgia untersucht – und sieht Potenzial für eine effektivere und umweltfreundlichere Bekämpfung von Ölkatastrophen.

Schätzungsweise 1500 Millionen Liter Öl fließen pro Jahr in die Ozeane. Das führt zu einer Umweltverschmutzung von globaler Bedeutung, da Öl gefährliche Verbindungen wie polyzyklische aromatische Kohlenwasserstoffe enthält, die giftig auf Lebewesen wirken oder deren Erbgut verändern können. Besonders verheerend sind Ölkatastrophen, bei denen in relativ kurzer Zeit große Mengen an Öl in die Meere austreten, etwa Unfälle von Tankern oder an Ölbohrplattformen wie 2010 bei Deepwater Horizon.

In solchen Katastrophenfällen werden routinemäßig, je nach Ölmenge, bis zu mehrere Millionen Liter chemische Dispersionsmittel ausgebracht, um Ölklumpen aufzulösen, Ölanschwemmung an Küsten zu verhindern und die Öldispersion im Wasser zu steigern. Dadurch soll der mikrobielle Ölabbau erhöht werden. Spezielle Mikroorganismen, die weitverbreitet in der Natur vorkommen, können sich nämlich von Rohölbestandteilen ernähren und bauen diese zu harmlosen Stoffen ab. Durch diese besondere Fähigkeit der Mikroben werden ölkontaminierte Gebiete natürlich gereinigt.

„In einer im Jahr 2015 veröffentlichten Studie aus den USA haben wir jedoch gezeigt, dass – anders als erhofft – chemische Dispersionsmittel im Tiefseewasser aus dem Golf von Mexiko den mikrobiellen Ölabbau verlangsamen können“, sagt Professorin Sara Kleindienst, bis Juni 2022 an der Universität Tübingen und jetzt an der Universität Stuttgart. „Seitdem wird das Thema kontrovers diskutiert und es gibt bislang keine einfache Antwort darauf, wie Ölkatastrophen am besten zu bekämpfen wären.“

Auf der Suche nach umweltfreundlicheren Methoden zur Bewältigung von Ölkatastrophen könnten Biotenside eine vielversprechende Alternative zu chemischen Dispersionsmitteln sein. Biotenside werden durch Mikroorganismen gebildet und können bewirken, dass Ölkomponenten leichter für den Abbau zugänglich werden. Der mikrobielle Ölabbau, der maßgeblich für die Aufreinigung verantwortlich ist, kann dadurch gesteigert werden.

Experimente mit Meerwasser aus der Nordsee
Ein internationales Forschungsteam um die Umweltmikrobiologin Professorin Sara Kleindienst mit dem Geomikrobiologen Professor Andreas Kappler (Universität Tübingen) und der Biogeochemikerin Professorin Samantha Joye (University of Georgia) testete die Wirkung von Biotensiden und chemischen Dispersionsmitteln im Vergleich. Im Labor an der Universität Tübingen simulierten die Forschenden eine Ölverschmutzung. Für ihre Experimente entnahmen sie mehr als 100 Liter Oberflächenwasser aus der Nordsee, in der Nähe der Insel Helgoland. Das Meerwasser wurde entweder mit einem Biotensid Rhamnolipid oder einem Dispersionsmittel (entweder Corexit 9500 oder Slickgone NS), jeweils in Anwesenheit und Abwesenheit von Öl, behandelt. Um den Abbau des Öls durch die Mikroorganismen im Detail verfolgen zu können, setzte das Forschungsteam radioaktive Markierungen ein. „Unsere Untersuchungen mit radioaktiv markierten Kohlenwasserstoffen oder einer radioaktiv markierten Aminosäure zeigten, dass die höchsten mikrobiellen Raten der Kohlenwasserstoffoxidation und der Proteinbiosynthese in den mit Rhamnolipid behandelten Öl-Mikrokosmen auftraten“, sagt Professorin Lu Lu, ehemals an der Universität Tübingen und jetzt an der China West Normal University.

Auch die Auswirkungen auf die Zusammensetzung der mikrobiellen Gemeinschaften unterschied sich stark zwischen den Ansätzen mit Biotensiden im Vergleich zu jenen mit chemischen Dispersionsmitteln. „Dieses Ergebnis weist darauf hin, dass der Einsatz von Biotensiden gegenüber chemischen Dispersionsmitteln andere mikrobielle Ölabbauer stimulieren kann, sowohl im Wachstum als auch in den Aktivitäten – und dies kann sich wiederrum auf den Reinigungsprozess nach Ölkatastrophen auswirken“, sagt Lu.

„Unsere Erkenntnisse legen nahe, dass Biotenside ein großes Potenzial für den Einsatz bei zukünftigen Ölkatastrophen in der Nordsee oder in ähnlichen nährstoffreichen Habitaten im Ozean haben könnten“, fügt Kleindienst hinzu. „Eine visionäre Weiterführung unserer Arbeit wäre die Entwicklung von Produkten, die auf Biotensiden basieren und die eine effektive und umweltfreundliche Bekämpfung von Ölkatastrophen leisten können.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sara Kleindienst, Universität Stuttgart, Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft, Abteilung Umweltmikrobiologie, Tel.: +49 711 685 69351, E-Mail sara.kleindienst@iswa.uni-stuttgart.de

Originalpublikation:
Lu Lu, Saskia Rughöft, Daniel Straub, Samantha B. Joye, Andreas Kappler, Sara Kleindienst (2023): Rhamnolipid biosurfactants enhance microbial oil biodegradation in surface seawater from the North Sea. In: ACS Environmental Science & Technology Water, 19. Juli 2023. DOI 10.1021/acsestwater.3c00048

(nach oben)


PFAS-kontaminiertes Wasser wird wieder sauber – erfolgversprechendes und umweltschonendes Verfahren entwickelt

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Vom Menschen gemachte Umweltbelastungen gibt es viele. Zu den gravierendsten gehört die Verschmutzung mit der gesundheitsschädlichen Ewigkeitschemikalie PFAS, die in vielen Böden und Gewässern und damit auch in unserer Nahrung zu finden ist. Sie zu entfernen ist zwar möglich, aber aufwendig und produziert Sondermüll. Nun ist es Forschenden des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB gelungen, ein Verfahren zu entwickeln, mit dem PFAS energieeffizient aus kontaminiertem Wasser entfernt werden könnten. Das Projekt AtWaPlas endete dieser Tage nach zwei Jahren Forschungsarbeit mit konkret anwendbaren Ergebnissen.

Per- und polyfluorierte Alkylverbindungen, kurz PFAS (engl.: per- and polyfluoroalkyl substances) kommen in der Natur eigentlich nicht vor. Industriell hergestellt ist diese Gruppe aus mehr als 10 000 Chemikalien aber in vielen Dingen unseres Alltags zu finden. Ob in Zahnseide, Backpapier, Outdoorkleidung oder Lösch- und Pflanzenschutzmitteln – überall sorgen PFAS dafür, dass die Produkte wasser-, fett- und schmutzabweisend sind. Eigentlich nicht schlecht, aber: Sie sind außerordentlich stabil, können weder durch Licht, Wasser oder Bakterien abgebaut werden und sind mittlerweile alleine in Deutschland an tausenden Orten in Böden, Gewässern und Grundwasser nachzuweisen und damit auch in unserer Nahrung. So reichern sich diese giftigen Ewigkeitschemikalien auch im menschlichen Körper an, mit erheblichen gesundheitlichen Auswirkungen, die von der Schädigung von Organen bis hin zu Krebserkrankungen oder Entwicklungsstörungen reichen.

Möglichkeiten, PFAS wieder aus der Umwelt zu entfernen, gäbe es theoretisch schon. Diese sind aber äußerst aufwendig und teuer. Bei einer Filterung durch Aktivkohle beispielsweise werden PFAS zwar gebunden, aber nicht beseitigt, sodass die Überreste im Sondermüll entsorgt bzw. gelagert werden müssen. Ein gravierendes Umweltproblem, für dessen Lösung die Zeit drängt.

Plasma zerstört die Molekülketten der PFAS-Chemikalien
Deshalb haben es sich im Verbundprojekt AtWaPlas (für: Atmosphären-Wasserplasma-Behandlung) Forschende am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik in Stuttgart gemeinsam mit dem Industriepartner HYDR.O. aus Aachen bereits 2021 zur Aufgabe gemacht, ein effizientes, kostengünstiges Verfahren zu entwickeln, um die toxischen Substanzen möglichst vollständig beseitigen zu können. Dabei lag der Part der Forschungsarbeiten beim IGB, die Wasserproben stammten vom Projektpartner, der unter anderem auf Altlastensanierung spezialisiert ist.

Mit Erfolg: Nach nur zwei Jahren Projektlaufzeit ist es den Forschenden um Dr. Georg Umlauf, Experte für funktionale Oberflächen und Materialien, gelungen, ein Verfahren zu erarbeiten, das auf dem Einsatz von Plasma basiert, und mit dem die Molekülketten der PFAS abgebaut werden können – auch bis zur vollständigen Mineralisierung des Umweltgifts.

Plasma ist ein ionisiertes und damit elektrisch äußerst aktives Gas, das die Forschenden durch Anlegen einer Hochspannung in einem zylinderförmigen, kombinierten Glas-Edelstahlzylinder erzeugen. Anschließend wird das kontaminierte Wasser zur Reinigung durch den Reaktor geleitet. In der Plasmaatmosphäre werden die PFAS-Molekülketten aufgebrochen und damit verkürzt. Der Vorgang in dem geschlossenen Kreislauf wird mehrere Male wiederholt, dabei jedes Mal die Molekülketten um ein weiteres Stück verkürzt, so lange, bis sie vollständig abgebaut sind.

Nach wenigen Stunden im Reaktor sind die Gifte abgebaut
Gestartet wurden die Forschungsarbeiten in einem kleinen Laborreaktor mit einem Probenvolumen von einem halben Liter. »Diesen konnten wir relativ schnell durch einen 5-Liter-Pilotreaktor ersetzen und im größeren Maßstab experimentieren«, berichtet Umlauf. »Der nächste Schritt wäre nun ein noch größerer Wassertank − sicher auch machbar. «

Das Wasser, das die Forschenden für ihre Tests verwendeten, war kein Leitungswasser mit zugesetzten PFAS, sondern »echtes Wasser« – sogenannte Realproben: »Das Wasser stammt aus PFAS-kontaminierten Gebieten und ist eine wilde Mischung aus verschiedensten Partikeln wie Schwebstoffen und organischen Trübungen«, sagt Umlauf. »Für den Reinigungsvorgang kein Problem, wie unsere Versuche ergaben: Bereits nach zwei Stunden, in denen die Grundwasserproben durch den Reaktor gepumpt worden waren, konnten wir einen nennenswerten Abbau der Kohlenstoffkettenlänge beobachten; nach sechs Stunden war die PFAS-Konzentration deutlich verringert, also ein Großteil der Chemikalien aus der Probe entfernt. Dies deckt sich mit Vermutungen, die bereits vor einiger Zeit in der Literatur geäußert wurden. Das heißt, wir konnten nachweisen, dass die Praxis mit der Theorie übereinstimmt.«

Mit dem gleichen Aufbau lässt sich die Plasma-Methode auch zur Aufreinigung anderer Wasserverschmutzungen einsetzen, etwa von Medikamentenrückständen, weiteren Industriechemikalien oder Pflanzenschutzmitteln. Untersucht wurde dies in vorangegangenen Projekten WaterPlasma und WasserPlasmax. Auch könnte der Reaktor mit etwas weiterer Entwicklungsarbeit einmal energieeffizient mit Umgebungsluft betrieben werden: »In unseren Vorstellungen sehen wir die Plasmaanlage in Containern stehen, die mobil an lokalen Schadstellen oder Brunnen eingesetzt werden können, um Trinkwasser flexibel und umweltschonend aufzubereiten«, wagt Umlauf den Blick in die Zukunft.

Vorstellung des Verfahrens auch beim Abwasserkolloquium am 25. September 2023
Die neuesten Ergebnisse zur Aufbereitung von Realproben wurden vom Projektpartner Hydr.O bereits in Paris auf der Konferenz »2nd International Congress – Management of Environmental & Health Risks« präsentiert. Hier wurde mit AtWaPlas erstmals ein Verfahren vorgestellt, das PFAS nicht nur sammelt – wie bei den bisher angewandten Verfahren z. B. mittels Aktivkohlefiltern oder Umkehrosmosen −, sondern die Umweltgifte eliminiert und im günstigsten Fall sogar vollständig mineralisiert.

Am 30. Juni 2023 wurde AtWaPlas mit einem offiziellen Abschlusstreffen in Aachen beendet. Auch hier wurde eine Zusammenfassung der wichtigsten Resultate vorgestellt. Beide Projektpartner betonten besonders die positive Zusammenarbeit während des Forschungsvorhabens.

Gemeinsam mit anderen Themen rund um Spurenstoffe wird das Verfahren außerdem Thema auf dem 22. Kolloquium zur Abwasserbehandlung am 25. September 2023 in Stuttgart sein.

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2023/pfas-kon…

(nach oben)


Was ist das da im Badesee?

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Raus an den See zum Baden. Aber was schwimmt, wächst und krabbelt denn da im Wasser? Forschende vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) liefern ein wenig Fachwissen für den Freizeitspaß am Gewässer.

Das Wasser ist nicht klar, sondern durchzogen von winzigen grünen Punkten oder Schlieren, die auch bläulich schimmern können:
Das sind vermutlich Cyanobakterien, gemeinhin auch Blaualgen genannt. Früher ordnete man sie den Algen zu, weil sie Photosynthese betreiben können. Im Gegensatz zu echten Algen haben sie aber keinen Zellkern – und werden deshalb nun zu den Bakterien gezählt. Das Problem mit den Cyanobakterien ist, dass sie Giftstoffe bilden können, die für Tiere und Menschen gesundheitsschädlich sind. Allerdings nur, wenn sie in großen Mengen aufgenommen werden. Um die Gesundheit nicht zu gefährden, werden Badestellen von den zuständigen Behörden regelmäßig auf Cyanobakterien und deren Toxine untersucht. Im Ernstfall werden Badestellen gesperrt. Als Faustregel gilt: Wenn man bis zu den Knien ins Wasser geht, sollte man seine Füße noch sehen können. Ist das Wasser zu grün, lieber woanders baden. Da Cyanobakterien die Haut reizen können, sollte man nach dem Baden in solchen Gewässern gleich duschen und die Badekleidung wechseln.

Wolkige Algenfäden am Ufer und im Wasser:
Das sind wahrscheinlich Fadenalgen. Fadenalgen sind keine einzelne Art, viele verschiedene Arten werden aufgrund ihres Aussehens unter diesem Begriff zusammengefasst. Massenansammlungen von Fadenalgen können Lebensgemeinschaften anderer Lebewesen am Seegrund gefährden und Nahrungsnetze verändern; viele der möglichen Auswirkungen sind aber noch nicht bekannt. Für Badende sind die grünen Algenteppiche nicht nur unansehnlich, in ihnen können sich auch Giftstoffe von Cyanobakterien anreichern. Hunde scheinen vom fischigen Geruch der Algen angezogen zu werden und laufen dann Gefahr, die Giftstoffe aufzunehmen. Also: Kein Grund zur Panik bei kleinen Algenwolken, aber Hunde nicht am Ufer im Algenteppich schnüffeln lassen und auch Kinder, die beim Baden noch viel Wasser schlucken, sollten sich lieber fernhalten.

Kann man sich an Wasserpflanzen verfangen?
Wasserpflanzen, in der Wissenschaft auch Makrophyten genannt, können entweder im Wasser schwimmen oder am Gewässergrund wurzeln. Auch wenn sie in der Tiefe wachsen, streben die meisten zur Wasseroberfläche – zum Sonnenlicht, denn auch sie brauchen es für ihre Photosynthese. Wasserpflanzen können beim Baden stören oder auf manche unheimlich wirken. Die meisten Wasserpflanzen, wie z.B. Armleuchteralgen, lassen sich aber leicht abstreifen oder abreißen. Große Seerosenflächen sollten von Schwimmern grundsätzlich gemieden werden. Auch aus Naturschutzgründen. Die eigentliche Gefahr sind nicht die Pflanzen, sondern die Panik, die sie auslösen. Also Ruhe bewahren und am besten in Rückenlage so aus den Seerosen herausschwimmen, wie man reingeschwommen ist. Wasserpflanzen sind grundsätzlich sehr nützlich. Sie helfen, das Wasser zu reinigen und bieten vielen Lebewesen Nahrung und Unterschlupf.

Autsch, ich habe mich am Fuß geschnitten:
Das war bestimmt eine Muschel. Tatsächlich sind in den letzten Jahren immer mehr Muscheln in unseren Gewässern zu finden. Vor allem die Quagga-Muschel breitet sich als invasive Art in großer Zahl in unseren Gewässern aus. Ihren ungewöhnlichen Namen verdankt sie ihrer hell-dunkel gestreiften Schale, die an das Fellmuster der Zebraart „Quagga“ erinnert. Die Ansiedlung dieser Muschel hat Vor- und Nachteile. Muscheln sind Filtrierer und reinigen das Wasser von Nährstoffen. Bis zu vier Liter Wasser kann eine Muschel pro Tag filtern – das verbessert die Wasserqualität. Aber die Quagga-Muschel überwuchert mit ihren Byssusfäden andere Muscheln und Weichtiere, die dadurch in ihrer Bewegung eingeschränkt werden und zum Beispiel ihre Schalen nicht mehr schließen können.

Der Fisch traut sich aber nah an mich heran:
Die meisten Fische sind scheu. Es gibt aber auch Arten, die sich im flachen Wasser aufhalten und sogar dort schwimmen, wo viele Badegäste sind. Das sind zum Beispiel Flussbarsche. Man erkennt sie gut an ihren schwarzen Streifen und rötlichen Flossen. Aber auch andere Arten wie Plötzen und Rotfedern, die ebenfalls rötliche Flossen und silbergraue Schuppen haben, trauen sich recht nah an unsere Füße heran. In größeren Seen kann man auch Ukeleis beobachten, die Insekten von der Wasseroberfläche fressen. Der berühmt-berüchtigte Wels ist jedoch selten dort anzutreffen, wo sich viele Badegäste aufhalten. Er hält sich vor allem am Gewässergrund auf und ist auch nicht bissig und gefährlich, wie es der Volksmund behauptet. Allerdings werden sich durch die globale Erwärmung die Aufenthaltsorte vieler Fischarten verschieben – kälteliebende Arten werden also eher in tiefere Wasserschichten abwandern.

Libellen, Wasserläufer und Co.:
Wussten Sie, dass rund 6 Prozent aller Insekten mindestens eine Phase ihres Lebens im Wasser verbringen? Einige Fluginsekten wie Eintagsfliegen, Steinfliegen, Köcherfliegen und Libellen leben als Larven in Gewässern. Daher kann eine Verschlechterung der Wasserqualität auch das Vorkommen dieser Arten beeinflussen. Eintagsfliegen können sogar über ein Jahr im Wasser verbringen, bevor sie für wenige Tage zur Paarung als Fluginsekten an Land kommen. Der Wasserläufer hingegen lebt immer an der Grenze zwischen Wasser und Luft. Die Härchen auf ihren Beinen ermöglichen es den Tieren, sich mit Hilfe der Oberflächenspannung schnell auf der Wasseroberfläche zu bewegen, ohne dabei einzusinken. Mit sehr viel Glück können Sie beim Schnorcheln eine Wasserspinne, die Silberspinne, entdecken. Sie ist die einzige Spinnenart, die nicht an Land, sondern unter Wasser lebt. Sie sammelt Luft in einem dicht gesponnenen Netz unter Wasser – wie in einer Taucherglocke. Die Wasserspinne ist stark gefährdet, weil sie besonders sauberes Wasser zum Überleben braucht.

Weitere Informationen:
https://www.igb-berlin.de/news/was-ist-das-da-im-badesee

(nach oben)


Neue Hypertonie-Leitlinien: Was bedeuten sie für die Bluthochdruck-Behandlung?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Zielwerte, individuelles Risikoprofil, Krankheitsstadium: Herzstiftungs-Experte ordnet Neuerungen der neuen Leitlinien für Betroffene mit Bluthochdruck ein

Bluthochdruck ist einer der wesentlichen Risikofaktoren für Herz- und Gefäßerkrankungen. So kann ein dauerhaft unzureichend oder nicht behandelter Bluthochdruck zu Herzerkrankungen wie Herzschwäche und Vorhofflimmern oder zu schwerwiegenden Komplikationen wie Gehirnblutung, Schlaganfall, Herzinfarkt oder Nierenversagen führen. Über 20 Millionen Menschen haben in Deutschland einen hohen Blutdruck, etwa jeder dritte Erwachsene. Zwar ist die gesundheitliche Gefahr, die von dauerhaft erhöhten Werten ausgeht, hinlänglich bekannt. Dennoch ist die Zahl derer, die ihren Blutdruck kontrollieren und ihre Werte kennen, vergleichsweise gering. In Deutschland schätzen Experten, dass das etwa bei jedem fünften Erwachsenen der Fall ist. Neue Leitlinien der Europäischen Gesellschaft für Hypertonie (ESH) [1], die im Juni 2023 vorgestellt wurden, berücksichtigen die individuellen Aspekte einer Hochdrucktherapie, z. B. die Einteilung nach Krankheitsstadien des Bluthochdrucks oder eine Vereinfachung der Blutdruckzielwerte, die es den Patienten erleichtert, therapeutische Maßnahmen für ihren Schutz vor Komplikationen besser nachzuvollziehen und zu akzeptieren. „Das ist wichtig. Denn zum einen verursacht Bluthochdruck zunächst einmal keine Beschwerden, Stichwort ,stiller Killer‘. Zum anderen, sind Patienten oft verunsichert, wenn sie die Diagnose Bluthochdruck erhalten“, betont Prof. Dr. Thomas Voigtländer, Vorstandsvorsitzender der Herzstiftung und Ärztlicher Direktor des Agaplesion Bethanien-Krankenhauses Frankfurt am Main, in einer Einordnung der neuen Hypertonie-Leitlinien unter https://herzstiftung.de/leitlinie-hypertonie-2023 „Die neuen Leitlinien geben konkrete Antworten auf häufige Fragen wie: Ab welchen Blutdruckwerten sollte ich tatsächlich Medikamente nehmen? Und auf welchen Wert muss mein Blutdruck möglichst sinken, damit das Herz effektiv geschützt ist?“

Pragmatische Zielsetzung erleichtert die Kommunikation
Insgesamt ähneln die neuen Empfehlungen den bisherigen. Doch die Blutdruckzielwerte wurden zum Beispiel vereinfacht. Ganz pragmatisch gilt nun offiziell die Empfehlung, dass jeder Patient, jede Patientin im Alter zwischen 18 und 79 Jahren auf Werte unter 140 mmHg systolisch und 90 mmHg diastolisch (mmHg: Millimeter-Quecksilbersäule) eingestellt werden sollte. Diese Empfehlung gilt auch für Patienten über 80 Jahre, wenn das vertragen wird. Denn damit könnte die bluthochdruckbedingte Gesundheitsgefahr insgesamt deutlich verringert werden, betonen die Leitlinien-Autoren. Die Empfehlung kommt somit der Behandlungsrealität nahe und dient als eine Art Zielkorridor, der Anpassungen an die individuelle Situation eines Patienten durchaus zulässt. Denn das heißt nicht, dass niedrigere Werte nicht gut wären. Als bestätigt gilt ein Bluthochdruck im Allgemeinen, wenn bei mindestens zwei bis drei Praxisbesuchen in Abständen von ein bis vier Wochen erhöhte Werte ab 140/90 mmHg vorliegen oder eine deutliche Blutdruckerhöhung (≥180/110 mmHg) beziehungsweise hohe Werte bei bereits bekannter Herzerkrankung.
Eine Senkung auf Werte unter 130/80 mmHg ist in der Regel mit noch besseren Therapieergebnissen verbunden, vor allem bei Patienten mit bereits bestehender Herzerkrankung – ist aber für manche Patienten auch mit unerwünschten Effekten verbunden. Schwindel oder verstärkt Nebenwirkungen der Blutdrucksenker bei intensiver Therapie sind möglich. „Das bestätigt, was auch die Deutsche Herzstiftung immer geraten hat. Eine Blutdrucktherapie nutzt nur, wenn sie auch vom Patienten vertragen wird und die Medikamente regelmäßig eingenommen werden“, so Prof. Voigtländer. „Wichtig ist auch, dass klargestellt wird: Werte unter 120/70 mmHg sollten bei einer Blutdrucktherapie vermieden werden.“

Bei Hochbetagten mehr Spielraum für Therapiebeginn – „individuelle Entscheidung“
Für Patienten über 80 Jahre gilt entsprechend der neuen Leitlinien eine spezielle Empfehlung: Während generell eine medikamentöse Therapie ab einem beim Arzt gemessenen durchschnittlichen systolischen Wert über 140 mmHg und einem diastolischen Blutdruckwert über 90 mmHg ratsam ist, kann bei den Älteren auch ein systolischer Wert bis 160 mmHg toleriert werden. Zielwert ist dann ein systolischer Blutdruck wenigstens zwischen 140-150 mmHg, er darf aber auch niedriger sein. Vorsicht ist dann geboten, wenn bereits sehr niedrige diastolische Werte unter 70 mmHg vorliegen. „Die Entscheidung, ab welchem Blutdruck bei Hochbetagten mit einer Therapie begonnen wird, ist immer eine individuelle Entscheidung. Dabei spielen vor allem die allgemeine Gebrechlichkeit und weitere Begleiterkrankungen eine wichtige Rolle“, erläutert Voigtländer. Ebenfalls wichtig: Eine schon früher begonnene Blutdrucktherapie sollte auch bei Hochbetagten möglichst fortgesetzt werden.

Medikamente: Kombinationstherapie effektiver als Monotherapie
Die Empfehlungen zur medikamentösen Therapie sind im Wesentlichen unverändert. „Eine Zweierkombination aus ACE-Hemmer oder Sartan plus Kalziumantagonist oder Diuretikum ist hier in der Regel der erste Schritt zur Blutdrucksenkung“, erläutert der Frankfurter Kardiologe. Reicht das nicht, sollte eine Dreierkombination aus diesen Wirkstoffklassen versucht werden. Auf der dritten Stufe kommen weitere Substanzen ins Spiel. Wie bisher sind die Aldosteron-Antagonisten (Spironolacton/Eplerenon) als wichtige Substanzklasse bei der Behandlung der schwer einstellbaren Hypertonie genannt. Neu ist bei diesen Patienten der Einsatz des Kombinationspräparates aus Neprilysinantagonist und Sartan (ARNI, Angiotensin-Receptor-Neprilysin-Inhibitor) als Empfehlung zur Blutdrucksenkung. Wenn dieses Kombinationspräparat eingesetzt wird, müssen allerdings der ACE-Hemmer beziehungsweise das Sartan aus der bisherigen Therapie abgesetzt werden. Bei Patienten, die bereits Nierenschäden aufweisen, wird die Therapieempfehlung zudem um Wirkstoffe aus der Gruppe der sogenannten SGLT-2-Inhibitoren (Gliflozine) ergänzt wie Empagliflozin. „Wir haben inzwischen ein neues Verständnis, wie der Bluthochdruck reguliert wird beziehungsweise durch eine Funktionsstörung aus vielen Mechanismen entsteht, bei der verschiedenste Faktoren ineinandergreifen. Das erklärt auch, warum wir mit der Kombination von Medikamenten, die ganz unterschiedlich wirken, den Blutdruck viel effektiver senken können als durch eine Monotherapie“, so Voigtländer.
Bei Patienten mit niedrigem bis mittlerem kardialen Risiko und mit einem Blutdruck im hohen Normalbereich (130-139 mmHg systolisch und 85-89 mmHg diastolisch) besteht die Empfehlung, keine blutdrucksenkende medikamentöse Therapie einzuleiten. Bei diesen Patienten sollte sich die Intervention vorerst auf eine Lebensstilberatung beschränken.

Regelmäßige Blutdruckmessung kann Hypertonie aufdecken
„Zu begrüßen ist auch, dass in den Leitlinien nochmals auf die Wichtigkeit einer regelmäßigen Blutdruckkontrolle verwiesen wird. So wird betont, dass bei jeder sich bietenden Gelegenheit auf das Vorliegen eines Bluthochdrucks gescreent werden sollte“, so der Herzstiftungs-Vorsitzende. „Bei Menschen über 40 Jahren heißt das: Lassen Sie sich einmal pro Jahr beim Hausarzt den Blutdruck checken.“ Risikopatienten wird dieses Vorgehen bereits in jüngeren Jahren empfohlen. Hier werden in den neuen Leitlinien auch Frauen nach der Menopause und Frauen mit einer Vorgeschichte von Schwangerschaftsbluthochdruck und Schwangerschaftskomplikationen wie einer Präeklampsie hervorgehoben.
Voigtländer rät: „Wer an sich gesund ist und nicht zum Hausarzt muss, sollte zumindest die Gelegenheit nutzen, sich immer mal wieder in der Apotheke den Blutdruck messen zu lassen. Das kann ebenfalls einen Hinweis auf einen bisher unentdeckten Bluthochdruck liefern.“ Je früher ein Bluthochdruck entdeckt wird, desto besser lassen sich die genannten Folgen für Herz und andere Organe wie Gehirn und Nieren vermeiden.

Neue Stadieneinteilung anhand von Organschäden
Sinnvoll ist ebenfalls, dass neben der bisherigen Einteilung nach Blutdruckwerten (z.B. optimal, normal, hochnormal) drei Krankheitsstadien des Bluthochdrucks systematisch hervorgehoben werden. „Denn damit lassen sich besser die fortschreitenden Schäden an Organen wie Herz, Hirn und Nieren bei einem unbehandelten Bluthochdruck vor Augen führen“, wie Prof. Voigtländer betont. „Wir möchten Patienten im Gespräch keine Angst machen. Dennoch unterschätzen viele die Folgen ihres Bluthochdrucks – bis es zu spät ist und zum Beispiel ein Herzinfarkt eingetreten ist oder die Nieren schwer geschädigt sind“, so der Kardiologe. Das ist die Einteilung:

– Stadium I: unkomplizierte Erkrankung, bei der noch keine merklichen Organschäden vorliegen (gilt auch bis zu einer Nierenerkrankung Grad 1 und 2)
– Stadium II: leichte Organschäden sind erkennbar, etwa der Beginn einer chronischen Nierenerkrankung (Grad 3), oder das zusätzliche Vorliegen von Diabetes mellitus
– Stadium III: es liegen bluthochdruckbedingte kardiovaskuläre Erkrankungen vor oder eine fortgeschrittene chronische Nierenerkrankung (Grad 4 und 5)

„Die Stadieneinteilung kann in der Kommunikation helfen, dass Betroffene die Notwendigkeit von Lebensstiländerungen und gegebenenfalls einer medikamentösen Behandlung verstehen und akzeptieren“, so der Kardiologe und Intensivmediziner.
(ne)

Service-Tipp:
Bluthochdruck durch Schlafstörungen, Migräne und Lärm – Yoga und Kalium als natürliche Senker? Was in den Hypertonie-Leitlinien noch neu und wichtig ist, stellt der Herzstiftungs-Beitrag mit einer Experten-Einordung durch Prof. Voigtländer unter https://herzstiftung.de/leitlinie-hypertonie-2023 vor.
Infos rund um Bluthochdruck bietet die Herzstiftung kostenfrei telefonisch unter 069 955128-400, per Mail unter bestellung@herzstiftung.de oder auf der Homepage unter: https://herzstiftung.de/bluthochdruck

Video „Wie messe ich meinen Blutdruck richtig?“ mit Prof. Dr. Thomas Voigtländer: https://www.youtube.com/watch?v=6cQZaQskJJc

Quelle:
[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…

Kontakt
Deutsche Herzstiftung
Pressestelle:
Michael Wichert (Ltg.)/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
https://herzstiftung.de

Originalpublikation:
[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…

Weitere Informationen:
https://herzstiftung.de/leitlinie-hypertonie-2023 – Stellungnahme zur Hypertonie-Leitlinie
http://https:herzstiftung.de/bluthochdruck – Infos zu Bluthochdruck

(nach oben)


Was der Klimawandel mit Gehirn und Seele macht

Arne Dessaul Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Über Jahrtausende hinweg hat sich unser Gehirn an unseren Lebensraum angepasst. Verändert er sich durch schnell steigende Temperaturen und den damit verbundenen Verlust von Ökosystemen, kommt das Gehirn von Menschen und Tieren nicht mehr mit. Was das bedeutet, beschreiben Dorothea Metzen und Prof. Dr. Sebastian Ocklenburg aus der Biopsychologie der Ruhr-Universität Bochum und der Medical School Hamburg in ihrem Buch „Die Psychologie und Neurowissenschaft der Klimakrise“. Sie integrieren dabei verschiedene Forschungszweige der Psychologie und Neurowissenschaft. Das Lehrbuch ist im Springer-Verlag erschienen.

Unsere Umwelt hat großen Einfluss auf die Funktion und die Entwicklung unseres Gehirns: „Studien zeigen zum Beispiel, dass ein Aufenthalt in der Natur im Gegensatz zu einem Aufenthalt in der Stadt zu einer Regulation von Stressnetzwerken im Gehirn führen kann“, erklärt Dorothea Metzen. Sind wir längere Zeit lebensfeindlichen Umgebungen ausgesetzt, etwa in besonders kalten Gebieten wie der Arktis, können sich unsere Hirnfunktionen ebenfalls verändern. „Der Erhalt der uns verbleibenden natürlichen Räume ist somit sehr wichtig für die Gesundheit unseres Gehirns“, unterstreicht Sebastian Ocklenburg.

Temperatur ist außerdem eine wichtige Umweltbedingung, die im Laufe der Evolution ökologische Nischen bedingt hat. Die Gehirne von Tieren und auch von uns Menschen sind an bestimmte Temperaturen angepasst. Extrem schnelle Änderungen der Durchschnittstemperaturen können zu einer Zerstörung von ökologischen Nischen führen, ohne Zeit für die Lebewesen, sich anzupassen. „So besitzen zum Beispiel Walgehirne besonders viele Zelltypen, die mit der Erzeugung von Hitze im Gewebe verbunden sind. Diese sind für sie in kalten Gewässern überlebenswichtig“, so Dorothea Metzen. „Sollte sich das Wasser allerdings zu stark erwärmen, haben die Wale keine ausreichenden Mechanismen, um die Körpertemperatur herunterzuregulieren.“
Hitzewellen und Naturkatastrophen

Der Klimawandel hat massive Auswirkungen auf die Gesundheit der Menschen, sowohl physisch als auch psychisch. Hitzewellen führen zu steigenden Zahlen von Hitzetoten, gleichzeitig werden Naturkatastrophen wie Fluten und Waldbrände mit steigender Durchschnittstemperatur immer wahrscheinlicher. All diese Phänomene beeinflussen auch unsere psychische Gesundheit: Hitzewellen hindern uns daran, unserem geregelten Alltag nachzugehen, können unser Sozialleben einschränken und zu Isolation führen. Außerdem sind erhöhte Außentemperaturen im Sommer mit einer verringerten Schlafqualität verbunden, was Einfluss auf Stimmung, Arbeit und Suizidalität haben kann. Besonders verwundbare Gruppen sind Menschen mit psychischen Erkrankungen, Frauen und Ältere. Naturkatastrophen können zu Depressionen und Posttraumatischen Belastungen führen. Menschen, die auf der Flucht vor den Folgen der Klimakrise sind, sind multiplen Stressoren und Gesundheitsrisiken ausgesetzt, durch prekäre Bedingungen in Flüchtlingsunterkünften, mangelnden Zugang zu Gesundheitsversorgung und Gewalt.

„Was können wir als Beschäftigte in Wissenschaft und Gesundheitsberufen nun tun?“, fragen die beiden Forschenden. „Wir können uns dafür einsetzen, das Gesundheitssystem auf die kommenden Herausforderungen vorzubereiten, denn das ist es bisher nicht“, sagt Sebastian Ocklenburg. „Die Folgen der Klimakrise müssen in Gesundheit, Wissenschaft und Lehre mitgedacht werden, denn sie stellt das größte Gesundheitsrisiko und die größte Herausforderung unserer Zeit dar. Wir können in Verbänden und Vereinen laut sein, um die Politik zum tatsächlichen Handeln gegen die Klimakrise zu bewegen, denn Prävention ist der beste Weg, um die Gesundheit unserer Mitmenschen zu schützen.“

Wissenschaftliche Ansprechpartner:
Dorothea Metzen
Biopsychologie
Institut für Kognitive Neurowissenschaft
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 21775
E-Mail: dorothea.metzen@ruhr-uni-bochum.de

Originalpublikation:
Dorothea Metzen, Sebastian Ocklenburg: Die Psychologie und Neurowissenschaft der Klimakrise. Wie unser Gehirn auf Klimaveränderungen reagiert, Springer, Berlin 2023, 48 Seiten, ISBN 9783662673645, DOI: 10.1007/978-3-662-67365-2

(nach oben)


Muster der Biodiversität entschlüsselt

Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
Der Mensch ist eine große Bedrohung für die biologische Vielfalt. Um sie zu schützen, ist es wichtig, ihre Ursprünge zu verstehen. Eine entscheidende Rolle spielen dabei Arten, die evolutionär einzigartig sind, das heißt wenige oder keine nah verwandten Arten haben, und nur in einem begrenzten Gebiet vorkommen, also endemisch sind. Ein internationales Forschungsteam unter der Leitung der Universität Göttingen hat nun globale Muster der Verbreitung endemischer Samenpflanzen aufgedeckt und Umweltfaktoren ermittelt, die ihren Endemismus beeinflussten. Damit liefern die Forschenden wertvolle Erkenntnisse für den weltweiten Schutz von Biodiversität.

Die Forschenden analysierten einen umfangreichen Datensatz zum regionalen Vorkommen von Samenpflanzen. Er umfasste etwa 320.000 Arten aus weltweit 912 Regionen. Dabei deckten sie die geografische Verteilung endemischer Arten auf. Indem sie zwischen „kürzlich“ entstandenen Arten und älteren evolutionären Linien unterschieden, machten sie Zentren von Neo- und Paläoendemismus aus. Neoendemismus ist die lokal begrenzte Verbreitung von Arten, deren Artbildung noch nicht lange zurückliegt und die sich noch nicht weiter ausgebreitet haben. Dagegen beschreibt Paläoendemismus die begrenzte Verbreitung meist älterer Arten, die heute nur noch auf Restflächen ihres einst größeren Verbreitungsgebiets vorkommen. Als globale Hotspots endemischer Samenpflanzen identifizierte das Forschungsteam isolierte tropische und subtropische Inseln sowie tropische Bergregionen. Die meisten tropischen Regenwaldgebiete sind Zentren des Paläoendemismus. Dagegen weisen viele Gebiete mit mediterranem Klima und abgelegene Inseln vor allem Neoendemismus oder beide Formen auf.

Das Forschungsteam untersuchte auch das Zusammenspiel zwischen Umweltfaktoren und Endemismus. Dabei wurde deutlich, dass eine Kombination aus vergangenen und gegenwärtigen Umweltbedingungen die globalen Unterschiede im Vorkommen endemischer Samenpflanzen beeinflusst. Die Studie zeigt auch, dass sowohl die klimatische als auch die geologische Geschichte Einfluss auf den Endemismus hat: Die langfristige klimatische Stabilität unterstützt das Fortbestehen von Paläoendemismus, während die isolierte Natur ozeanischer Inseln und ihre einzigartige geologische Geschichte Neoendemismus fördern.

Prof. Dr. Holger Kreft von der Abteilung Biodiversität, Makroökologie und Biogeographie der Universität Göttingen betont: „Die aufgedeckten Beziehungen zwischen vergangenen und gegenwärtigen Umweltbedingungen und Endemismus bieten beispiellose Einblicke in die evolutionären Grundlagen biogeografischer Muster bei Samenpflanzen.“ Dr. Patrick Weigelt aus derselben Abteilung fügt hinzu: „Unsere Ergebnisse verbessern nicht nur unser Verständnis der evolutionären Ursprünge der Pflanzenvielfalt, sie unterstreichen auch die dringende Notwendigkeit, Gebiete zu schützen, in denen Arten mit einzigartiger Evolution und begrenzter Verbreitung vorkommen.“

Wissenschaftliche Ansprechpartner:
Lirong Cai
Georg-August-Universität Göttingen
Fakultät für Forstwissenschaften und Waldökologie
Abteilung Biodiversität, Makroökologie und Biogeographie
Büsgenweg 1, 37077 Göttingen
E-Mail: lcai@uni-goettingen.de
Internet: www.uni-goettingen.de/en/597986.html

Dr. Patrick Weigelt
Georg-August-Universität Göttingen
Fakultät für Forstwissenschaften und Waldökologie
Abteilung Biodiversität, Makroökologie und Biogeographie
Büsgenweg 1, 37077 Göttingen
Telefon: 0551 39-28983
E-Mail: pweigel@uni-goettingen.de
Internet: www.uni-goettingen.de/de/157014.html

Originalpublikation:
Cai, L. et al. Climatic stability and geological history shape global centers of neo- and paleoendemism in seed plants. Proceedings of the National Academy of Sciences (2023). DOI: 10.1073/pnas.2300981120

Weitere Informationen:
http://www.uni-goettingen.de/de/3240.html?id=7159
http://(weiteres Bildmaterial)

(nach oben)


Tarifvertragliche Ausbildungsvergütungen: Zwischen 620 und 1.580 Euro im Monat

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Aktuelle Auswertung des WSI-Tarifarchivs:

Tarifvertragliche Ausbildungsvergütungen: Zwischen 620 und 1.580 Euro im Monat – Tarifvertragsparteien reagieren mit überdurchschnittlichen Erhöhungen auf Fachkräftemangel

Bei den durch Tarifvertrag festgelegten Ausbildungsvergütungen bestehen je nach Branche und Region sehr große Unterschiede.
Die Spannbreite reicht von der gesetzlichen Mindestausbildungsvergütung, die im ersten Ausbildungsjahr bei 620 Euro pro Monat liegt und z.B. im Friseurhandwerk oder der ostdeutschen Floristik gezahlt wird, bis zu 1.580 Euro im westdeutschen Bauhauptgewerbe, mit denen Auszubildende im vierten Ausbildungsjahr vergütet werden (siehe auch Abbildung 1 sowie Tabelle 1 in der pdf-Version dieser PM; Link unten). Dies zeigt eine aktuelle Auswertung von 20 ausgewählten Tarifbranchen, die das Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung kurz vor Beginn des neuen Ausbildungsjahres 2023 vorlegt.

Deutliche Zuwächse bei den Ausbildungsvergütungen
„In einigen Tarifbranchen sind die tarifvertraglichen Ausbildungsvergütungen in jüngster Zeit überdurchschnittlich stark angehoben worden“, sagt der Leiter des WSI-Tarifarchivs, Prof. Dr. Thorsten Schulten. „Die Tarifvertragsparteien reagieren hier auf sinkende Ausbildungszahlen und einen zunehmenden Fachkräftemangel, dem ohne eine deutliche Verbesserung der Vergütungsniveaus nicht entgegnet werden kann.“

Den größten Zuwachs konnte das Backhandwerk verzeichnen, wo die Ausbildungsvergütungen ab dem 1. August 2023 im ersten Ausbildungsjahr um 26,5 Prozent angehoben werden (siehe auch Abbildung 2 in der pdf-Version dieser PM; Link unten). Erhöhungen um 20 Prozent und mehr gab es außerdem im bayerischen Gastgewerbe, der westdeutschen Floristik und der Süßwarenindustrie Nordrhein-Westfalen. Über 10 Prozent stiegen die Ausbildungsvergütungen im sächsischen Gastgewerbe, in der Landwirtschaft (Mecklenburg-Vorpommern) und im Privaten Bankgewerbe.

In der Mehrzahl der Branchen wurden die Vergütungen im Laufe des letzten Ausbildungsjahres zwischen 2,0 und 7,5 Prozent angehoben. In einigen wenigen Branchen gab es hingegen keine Erhöhungen. Dies liegt zum Teil daran, dass wie z. B. bei der Deutschen Bahn AG oder dem nordrhein-westfälischen Friseurhandwerk die laufenden Tarifverhandlungen noch zu keinem Ergebnis geführt haben oder – wie im Fall der ostdeutschen Floristik – ergebnislos abgebrochen wurden. In anderen Branchen wie z. B. dem Kfz-Handwerk sind bereits Erhöhungen vereinbart worden, die jedoch erst im weiteren Verlauf der zweiten Jahreshälfte 2023 in Kraft treten.

Große Niveauunterschiede bei den Ausbildungsvergütungen nach Branche und Region
Die Ausbildungsvergütungen werden normalerweise im Rahmen der regulären Tarifverhandlungen zusammen mit den Löhnen der Beschäftigten verhandelt. Damit hängen sie auch mit der Verhandlungsposition der jeweiligen Gewerkschaft zusammen, die von Branche zu Branche und von Region zu Region sehr unterschiedlich ist. Dementsprechend existieren bei der Höhe der Ausbildungsvergütungen erhebliche Unterschiede.

Die Unterschiede bei den tarifvertraglichen Ausbildungsvergütungen zeigen sich bereits im ersten Ausbildungsjahr: In zehn der 20 untersuchten Tarifbranchen liegen die Vergütungen zumindest teilweise oberhalb von 1.000 Euro pro Monat. Hierzu gehören:

– das Gastgewerbe in Bayern, das mit der jüngsten Erhöhung erstmals die 1.000 Euro-Marke erreicht hat,
– die Textilindustrie in Baden-Württemberg mit 1.015 Euro,
– die Deutsche Bahn AG mit bundeseinheitlich 1.020 Euro,
– die Druckindustrie mit bundeseinheitlich 1.025 Euro,
– die Süßwarenindustrie Nordrhein-Westfalen mit 1.051 Euro,
– der Öffentliche Dienst mit einer monatlichen Ausbildungsvergütung von 1.068 Euro (Bund und Gemeinden) bzw. 1.087 Euro (Länder, ohne Hessen),
– die Chemische Industrie mit 1.090 Euro im Bezirk Nordrhein und 1.080 Euro im Bezirk Ost,
– die Metall- und Elektroindustrie mit 1.091 Euro in Baden-Württemberg und 1.059 Euro in Sachsen,
– das Versicherungsgewerbe mit bundeseinheitlich 1.120 Euro,
– das Private Bankgewerbe mit bundeseinheitlich 1.150 Euro

Die höchste Ausbildungsvergütung unter den hier untersuchten Tarifbranchen wird aktuell im ersten Ausbildungsjahr mit 1.231 Euro (Öffentlicher Dienst: Länder) bzw. 1.191 Euro (Öffentlicher Dienst: Bund und Gemeinden) für die Pflegeberufe gezahlt, die mittlerweile innerhalb der Tarifverträge des öffentlichen Dienstes über gesonderte Regelungen verfügen. Damit haben die Tarifvertragsparteien auf den akuten Fachkräftemangel in diesem Bereich reagiert. Allerdings gelten diese Ausbildungsvergütungen verbindlich nur für öffentliche Einrichtungen, die unter den Tarifvertrag für den Öffentlichen Dienst (TVöD) oder den Tarifvertrag der Länder (TV-L) fallen. In privaten Pflegeeinrichtungen ohne Tarifvertrag kann die Ausbildungsvergütung hingegen auch deutlich geringer ausfallen.

In der Mitte befinden sich 12 der untersuchten 20 Tarifbranchen mit (teilweise) monatlichen Ausbildungsvergütungen zwischen 800 und 1.000 Euro im ersten Jahr. Hierzu gehören das Kfz-Handwerk, der Einzelhandel, das Bauhauptgewerbe, die Holz und Kunststoff verarbeitende Industrie, das private Verkehrsgewerbe, die Süßwarenindustrie Ost, das sächsische Gastgewerbe, die Textilindustrie Ost, das Gebäudereinigungshandwerk, das Backhandwerk, die Landwirtschaft in Mecklenburg-Vorpommern und die westdeutsche Floristik.

Die niedrigsten Ausbildungsvergütungen mit Beträgen von unter 800 Euro im Monat finden sich in drei Tarifbranchen: der Landwirtschaft im Bezirk Nordrhein mit 790 Euro, dem nordrhein-westfälischen Friseurhandwerk mit 610 Euro und der ostdeutschen Floristik mit 585 Euro. Die beiden zuletzt genannten Tarifbereiche liegen dabei unterhalb der aktuell gültigen gesetzlichen Mindestausbildungsvergütung von 620 Euro und sind somit unwirksam.

In lediglich sieben der vom WSI untersuchten Tarifbranchen existieren bundesweit einheitliche Ausbildungsvergütungen, darunter das Bäckerhandwerk, das Private Bankgewerbe, die Druckindustrie, die Deutsche Bahn AG, das Gebäudereinigungshandwerk, der Öffentliche Dienst und das Versicherungsgewerbe.

In 13 Tarifbranchen bestehen hingegen nach wie vor Unterschiede im Niveau der Ausbildungsvergütungen zwischen den west- und den ostdeutschen Tarifgebieten. In der chemischen Industrie und der Metall- und Elektroindustrie liegen die ostdeutschen Ausbildungsvergütungen mit Beträgen von 10 bzw. 32 Euro pro Monat dabei nur relativ geringfügig unterhalb des hier berücksichtigten westdeutschen Tarifbezirks, wobei auch innerhalb Westdeutschlands regionale Unterschiede existieren. Die größten Ost-West-Unterschiede existieren mit 215 Euro in der Floristik gefolgt vom Kfz-Handwerk mit 169 Euro und der Textilindustrie mit 135 Euro.

In den übrigen Branchen variieren die Unterscheide zumeist zwischen 50 und 100 Euro. In der Landwirtschaft von Mecklenburg-Vorpommern liegen die Ausbildungsvergütungen sogar leicht oberhalb des Westniveaus.

Die erheblichen Unterschiede zwischen den Branchen setzen sich auch im zweiten und dritten Ausbildungsjahr fort (siehe Tabelle 1). So variieren die Ausbildungsvergütungen im zweiten Ausbildungsjahr zwischen der gesetzlichen Mindestausbildungsvergütung von 732 Euro, die im Thüringer Friseurhandwerk gezahlt wird, und 1.297 Euro für die Auszubildenden in der Pflege bei den Ländern.

Im dritten Ausbildungsjahr liegen die Unterschiede zwischen 837 Euro (Mindestausbildungsvergütung) und 1.495 Euro (westdeutsches Bauhauptgewerbe). Von wenigen Ausnahmen abgesehen verdienen die Auszubildenden ab dem dritten Jahr in fast allen Tarifbranchen zum Teil deutlich mehr als 1.000 Euro. In elf der hier ausgewerteten Branchen existiert darüber hinaus auch noch ein viertes Ausbildungsjahr. Die höchste Ausbildungsvergütung wird dann mit 1.580 Euro im Monat im westdeutschen Bauhauptgewerbe gezahlt.

„Trotz eines erheblichen Aufholprozesses ist das Niveau der Ausbildungsvergütung in einigen Tarifbranchen nach wie vor sehr niedrig“, erläutert Schulten. „Hinzu kommen die Branchen ohne Tarifvertrag, in denen Auszubildende lediglich Anspruch auf die gesetzliche Mindestausbildungsvergütung haben. Um die Attraktivität bestimmter Ausbildungsberufe zu erhöhen, ist deshalb eine Stärkung der Tarifbindung dringend geboten.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211-7778-239
E-Mail: Thorsten-Schulten@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Die PM mit Abbildung und Tabelle (pdf): http://www.boeckler.de/pdf/pm_ta_2023_07_24.pdf

(nach oben)


Hitze führt zu mehr Arbeitsunfällen

Kathrin Haimerl Abteilung Kommunikation
Universität Passau
Eine Studie von Nachwuchsforschenden der Universitäten Passau und Bern zeigt anhand von Daten aus der Schweiz: An Tagen mit Temperaturen über 30 Grad steigt die Zahl der Arbeitsunfälle um 7,4 Prozent. Bei Bürokräften liegt die Ursache vor allem in der Nacht.

Große Teile der Welt leiden unter der aktuellen Hitzewelle. In Bayern und Baden-Württemberg wurden Temperaturen über 30 Grad gemessen, ebenso in der Schweiz, die von der globalen Erwärmung besonders betroffen ist.

Wie wirken sich solche extremen Temperaturen auf Unfälle auf der Arbeit aus? Diese Frage haben Katharina Drescher, Nachwuchsökonomin an der Universität Passau, und ihr Ko-Autor Benedikt Janzen von der Universität Bern anhand von Daten aus der Schweiz untersucht. In ihrer Studie werteten die Forschenden Arbeitsunfälle von 1996 bis 2019 aus. Die Schweiz eignet sich für eine solche Untersuchung insofern, als es hier auf kleinem Raum eine große Variation an Temperaturen gibt. Zudem stehen die administrativen Unfalldaten tagesgenau und auf kleinteiliger regionaler Ebene zur Verfügung, so dass sich diese mit dem Wetter abgleichen lassen.

Hitze betrifft in der Schweiz alle gleichermaßen
Das Ergebnis ist wenig überraschend: Drescher und Janzen zeigen, dass mit Temperaturen über 30 Grad auch die Zahl der Arbeitsunfälle steigt – und zwar um 7,4 Prozent. Was die Passauer Ökonomin aber verblüfft hat, war die Tatsache, dass in der Schweiz – anders als Studien aus den USA dies nahelegen – die Hitze alle Arbeitnehmerinnen und Arbeitnehmer gleichermaßen traf: „Wir konnten in unseren Auswertungen keine Unterschiede hinsichtlich des Geschlechts, Alters, Einkommens oder der Branche feststellen.“ Das heißt: Egal ob man etwa in der Baubranche arbeitete oder als Bürokraft – die Arbeitsunfälle stiegen in beiden Gruppen prozentual gleichermaßen.

Schlafmangel als Ursache für erhöhte Unfallzahlen bei Bürokräften
Allerdings unterschieden sich die Gruppen hinsichtlich der Ursachen: Während heiße Nächte alle schlecht schlafen lassen, ist es doch die Hitze am Tag, die zu mehr Unfällen führt für diejenigen, die überwiegend draußen arbeiten. Bei Bürokräften spielen die Temperaturen in den Nächten davor eine größere Rolle. Den Zusammenhang zwischen Temperaturen, Schlafmangel und erhöhten Arbeitsunfällen zeigen die Forschenden, indem sie zusätzlich zu den Unfalldaten die Schweizerische Gesundheitsbefragung heranziehen.

Drescher und ihr Ko-Autor berechnen auch den wirtschaftlichen Schaden, den die Unfallzunahme an Hitzetagen ab 30 Grad, aber auch an Sommertagen mit 25 bis 30 Grad und Kältetagen mit Minusgraden verursacht: Demnach beliefen sich im Beobachtungszeitraum die Kosten der temperaturbedingten Unfälle auf etwa 90 Millionen Schweizer Franken jährlich – Tendenz stark steigend. Denn gab es 1996 lediglich einen Hitzetag mit mehr als 30 Grad, so lag die Zahl im Jahr 2019 bereits bei elf Tagen.

Stipendium der Nationalökonomischen Gesellschaft
Die Studie mit dem Titel „When Weather Wounds Workers: The Impact of Temperature on Workplace Accidents“ ist als Discussion Paper des „Bavarian Graduate Program in Economics“ erschienen. Sie ist Teil von Dreschers kumulativer Dissertation am Lehrstuhl für Public Economics an der Universität Passau. Die Absolventin der Wirtschaftsuniversität Wien hat dafür ein mit 4000 Euro dotiertes Stipendium der österreichischen Nationalökonomischen Gesellschaft (NOeG) erhalten. „Ich gratuliere Katharina Drescher zu diesem tollen Erfolg. Mit der Studie tragen sie und Benedikt Janzen dazu bei, durch den Klimawandel bedingte Auswirkungen auf Arbeitsmarkt und Gesundheit besser zu verstehen“, erklärt Prof. Dr. Stefan Bauernschuster, Lehrstuhlinhaber und Dekan der Wirtschaftswissenschaftlichen Fakultät der Universität Passau.

Wissenschaftliche Ansprechpartner:
Katharina Drescher
Wissenschaftliche Mitarbeiterin am Lehrstuhl für Public Economics
Universität Passau
Innstraße 27, 94032 Passau
E-Mail: Katharina.Drescher@uni-passau.de

Originalpublikation:
https://www.bgpe.de/texte/DP/226_Drescher_1.pdf

(nach oben)


„Ich bin dann mal weg“ – Warum Urlaub ohne Arbeit so wichtig ist

Alexandra Naumann Pressestelle
IST-Hochschule für Management
Urlaub bietet Zeit für Entspannung, Erholung und das „Aufladen der Batterien“. Leider gibt es immer mehr Menschen, die während ihres Urlaubs arbeiten. Dies kann jedoch die Work-Life-Balance gefährden und langfristig negative Auswirkungen auf die körperliche und geistige Gesundheit haben. Alexandra Löwe, wissenschaftliche Mitarbeiterin an der IST-Hochschule für Management, erklärt, wie das aussehen kann.

„Arbeit im Urlaub führt dazu, dass die Grenzen zwischen Beruflichem und Privatem verschwimmen. Durch die ständige Erreichbarkeit befinden wir uns dauerhaft in einem arbeitsbezogenen Denkmuster, auch wenn wir eigentlich freie Zeit haben sollten. Dadurch wird es schwieriger, sich mental von der Arbeit zu lösen und sich auf die Entspannung und den Genuss des Urlaubs zu konzentrieren.

Der Stress bleibt weiterhin präsent“, erläutert Alexandra Löwe, Stress-Expertin am IST-Studieninstitut. „So kehren wir nach dem Urlaub nicht erfrischt und revitalisiert zurück, sondern fühlen uns weiterhin müde und ausgelaugt.“

Aber wer ständig arbeitet und keine Zeit für Erholung findet, riskiert eine Abnahme der Kreativität und Produktivität und letztlich Erschöpfung.

„Der permanente Einsatz des Gehirns im Arbeitsalltag kann dazu führen, dass bestimmte Denkfähigkeiten überbeansprucht, während andere vernachlässigt werden. Eine Auszeit in Form eines Urlaubs ermöglicht es dem Gehirn, sich zu regenerieren und neue Energie zu tanken“, so Löwe. „Darüber hinaus können wir unser Gehirn auf verschiedene Weise stimulieren, indem wir neue Orte erkunden, andere Aktivitäten ausprobieren und uns neuen Erfahrungen öffnen. Dies kann dazu beitragen, die kognitiven Fähigkeiten wie Aufmerksamkeit, Gedächtnis, Problemlösung und Lernfähigkeit zu verbessern. Urlaub wirkt sich damit positiv auf unsere kreative Denkweise und Arbeitsleistung aus.“

Die mentale Gesundheit ist eng mit der Funktionsweise des Gehirns verbunden. Stress und Überlastung können zu Angstzuständen, Depressionen und anderen psychischen Problemen führen. Durch einen Urlaub kann dem entgegengewirkt und die geistige Gesundheit gestärkt werden.

Die viel zitierte Work-Life-Balance ist entscheidend für allgemeines Wohlbefinden. Wenn man sich im Urlaub nicht von der Arbeit lösen kann, wird diese Balance gestört. Die Zeit, die private Aktivitäten gedacht war, wird stattdessen von beruflichen Verpflichtungen eingenommen.

Dies kann zu Konflikten in persönlichen Beziehungen führen und das Gefühl verstärken, dass die Arbeit immer Vorrang hat. Beziehungen und soziale Bindungen sind wichtig für das Gehirn, da sie die Freisetzung von Oxytocin, einem Hormon, das mit positiven Emotionen und dem Aufbau von Vertrauen verbunden ist, fördern.

„Daher profitieren wir in mehrfacher Hinsicht davon, wenn wir den Urlaub nutzen, um Zeit mit unseren Liebsten zu verbringen, neue Menschen kennenzulernen und soziale Interaktionen zu pflegen“, fasst Löwe zusammen.

Wer sich mit dem Thema Stressmanagement ausführlich beschäftigen möchte, findet ein passendes Bildungsangebot am IST.

Weitere Informationen:
https://www.ist.de/gesundheit-und-wellness/stressmanagement-ausbildung

(nach oben)


Artenschutz durch Braukunst: Forschungsprojekt zeigt Eignung der seltenen Dicken Trespe für die Bierherstellung

Christian Wißler Pressestelle
Universität Bayreuth
Die Dicke Trespe (Bromus grossus) ist eine uralte Getreideart, die nachweislich schon in der Bronzezeit kultiviert und als Nahrungsmittel genutzt wurde. Heute zählt sie zu den vom Aussterben bedrohten Arten. In gemeinsamen Forschungsarbeiten haben die Universität Bayreuth, das Bezirkslehrgut Bayreuth und die Firma IREKS in Kulmbach untersucht, ob sich diese Pflanze zum Bierbrauen eignet. Das Ergebnis sind zwei schmackhafte Biere: ein Pils und ein Hefe-Weizen. Sie wurden am 20. Juli 2023 zum erfolgreichen Abschluss des von der Oberfrankenstiftung geförderten Projekts auf dem Campus der Universität Bayreuth verkostet. Die Bierproduktion könnte ein Weg zum Erhalt der Dicken Trespe sein.

„Die Dicke Trespe hat sich im Verlauf der letzten Jahrtausende immer stärker an die besonderen Bedingungen des Ackerbaus angepasst. Schnelle Keimung und eine sehr hohe Keimungsrate machen sie für die Herstellung von Malz besonders geeignet. Die Körner der Dicken Trespe sind fast so groß wie die von anderen Getreidearten“, erklärt Dr. Pedro Gerstberger vom Lehrstuhl für Pflanzenökologie der Universität Bayreuth, der das Forschungsprojekt geleitet hat. Ein großer Vorteil der Dicken Trespe besteht darin, dass die Körner – im Unterschied zu Wildgräsern – nach der Reife nicht aus der Rispe fallen, sondern an der Pflanze haften bleiben. So können sie ohne Verluste geerntet werden.

„Weil die Dicke Trespe keine eigene Saatgutreserve im Boden bildet, muss sie jährlich neu ausgesät werden. Genau hier liegt die Chance, den Erhalt dieser seltenen und gefährdeten Pflanzenart durch eine dauerhafte Nutzung für die Bierherstellung zu sichern. Die Dicke Trespe ist zwar durch die Fauna-Flora-Habitat-Richtlinie (FFH-Richtlinie) der Europäischen Union und die Bundesartenschutzverordnung streng geschützt, aber ohne ihren stetigen Anbau würde sie letztlich aussterben“, sagt Gerstberger.

Die für das Forschungsprojekt an der Universität Bayreuth verwendeten Körner stammten aus einem Anbau der Dicken Trespe auf dem Gelände des Bayreuther Bezirkslehrguts, das zu den Landwirtschaftlichen Lehranstalten des Bezirks Oberfranken gehört. Das verwendete Saatgut war von den Botanischen Gärten in Bonn und in Frankfurt am Main zur Verfügung gestellt worden. Die Firma IREKS, ein international tätiges Unternehmen der Lebensmittelbranche in Kulmbach, übernahm unter der Leitung von Dipl.-Ing. Matthias Hansen die Herstellung des Braumalzes.

Am Lehrstuhl für Bioprozesstechnik, der über eine breite Expertise auf dem Gebiet der Braukunst und einen eigenen modernen Braukessel verfügt, wurden schließlich unter der Leitung von Prof. Dr. Ruth Freitag insgesamt 45 Liter Pils hergestellt. 40 Liter Hefe-Weizen wurden vom Team um Dr. Benjamin Gilfedder, Limnologische Station der Universität Bayreuth, gebraut. Das Ergebnis, zwei vollmundige Craft-Biere, überzeugte alle Teilnehmer*innen der Verkostung – nicht zuletzt auch die Mitglieder des Vereins „UniBrauTechnik e.V.“, der sich 2012 auf dem Campus der Universität Bayreuth gegründet hat.

Wissenschaftliche Ansprechpartner:
Dr. Pedro Gerstberger
Lehrstuhl für Pflanzenökologie
Universität Bayreuth
E-Mail: gerstberger@uni-bayreuth.de

Prof. Dr. Ruth Freitag
Lehrstuhl für Bioprozesstechnik
Universität Bayreuth
Tel: +49 (0)921 55-7370
E-Mail: ruth.freitag@uni-bayreuth.de

(nach oben)


Welt-Hepatitis-Tag: Deutsche Leberstiftung unterstützt die Elimination der Virushepatitis

Rolf Kalus externe Pressestelle
Deutsche Leberstiftung
Hannover – Am 28. Juli 2023 findet der Welt-Hepatitis-Tag statt. Das diesjährige Motto in Deutschland „Ich warte nicht. Ich handele!“ ist ein Aufruf, aktiv zu werden und sich beispielsweise testen zu lassen oder als Betroffener eine antivirale Therapie zu beginnen. Die Deutsche Leberstiftung unterstützt den Welt-Hepatitis-Tag und das Erreichen der WHO-Zielsetzung, Hepatitis B und C bis 2030 zu eliminieren.

Infektionen mit Hepatitisviren gehören weltweit zu den häufigsten Infektionskrankheiten und stellen global eines der großen Probleme für das Gesundheitswesen dar. Die meisten Fälle einer viralen Hepatitis gehen auf fünf Viren zurück, die unterschiedlich sind: die Hepatitisviren A, B, C, D (delta) und E (HAV–HEV). Insbesondere chronische HBV- und HCV-Infektionen zählen zu den bedeutendsten Ursachen von Leberzirrhose und Leberzellkrebs (Hepatozelluläres Karzinom, HCC). Laut der Weltgesundheitsorganisation (WHO) leben weltweit schätzungsweise 354 Millionen Menschen mit einer Hepatitis B oder C. In Deutschland gehen Experten für die Hepatitis B und C gesamt von mehreren Hunderttausend Betroffenen aus.

Die WHO hat bereits 2016 das Ziel ausgerufen, bis 2030 die Virushepatitiden B und C zu eliminieren – definiert wird dies als eine Reduktion der Hepatitis B-Virus (HBV)- und Hepatitis C-Virus (HCV)-Infektionen um 90 Prozent, die Behandlung von 80 Prozent der therapiebedürftigen HBV- und HCV-Infizierten und eine Reduktion der HBV- und HCV-assoziierten Todesfälle um 65 Prozent. Diesem Ziel hat sich die Bundesregierung angeschlossen.

Die Behandlung der chronischen Hepatitis C mit direkt wirkenden antiviralen Substanzen (DAAs) ist einer der wichtigsten klinischen Fortschritte der jüngeren Medizingeschichte. Damit kann die Hepatitis C inzwischen bei fast allen Patienten sehr gut behandelt und in kurzer Zeit, nahezu ohne Nebenwirkungen, sogar geheilt werden. Die Hepatitis B kann mit den zugelassenen Medikamenten gut kontrolliert werden. Eine Impfung, die von der WHO seit 1992 empfohlen wird, schützt vor Hepatitis B – und gleichzeitig auch vor Hepatitis D (delta), da diese Erkrankung nur mit einer Hepatitis B gemeinsam vorkommen kann. Für die Therapie der Hepatitis delta ist seit einiger Zeit ein neues Medikament verfügbar.

Die weltweite Elimination der Hepatitis B und Hepatitis C, wie sie von der WHO angestrebt wird, ist mit den vorhandenen medizinischen Therapie- und Schutzmöglichkeiten realisierbar. Trotzdem stellt die Virushepatitis noch immer ein großes globales und EU-weites Gesundheitsproblem dar. Viele dieser Infektionen bleiben über Jahre oder sogar Jahrzehnte unerkannt und somit auch unbehandelt. Nur eine rechtzeitige Diagnose und Behandlung können die möglichen schweren Langzeitfolgen einer chronischen Hepatitis verhindern. Um diese Elimination in Deutschland zu unterstützen, ist die Deutsche Leberstiftung in verschiedenen Bereichen aktiv.

Im Februar 2022 organisierte die Deutsche Leberstiftung in Kooperation mit der Hepatitis B & C Public Policy Association (HepBCPPA) das virtuelle „Strategietreffen Virushepatitis in Deutschland eliminieren 2022“. Experten aus Medizin, Wissenschaft, Politik und Versorgungsforschung verständigten sich auf ein Positionspapier, in dem verschiedene Ziele und Maßnahmen formuliert wurden.

Seit Juni 2023 ist der „HCV-Tracker“, ein Kooperationsprojekt der Deutschen Leberstiftung und AbbVie Deutschland, online. „Auf der Website https://www.hcv-tracker.de werden regelmäßig aktualisierte Daten zu Hepatitis C-Neudiagnosen und zu den antiviralen Behandlungen in Deutschland veröffentlicht und zu modellierten Zielwerten ins Verhältnis gesetzt. Dafür werden unter anderem Daten des RKI und aus dem ‚IQVIA Contract Monitor‘ verwendet. Die so entstandenen Grafiken zeigen, wo Deutschland auf dem Weg zur HCV-Elimination bis 2030 steht. Damit schließen wir eine Datenlücke und unterstützen die Elimination“, erklärt Prof. Dr. Michael P. Manns, Vorstandsvorsitzender der Deutschen Leberstiftung.

Eine Verbesserung, die eine aktive Umsetzung des diesjährigen Mottos des Welt-Hepatitis-Tages „Ich warte nicht. Ich handele!“ erleichtert, gibt es in Deutschland bereits: Seit der Umstrukturierung des Präventionsprogramms für gesetzlich Versicherte, das bis März 2019 unter dem Namen „Check-up 35“ geführt wurde, wird seit Oktober 2021 auch das einmalige Screening auf Hepatitis B und C angeboten. Damit sollen bislang unentdeckte Infektionen mit den Hepatitisviren B und C erkannt und betroffenen Menschen soll eine möglichst frühzeitige Behandlung angeboten werden.

Deutsche Leberstiftung
Die Deutsche Leberstiftung befasst sich mit der Leber, Lebererkrankungen und ihren Behandlungen. Sie hat das Ziel, die Patientenversorgung durch Forschungsförderung, Forschungsvernetzung und wissenschaftliche Projekte zu verbessern. Mit intensiver Öffentlichkeitsarbeit steigert die Stiftung die öffentliche Wahrnehmung für Lebererkrankungen, damit diese früher erkannt und geheilt werden können. Die Deutsche Leberstiftung bietet außerdem Information und Beratung in medizinischen Fragen. Auf der Website finden Sie umfangreiche Informationen sowie Bildmaterial für Betroffene, Interessierte, Angehörige der Fachkreise und Medienvertreter: https://www.deutsche-leberstiftung.de.

UNSERE BUCHEMPFEHLUNGEN
„Das große Kochbuch für die Leber“ – 122 Rezepte mit allen wichtigen Nährwertangaben; Küchentipps und Regeln für eine lebergesunde Ernährung, September 2022. Das Buch ist im Buchhandel erhältlich: ISBN 978-3-8426-3100-7 € 28,00 [D].
https://www.deutsche-leberstiftung.de/Kochbuch-Leber/

„Das Leber-Buch“ informiert allgemeinverständlich und umfassend über die Leber, Lebererkrankungen, ihre Diagnosen und Therapien, 4. erweitere und aktualisierte Auflage September 2021, im Buchhandel erhältlich: ISBN 978-3-8426-3043-7, € 19,99 [D].
https://www.deutsche-leberstiftung.de/Leber-Buch/

Rezensionsexemplare können über asche@humboldt.de angefordert werden.

Kontakt
Deutsche Leberstiftung
Bianka Wiebner
Carl-Neuberg-Straße 1
30625 Hannover
Tel 0511 – 532 6815
Fax 0511 – 532 6820
presse@deutsche-leberstiftung.de
https://www.deutsche-leberstiftung.de

Weitere Informationen:
https://www.deutsche-leberstiftung.de
https://www.deutsche-leberstiftung.de/presse/aktuelle-pressemitteilungen/
https://www.deutsche-leberstiftung.de/downloads/strategietreffen/strategietreffe…
https://www.hcv-tracker.de

(nach oben)


Auffrischimpfung gegen COVID-19:Anpassung der Auffrischimpfstoffe gegen Omikron-Varianten bedeutsam für COVID-19-Schutz

Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Nicht an Omikron-Varianten angepasste COVID-19-mRNA-Impfstoffe führen als Auffrischimpfungen (3. und 4. Impfung) zwar zu höheren Blutspiegeln neutralisierender Antikörper gegen die Omikron-Subvarianten. Jedoch fallen diese Antikörpertiter sechs Monate nach der dritten oder vierten Impfung deutlich ab. Die vierte Impfung hatte ebenfalls keinen Einfluss auf die Breite der Immunantwort gegen verschiedene Virusvarianten. Auch bei der Grundimmunisierung mit Comirnaty waren nur geringe Mengen an neutralisierenden Antikörpern gegen Omikron vorhanden. Dies sind die Ergebnisse einer klinischen Studie, die das Paul-Ehrlich-Institut bei geimpften Angehörigen der Gesundheitsberufe durchgeführt hat.

Auffrischimpfung zur Stärkung des immunologischen Gedächtnisses
Zum Schutz vor COVID-19 werden in den meisten Altersgruppen Auffrischimpfungen empfohlen. Diese werden aus mehreren Gründen durchgeführt: Der Antikörpertiter steigt innerhalb der ersten zwei Wochen nach einer Auffrischimpfung rasch an und bietet den besten Schutz vor COVID-19. Im Anschluss sinkt er innerhalb der ersten Monate auf ein Basisniveau ab. Dieses Basisniveau wird durch das immunologische Gedächtnis aufgebaut bzw. aufgefrischt. Dabei kommt es zu einer Zunahme von Gedächtnis-B-Zellen und langlebenden Plasmazellen, die wiederum die Antikörper bilden. Beides sind wichtige Säulen der auf Antikörpern basierenden humoralen Immunantwort. Darüber hinaus stimuliert die Auffrischimpfung eine breitere humorale Immunantwort, die durch Differenzierungsvorgänge der Antikörpergene (somatische Hypermutation) und die Reifung der Antikörperaffinität erzeugt wird.

Omikron-Varianten des SARS-CoV-2 machen Impfstoffanpassungen erforderlich
Seit Anfang 2022 dominieren Omikron-Subvarianten des Coronavirus SARS-CoV-2. Die Omikron-Subvarianten weisen ein enormes Ausweich(Escape)-Potenzial aufgrund der Zerstörung bzw. Deletion verschiedener Bereiche des Virus auf, die für die Immunantwort bedeutsam sind (Epitope). Dadurch entkommen die entsprechenden Virusvarianten der Immunantwort. Dies erklärt auch, warum die Anzahl der Durchbruchsinfektionen bei geimpften Personen seit dem Auftreten der Omikron-Subvarianten signifikant gestiegen ist: Aufgrund der zahlreichen Mutationen im Spike-Protein können viele der durch Impfung und/oder Infektion induzierten Antikörper nicht an das mutierte Spike-Protein binden und dadurch auch nicht ihr neutralisierendes Potenzial entfalten.

Klinische Studie zeigt: Nicht an Omikron angepasste COVID-19-Impfstoffe sorgen nicht für anhaltend hohe Antikörperspiegel gegen Omikron-Varianten
Ein Forschungsteam des Paul-Ehrlich-Instituts unter Leitung von Prof. Eberhard Hildt, Leiter der Abteilung Virologie, hat den Einfluss der ursprünglichen mRNA-Impfstoffe Comirnaty (BioNTech) bzw. Spikevax (Moderna), die noch nicht an die Omikron-Varianten angepasst waren, in einer klinischen Studie auf den Schutz vor Omikron-Varianten durch neutralisierende Antikörper untersucht. Nach der Grundimmunisierung (Comirnaty) waren bei den Studienteilnehmerinnen und Studienteilnehmern nur geringe Blutspiegel (Titer) an neutralisierenden Antikörpern gegen Omikron vorhanden. Auffrischimpfungen (3. und 4. Impfung) mit dem zu diesem Zeitpunkt ebenfalls noch nicht an Omikron-Varianten angepassten monovalenten mRNA-Impfstoff Spikevax führten zwar zu höheren Titern neutralisierender Antikörper gegen die Omikron-Variante. Jedoch fielen die Antikörpertiter auch nach der vierten Impfung (2. Auffrischimpfung) sechs Monate nach der Impfung deutlich ab – wie auch schon zuvor nach der dritten Impfung. Auch hatte die vierte Impfung keinen Einfluss auf die Breite der Antikörper-basierten Immunantwort, die einen Hinweis darüber gibt, inwieweit Schutz vor Infektion mit verschiedenen Virusvarianten besteht.

Die Ergebnisse auch dieser Studie weisen auf die Bedeutung der an Omikron-Subvarianten angepassten COVID-19-Impfstoffe für Auffrischimpfungen hin.

Die Ständige Impfkommission (STIKO) empfiehlt für Auffrischimpfungen entsprechend an Omikron-Subvarianten angepasste mRNA-Impfstoffe gegen COVID-19.

Über die Ergebnisse berichtet Science Reports ausführlich.

Originalpublikation:
Hein S, Sabino C, Benz NI, Görgülü E, Maier J, Oberle D, Hildt E (2023): The fourth vaccination with a non-SARS-CoV-2 variant adapted vaccine fails to increase the breadth of the humoral immune response.
Sci Rep 13: 10820
DOI: https://doi.org/10.1038/s41598-023-38077-x

Weitere Informationen:
https://www.nature.com/articles/s41598-023-38077-x – Volltext des Artikels
https://www.pei.de/DE/newsroom/pm/jahr/2023/08-anpassung-covid-19-impfstoffe-omi… – Diese Pressemitteilung auf den Internetseiten des Paul-Ehrlich-Instituts

Anhang
Kurze Zusammenfassung Ergebnisse als Audiozitat

(nach oben)


Resilienz der Stromversorgung: Erfolgreiche Feldtests zum Hochfahren des Netzes mit Windparks und Flächenkraftwerken

Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Expertinnen und Experten des Fraunhofer IEE und der Unternehmen ENERCON, Alterric Deutschland, DUtrain und Westnetz haben in Rheinland-Pfalz gemeinsam gezeigt, wie ein Windpark gesteuert werden muss, so dass er nach einem großflächigen Stromausfall zum Wiederaufbau des Stromnetzes beitragen kann. Weitere Feldtests mit einem Solar-Flächenkraftwerk verliefen ebenfalls erfolgreich. Diese und weitere Ergebnisse wurden im Abschlussbericht des dreijährigen Forschungsprojektes „SysAnDUk – Systemdienliche Anforderungen an Dezentrale Erzeugungsanlagen zur Unterstützung in kritischen Netzsituationen und des Netzwiederaufbaus“ veröffentlicht.

„Das deutsche Stromnetz ist eines der zuverlässigsten der Welt. Dennoch ist die Resilienz von großer Bedeutung. Im Falle eines großflächigen Stromausfalls ist sehr entscheidend, dass wir schnell wieder zum Normalbetrieb zurückkehren“, erläutert Gesamtprojektleiter Holger Becker, Fraunhofer IEE, die Zielsetzung des Forschungsprojektes. Ausgangspunkt der Fragestellung war, dass sich die nötigen Schritte zum Wiederanfahren des Stromnetzes im Zuge der Energiewende verändert haben: Mit dezentralen Anlagen ist ein Neustart für die Netzbetreiber deutlich komplexer als mit Großkraftwerken: „Windparks und Solarkraftwerke können beim Hochfahren des Netzes einen aktiven Beitrag leisten, das ist technisch anspruchsvoll, aber möglich, wie unsere Feldversuche eindeutig gezeigt haben“, so Becker.

Der Feldtest fand im Gebiet des Verteilnetzbetreibers Westnetz statt. In Kümbdchen bei Mainz haben der Windenergieanlagenhersteller ENERCON und der Windparkbetreiber Alterric Deutschland in Zusammenarbeit mit den Projektpartnern ein Wiederanfahren unter realen Bedingungen geprobt. Im Mittelpunkt der Arbeiten stand die zentrale Steuerung des Windparks über die Leitstelle des Verteilnetzbetreibers sowie die Erstellung und Übertragung einer genauen Prognose der zu erwartenden Einspeiseleistung. Getestet wurden dabei die erweiterten elektrischen Eigenschaften der Anlage und neue Funktionen von Windparkreglern sowie eine mögliche Integration der Anlage in das Reservemanagement des Netzbetriebs.

„Akkurate Windprognosen ermöglichen den planbaren Einsatz von Windenergieanlagen im Normalbetrieb und in kritischen Situationen im Netz. Im Projekt wurde eine Prognostik entwickelt, die stör- und schwarzfallrobust in jeder Netzsituation den Netzbetreiber mit aktuellen Daten versorgen kann“, berichtet Lukas Holicki, Projektleiter bei ENERCON. „Dabei werden Modellrechnungen mit dezentral verfügbaren Beobachtungsdaten kombiniert und anlagenspezifische Eigenschaften und Betriebsdaten genutzt, um den Verlauf der zu erwartenden Einspeiseleistung mit hoher Zuverlässigkeit vorherzusagen. Zusammen mit einer speziell entwickelten Windparkregelung können Windenergieanlagen so zukünftig Systemverantwortung übernehmen und einen notwendigen Beitrag zur Stabilität und Resilienz unserer Stromnetze liefern. Diesen Aufgaben werden wir im Rahmen der Energiewende mit Windenergie begegnen müssen“, so Holicki.

In einem weiteren Projektstrang wurde am Fraunhofer IEE ein Flächenkraftwerk entwickelt, mit dem Photovoltaikanlagen in einer Region zusammengeschlossen und zentral gesteuert werden können. Zudem werden Prognosen für diese Anlagen erstellt. Dadurch wird es möglich, eine Vielzahl von Kleinstanlagen über eine Leitstelle gezielt einzusetzen und so Eigenschaften wie bei einem Großkraftwerk zu generieren. Die Flexibilitäten des Flächenkraftwerks ermöglichen damit insbesondere die gezielte Unterstützung des Wiederaufbaus des Stromnetzes in sonnenreichen Situationen, wie erste Feldtests des Systems exemplarisch gezeigt haben.

Netzwiederaufbau erfordert koordiniertes Zuschalten der Erzeugungsanlagen
Um ein Stromnetz nach einem Blackout wieder hochzufahren, kommt es darauf an, zunächst mit sogenannten schwarzstartfähigen Erzeugungsanlagen funktionierende elektrische Inseln zu bilden und diese dann schrittweise zu verbinden. Nach dem Schwarzstart kann die weitere benötigte Erzeugungsleistung durch Großkraftwerke oder durch einen Verbund von mehreren Photovoltaikanlagen und Windparks geliefert werden. Da Großkraftwerke an das Übertragungsnetz und die meisten Wind- und Photovoltaikanlagen an das Verteilnetz angeschlossen sind, müssen beide Netzsysteme im Fall von Störungen sehr koordiniert vorgehen.

Für die Verteilnetzbetreiber ergibt sich daraus eine aktive Rolle beim Netzwiederaufbau: „Die Veränderungen der Erzeugungs- und Laststruktur auf der Verteilnetzebene erfordern neue Fähigkeiten der Verteilnetzbetreiber. Dies gilt bereits für den Normalbetrieb, aber auch für Extremsituationen wie den Netzwiederaufbau“, analysiert Jonathan Bergsträßer, Fraunhofer IEE, die Konsequenzen des Ausbaus der erneuerbaren Energien für das Stromnetz. „Beim Wiederanfahren werden Flächenkraftwerke sowie Anlagenparks zu einem aktiven Werkzeug, um situationsgerechte Entscheidungen zu treffen, umzusetzen und anschließend zu überwachen“, so Bergsträßer.

„Uns Verteilnetzbetreibern kommt mit der Energiewende eine neue Rolle im Energiesystem zu – auch beim Wiederhochfahren nach einem großflächigen Stromausfall. Daher ist es für uns umso wichtiger, notwendige neue Anforderungen an Erzeugungsanlagen und hinsichtlich unserer Leitsystemfunktionen, möglichst frühzeitig zu identifizieren. Genau das haben wir im Rahmen dieses Projektes gemacht – im intensiven Austausch mit allen Expert*innen“, ergänzt Thomas Schmidt, Projektleiter bei Westnetz.

Als zentraler Bestandteil der Forschungsarbeiten kam ein Trainingssimulator zum Einsatz, der die Wechselwirkungen zwischen Erzeugungsanlagen und Stromnetz aufzeigt und ein gemeinsames Verständnis aller Partner ermöglichte. „Durch die Verwendung realistischer Netzwiederaufbauszenarien werden der Datenaustausch, die Beobachtungs- und Steuermöglichkeiten sowie die erforderlichen Handlungen entwickelt, validiert und verifiziert“, erläutert Udo Spanel, Geschäftsführer des Trainingsunternehmens DUtrain, das Verfahren. „Das ermöglichte ein effizientes und zielgerichtetes Vorgehen“, so Spanel.

Innovative Technik muss zum Standard werden
Der Betrieb der Stromnetze richtet sich nach den konkreten Gegebenheiten vor Ort und unterscheidet sich damit von den viel abstrakteren Handelsvorgängen am Markt. Denn bei der Preisbildung am Markt wird pauschal ein größeres Gebiet betrachtet. Rein physikalisch kommt es beim Netzwiederaufbau hingegen darauf an, dass die dezentralen Einheiten die notwendige räumliche Nähe aufweisen und die Netzstruktur beachtet wird. Nur dann lassen sich Inselnetze unter Verwendung von dezentralen Erzeugungsanlagen aufbauen, die wie Zellen mit weiteren Einheiten und untereinander verbunden werden können.

Mit dem Fortschreiten der Energiewende steigen die technischen Anforderungen an dezentrale Erzeugungsanlagen. Die Ergebnisse des Verbundvorhabens zeigen, dass die innovative Technik zum netzdienlichen Einsatz von dezentralen Anlagen zuverlässig funktioniert. Dies steht jedoch derzeit in den unteren Netzebenen noch nicht standardmäßig zur Verfügung. Denn Voraussetzung dafür sind eine entsprechende Kommunikation und Steuerung. In diesem Zuge wird der deutschlandweite Rollout des Smart-Meters mit seiner bidirektionalen Kommunikation auch Bestandsanlagen ermöglichen, sich an ein Flächenkraftwerk anzubinden. Darüber hinaus kann mit dem künftigen 450 MHz Mobilfunknetz eine robuste Kommunikation realisiert werden, die auch bei einem Blackout funktioniert.

Insgesamt steigen mit dem Ausstieg aus der Kohleverstromung und der Stilllegung von Großkraftwerken die Herausforderungen an den Betrieb der Stromnetze und insbesondere an die Netzstabilität beim Wiederaufbau. Hier sind noch weitere Lösungen zu erarbeiten. Die Entscheidung über weitere Forschungsprogramme liegt bei der Politik. Welche Investitionen dann von den Unternehmen umgesetzt werden, wird durch die Bundesnetzagentur reguliert.

Der Abschlussbericht zum Projekt „SysAnDUK – Systemdienliche Anforderungen dezentraler Erzeugungsanlagen zur Unterstützung in kritischen Netzsituationen und des Netzwiederaufbaus“ ist unter folgendem Link abrufbar: https://www.iee.fraunhofer.de/de/projekte/suche/laufende/SysAnDUk.html

Wissenschaftliche Ansprechpartner:
Dipl.-Ing. Holger Becker
Bereich Netzplanung und Netzbetrieb
Fraunhofer IEE
holger.becker@iee.fraunhofer.de

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2023/resilienz-de…

(nach oben)


PFAS-kontaminiertes Wasser wird wieder sauber – erfolgversprechendes und umweltschonendes Verfahren entwickelt

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Vom Menschen gemachte Umweltbelastungen gibt es viele. Zu den gravierendsten gehört die Verschmutzung mit der gesundheitsschädlichen Ewigkeitschemikalie PFAS, die in vielen Böden und Gewässern und damit auch in unserer Nahrung zu finden ist. Sie zu entfernen ist zwar möglich, aber aufwendig und produziert Sondermüll. Nun ist es Forschenden des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB gelungen, ein Verfahren zu entwickeln, mit dem PFAS energieeffizient aus kontaminiertem Wasser entfernt werden könnten. Das Projekt AtWaPlas endete dieser Tage nach zwei Jahren Forschungsarbeit mit konkret anwendbaren Ergebnissen.

Per- und polyfluorierte Alkylverbindungen, kurz PFAS (engl.: per- and polyfluoroalkyl substances) kommen in der Natur eigentlich nicht vor. Industriell hergestellt ist diese Gruppe aus mehr als 10 000 Chemikalien aber in vielen Dingen unseres Alltags zu finden. Ob in Zahnseide, Backpapier, Outdoorkleidung oder Lösch- und Pflanzenschutzmitteln – überall sorgen PFAS dafür, dass die Produkte wasser-, fett- und schmutzabweisend sind. Eigentlich nicht schlecht, aber: Sie sind außerordentlich stabil, können weder durch Licht, Wasser oder Bakterien abgebaut werden und sind mittlerweile alleine in Deutschland an tausenden Orten in Böden, Gewässern und Grundwasser nachzuweisen und damit auch in unserer Nahrung. So reichern sich diese giftigen Ewigkeitschemikalien auch im menschlichen Körper an, mit erheblichen gesundheitlichen Auswirkungen, die von der Schädigung von Organen bis hin zu Krebserkrankungen oder Entwicklungsstörungen reichen.

Möglichkeiten, PFAS wieder aus der Umwelt zu entfernen, gäbe es theoretisch schon. Diese sind aber äußerst aufwendig und teuer. Bei einer Filterung durch Aktivkohle beispielsweise werden PFAS zwar gebunden, aber nicht beseitigt, sodass die Überreste im Sondermüll entsorgt bzw. gelagert werden müssen. Ein gravierendes Umweltproblem, für dessen Lösung die Zeit drängt.

Plasma zerstört die Molekülketten der PFAS-Chemikalien
Deshalb haben es sich im Verbundprojekt AtWaPlas (für: Atmosphären-Wasserplasma-Behandlung) Forschende am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik in Stuttgart gemeinsam mit dem Industriepartner HYDR.O. aus Aachen bereits 2021 zur Aufgabe gemacht, ein effizientes, kostengünstiges Verfahren zu entwickeln, um die toxischen Substanzen möglichst vollständig beseitigen zu können. Dabei lag der Part der Forschungsarbeiten beim IGB, die Wasserproben stammten vom Projektpartner, der unter anderem auf Altlastensanierung spezialisiert ist.

Mit Erfolg: Nach nur zwei Jahren Projektlaufzeit ist es den Forschenden um Dr. Georg Umlauf, Experte für funktionale Oberflächen und Materialien, gelungen, ein Verfahren zu erarbeiten, das auf dem Einsatz von Plasma basiert, und mit dem die Molekülketten der PFAS abgebaut werden können – auch bis zur vollständigen Mineralisierung des Umweltgifts.

Plasma ist ein ionisiertes und damit elektrisch äußerst aktives Gas, das die Forschenden durch Anlegen einer Hochspannung in einem zylinderförmigen, kombinierten Glas-Edelstahlzylinder erzeugen. Anschließend wird das kontaminierte Wasser zur Reinigung durch den Reaktor geleitet. In der Plasmaatmosphäre werden die PFAS-Molekülketten aufgebrochen und damit verkürzt. Der Vorgang in dem geschlossenen Kreislauf wird mehrere Male wiederholt, dabei jedes Mal die Molekülketten um ein weiteres Stück verkürzt, so lange, bis sie vollständig abgebaut sind.

Nach wenigen Stunden im Reaktor sind die Gifte abgebaut
Gestartet wurden die Forschungsarbeiten in einem kleinen Laborreaktor mit einem Probenvolumen von einem halben Liter. »Diesen konnten wir relativ schnell durch einen 5-Liter-Pilotreaktor ersetzen und im größeren Maßstab experimentieren«, berichtet Umlauf. »Der nächste Schritt wäre nun ein noch größerer Wassertank − sicher auch machbar. «

Das Wasser, das die Forschenden für ihre Tests verwendeten, war kein Leitungswasser mit zugesetzten PFAS, sondern »echtes Wasser« – sogenannte Realproben: »Das Wasser stammt aus PFAS-kontaminierten Gebieten und ist eine wilde Mischung aus verschiedensten Partikeln wie Schwebstoffen und organischen Trübungen«, sagt Umlauf. »Für den Reinigungsvorgang kein Problem, wie unsere Versuche ergaben: Bereits nach zwei Stunden, in denen die Grundwasserproben durch den Reaktor gepumpt worden waren, konnten wir einen nennenswerten Abbau der Kohlenstoffkettenlänge beobachten; nach sechs Stunden war die PFAS-Konzentration deutlich verringert, also ein Großteil der Chemikalien aus der Probe entfernt. Dies deckt sich mit Vermutungen, die bereits vor einiger Zeit in der Literatur geäußert wurden. Das heißt, wir konnten nachweisen, dass die Praxis mit der Theorie übereinstimmt.«

Mit dem gleichen Aufbau lässt sich die Plasma-Methode auch zur Aufreinigung anderer Wasserverschmutzungen einsetzen, etwa von Medikamentenrückständen, weiteren Industriechemikalien oder Pflanzenschutzmitteln. Untersucht wurde dies in vorangegangenen Projekten WaterPlasma und WasserPlasmax. Auch könnte der Reaktor mit etwas weiterer Entwicklungsarbeit einmal energieeffizient mit Umgebungsluft betrieben werden: »In unseren Vorstellungen sehen wir die Plasmaanlage in Containern stehen, die mobil an lokalen Schadstellen oder Brunnen eingesetzt werden können, um Trinkwasser flexibel und umweltschonend aufzubereiten«, wagt Umlauf den Blick in die Zukunft.

Vorstellung des Verfahrens auch beim Abwasserkolloquium am 25. September 2023
Die neuesten Ergebnisse zur Aufbereitung von Realproben wurden vom Projektpartner Hydr.O bereits in Paris auf der Konferenz »2nd International Congress – Management of Environmental & Health Risks« präsentiert. Hier wurde mit AtWaPlas erstmals ein Verfahren vorgestellt, das PFAS nicht nur sammelt – wie bei den bisher angewandten Verfahren z. B. mittels Aktivkohlefiltern oder Umkehrosmosen −, sondern die Umweltgifte eliminiert und im günstigsten Fall sogar vollständig mineralisiert.

Am 30. Juni 2023 wurde AtWaPlas mit einem offiziellen Abschlusstreffen in Aachen beendet. Auch hier wurde eine Zusammenfassung der wichtigsten Resultate vorgestellt. Beide Projektpartner betonten besonders die positive Zusammenarbeit während des Forschungsvorhabens.

Gemeinsam mit anderen Themen rund um Spurenstoffe wird das Verfahren außerdem Thema auf dem 22. Kolloquium zur Abwasserbehandlung am 25. September 2023 in Stuttgart sein.

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2023/pfas-kon…

(nach oben)


Genehmigung der künstlichen Grundwasseranreicherung in Berlin könnte Priorisierung der Wassernutzung minimieren

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Hydrogeologin Irina Engelhardt über eine Technologie, mit der in Dürreperioden deutlich weniger Wasser rationiert werden müsste, sondern zusätzlich zur Verfügung stünde / Aufruf zur Beteiligung am Citizen-Science-Projekt „Gewässerbeobachtungen im Gebiet der Unteren Spree“

Um in Berlin und Brandenburg vor Dürreperioden gewappnet zu sein, plädiert die Hydrogeologin Prof. Dr. Irina Engelhardt dafür, die künstliche Grundwasseranreicherung zu nutzen. „Diese Technologie ermöglicht es, in Dürreperioden zusätzliches Wasser zur Verfügung zu stellen“, sagt die Professorin, die an der TU Berlin das Fachgebiet Hydrogeologie leitet. Bei der künstlichen Grundwasseranreicherung wird Oberflächenwasser, was bei Starkregenereignissen im Frühjahr, Herbst und Winter von Dächern und Straßen abfließt und aufgrund der Wassermassen nicht versickert, zwischengespeichert und dann gezielt in den Boden künstlich versickert oder injiziert. Durch die Bodenpassage erfolgt zusätzlich eine Reinigung.

Auf diesem Wege wird die Grundwasserressource künstlich erhöht. Länder wie Spanien, Griechenland, Israel, Jordanien infiltrieren auch gereinigtes Abwasser und nutzen dies nach einer Bodenpassage zur landwirtschaftlichen Bewässerung. Ohne die künstliche Grundwasseranreicherung wären diese Länder kaum mehr in der Lage ihre Landwirtschaft zu versorgen, so Irina Engelhardt im Interview. Israel zum Beispiel recycelt 90 Prozent seines Abwassers. In Deutschland sei diese Technologie bislang nicht umgesetzt, weil die Wasserbehörden eine Verunreinigung des Grundwassers befürchten. Forschungsarbeiten in Spanien und Israel zeigen jedoch, dass diese Methode nur ein geringes Gefährdungspotenzial aufweist. Relevant ist jedoch, geeignete landwirtschaftlichen Kulturen und Bodensubstrate mit einem gutem Abbaupotenzial für Schadstoffe auszuwählen. Zusätzlich ist ein kontinuierliches Monitoring der Wasserqualität unerlässlich.

„Bewässerung des Stadtgrüns zu untersagen ist nicht sinnvoll“
Die Nutzung von recyceltem Grauwasser würde es zum Beispiel auch erlauben, Stadtgrün wie Parks, Friedhöfe und Straßenbäume in Dürreperioden zu bewässern, anstatt verdorren zu lassen, weil es an Wasser mangelt und das Trinkwasser dafür zu schade ist. „Aufgrund des Klimawandels sind städtische Grünflächen extrem wichtig geworden, damit Städte wie Berlin in Hitze- und Dürreperioden lebenswert bleiben und nicht zu einer Gefahr für die Gesundheit werden. Wir brauchen die Parks, die Friedhöfe, die Straßenbäume für das Stadtklima und die Erholung. Die Bewässerung des Stadtgrüns zu untersagen ist für mich nicht sinnvoll im Kontext einer Klimaanpassungsstrategie. Geboten wäre vielmehr überschüssiges Wasser aus den Frühjahr-, Herbst- und Wintermonaten oder gereinigtes Grauwasser zu nutzen, als es ungenutzt in die Kanalisation abfließen zu lassen. Je stärker der Klimawandel durchschlägt, desto stärker werden – so die Prognosen – die Unterschiede hinsichtlich des Niederschlags zwischen Herbst/Winter und Sommer. Und umso dringlicher wird es, die Niederschläge im Frühjahr, Herbst und Winter zwischen zu speichern, um sie in den Sommermonaten dann zu nutzen“, sagt Irina Engelhardt.

Das gesamte Interview mit Prof. Dr. Irina Engelhardt über Wassermanagement in Dürreperioden, die Notwendigkeit von Wasserbilanzen und ein neues Forschungsprojekt zur Abschätzung der Folgen für den Spreewald im Zusammenhang mit dem Braunkohleausstieg und dem Klimawandel lesen Sie unter: https://www.tu.berlin/go228823/

Im Rahmen des Forschungsprojektes SpreeWasser:N sammelt die Forschungsgruppe um Prof. Dr. Irina Engelhardt im Jahr 2023 Beobachtungen der Anwohnerinnen und Anwohner im Einzugsgebiet der Unteren Spree. Die Bürgerinnen und Bürger in diesem Gebiet sind aufgerufen, ihre Gewässerbeobachtungen im Bereich der Unteren Spree zu melden. Weiter Informationen zu diesem Citizen Science-Projekt unter: https://www.spreewasser-n.de/buergermeldungen/

Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Irina Engelhardt
TU Berlin
Fachgebiet Hydrogeologie
Tel.: 030/314-24088
E-Mail: irina.engelhardt@tu-berlin.de

(nach oben)


Gift atmen: Mikrobielles Leben dank Stickoxid

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Ob und wie Mikroorganismen NO als Substrat zum Wachsen nutzen können, ist kaum erforscht. Forschenden des Max-Planck-Instituts für Marine Mikrobiologie in Bremen ist es gelungen, seit mittlerweile mehr als vier Jahren Mikroorganismen auf NO wachsen zu lassen. Die Gemeinschaft wird von zwei bisher unbekannten Arten dominiert, deren Stoffwechsel genau unter die Lupe genommen wurde. Die Ergebnisse, jetzt in Nature Microbiology veröffentlicht, geben einen Einblick in die Physiologie der NO-reduzierenden Mikroorganismen, die eine entscheidende Rolle bei der Kontrolle klimaaktiver Gase, in Klärwerken und bei der Entwicklung der Nitrat- und Sauerstoffatmung spielen.

Stickstoffmonoxid (NO) ist ein faszinierendes und vielseitiges Molekül, wichtig für alle Lebewesen und unsere Umwelt. Es ist giftig und sehr reaktionsfreudig, es kann Signale übertragen, es zerstört die Ozonschicht unseres Planeten und es ist der Vorläufer des Treibhausgases Lachgas (N2O). Zudem könnte NO eine grundlegende Rolle bei der Entstehung und Entwicklung des Lebens gespielt haben, da es als energiereiches Oxidationsmittel verfügbar war, lange bevor es auf der Erde Sauerstoff gab.

Trotz seiner toxischen Wirkung ist es also durchaus sinnvoll für Mikroorganismen, NO zum Wachsen zu nutzen. Bislang wurde aber nur wenig zu dem Thema geforscht und es war noch nicht gelungen, Mikroorganismen, die auf NO wachsen, zu kultivieren. Das hat sich nun geändert, berichten Forschende um Paloma Garrido Amador und Boran Kartal vom Max-Planck-Institut für Marine Mikrobiologie in Bremen in der Zeitschrift Nature Microbiology. Ihnen ist es gelungen, zwei bisher unbekannte Arten von Mikroorganismen, die auf NO in Bioreaktoren wachsen, anzureichern und spannende Aspekte ihrer Lebensweise aufzudecken.

Aus der Kläranlage in den Bioreaktor
Die Studie begann mit einem Besuch in der Bremer Kläranlage. „Wir sammelten Schlamm aus dem Denitrifikationsbecken“, berichtet Garrido Amador. „Den brachten wir in unser Labor, füllten ihn in einen unserer Bioreaktoren und begannen die Inkubation, indem wir ihn mit NO fütterten.“ Bioreaktoren dienen dazu, Mikroorganismen unter kontrollierten Bedingungen, die ihrer natürlichen Umgebung sehr ähnlich sind, zu züchten. Die Einrichtung dieses Bioreaktors war jedoch eine große Herausforderung, erzählt Garrido Amador: „Da NO giftig ist, benötigten wir spezielle Ausrüstung und mussten sehr vorsichtig mit den Kulturen umgehen, um uns selbst nicht zu gefährden. Trotzdem ist es uns gelungen, die Kulturen seit mehr als vier Jahren wachsen zu lassen – und sie sind immer noch wohlauf!“

Zwei neue Mikroorganismen
Die Bedingungen im Bioreaktor bevorzugten also Mikroorganismen, die in Anwesenheit von NO leben und anaerob wachsen können. „Es zeigte sich, dass zwei bisher unbekannte Arten die Kultur dominierten“, sagt Boran Kartal, Gruppenleiter der Forschungsgruppe Mikrobielle Physiologie am Max-Planck-Institut in Bremen. „Wir nannten sie Nitricoxidivorans perserverans und Nitricoxidireducens bremensis.“ Garrido Amador ergänzt: „Anhand dieser zwei Mikroben, die auf NO wachsen, haben wir viel darüber herausgefunden, wie sogenannte Nicht-Modellorganismen – insbesondere solche, die NO reduzieren – wachsen. Einige unserer Beobachtungen machen deutlich, dass diese Mikroben sich anders verhalten als Modellorganismen – Organismen, die leicht zu kultivieren und daher umfassend erforscht sind. Wir zeigen auch, dass Aussagen über den mikrobiellen Stoffwechsel allein anhand von Genomanalysen nur eingeschränkt möglich sind.“

Bedeutung für die Umwelt und praktische Anwendungen
„Derzeit wissen wir nur wenig darüber, wie Mikroorganismen, die auf NO wachsen, zum Stickstoffkreislauf in natürlichen und künstlichen Lebensräumen beitragen“, erklärt Kartal. „Wir vermuten aber, dass diese Mikroorganismen sich von NO und N2O, das von anderen Mikroorganismen freigesetzt wird, ernähren, und dadurch nitrosativen Stress und die Freisetzung dieser klimawirksamen Gase in die Atmosphäre verringern könnten.“

Die angereicherten Mikroorganismen waren sehr effizient darin, NO in molekularen Stickstoff (N2) umzuwandeln. „Es gab praktisch keine Freisetzung des Treibhausgases Lachgas“, so Kartal weiter. Diese alleinige Produktion von N2 ist für praktische Anwendungen besonders relevant: Viele andere Mikroorganismen wandeln NO in Lachgas um, das ein starkes Treibhausgas ist. N2 hingegen ist harmlos. Jedes Molekül NO, das in N2 statt in Lachgas umgewandelt wird, ist also ein Molekül weniger, das zum Klimawandel beiträgt.

In einem nächsten Schritt kultivieren die Max-Planck-Forschenden weitere NO-atmende Mikroorganismen, die sie in natürlichen und künstlichen Lebensräumen sammeln. „Durch die Kultivierung und Anreicherung weiterer NO-atmender Mikroorganismen werden wir die Evolution der Stickoxid-Reduktion und der beteiligten Enzyme besser verstehen. So werden wir auch die Rolle von NO in bekannten und noch unbekannten Prozessen des Stickstoffkreislaufs und seine Bedeutung in natürlichen und künstlichen Umgebungen, in denen diese Prozesse ablaufen, entschlüsseln können“, schließt Garrido Amador.

Wissenschaftliche Ansprechpartner:
Paloma Garrido Amador
Doktorandin
Max-Planck-Institut für Marine Mikrobiologie, Bremen, Deutschland
Forschungsgruppe Mikrobielle Physiologie
Telefon: +49 421 2028-6530
E-Mail: pgarrido@mpi-bremen.de

Dr. Boran Kartal
Gruppenleiter
Max-Planck-Institut für Marine Mikrobiologie, Bremen, Deutschland
Forschungsgruppe Mikrobielle Physiologie
Telefon: +49 421 2028-6450
E-Mail: bkartal@mpi-bremen.de

Originalpublikation:
Paloma Garrido-Amador, Niek Stortenbeker, Hans J.C.T. Wessels, Daan R. Speth, Inmaculada Garcia-Heredia, Boran Kartal (2023): Enrichment and characterization of a nitric oxide-reducing microbial community in a continuous bioreactor. Nature Microbiology (2023). Published online July 10, 2023.

DOI: 10.1038/s41564-023-01425-8

Weitere Informationen:
https://www.mpi-bremen.de/Page6071.html Pressemeldung des MPIMM

(nach oben)


Mikrobielle Räuber bewirken saisonale Schwankungen bei der Abwasseraufbereitung

Dr. Elisabeth Hoffmann Kommunikation und Marketing
Universität zu Köln
Jahreszeitliche Temperaturschwankungen haben nur indirekten Einfluss auf die Bakteriengemeinschaft im Abwasser / Studie in „Water Research“ erschienen

Die Gemeinschaft der mikrobiellen Räuber beeinflusst die Zusammensetzung der Bakteriengemeinschaft im Abwasser. Dies erklärt jahreszeitliche Variationen der Mikrobengemeinschaft, die sich auf die Effizienz der Wasseraufbereitung auswirken. Das ergab eine Studie von Nils Heck und PD Dr. Kenneth Dumack vom Institut für Zoologie der Universität zu Köln. Die Studie ist unter dem Titel „Microeukaryotic predators shape the wastewater microbiome“ in der Fachzeitschrift „Water Research“ erschienen.

In Kläranlagen findet ein präzise abgestimmtes Zusammenspiel verschiedener Mikroorganismen statt, um Abwasser effektiv aufzubereiten. Ein Großteil der an der Wasseraufbereitung beteiligten Mikroorganismen ist allerdings immer noch weitgehend unbekannt. Neben den nützlichen Bakterien, die für die Reinigung des Abwassers verantwortlich sind, finden sich auch zahlreiche ihrer Fraßfeinde in den Klärbecken. Jedoch ist bisher wenig darüber bekannt, ob und in welchem Maße diese Räuber die Abwasseraufbereitung beeinflussen.

Seit der Einführung von Kläranlagen ist bekannt, dass die Jahreszeiten die bakterielle Gemeinschaft im Abwasser beeinflussen und somit auch die Effizienz der Wasseraufbereitung. Aber warum ist das so? Bakterien besitzen schließlich keinen Kalender. Diese Frage ist keineswegs trivial, da die jahreszeitlichen Veränderungen das Ergebnis einer Vielzahl von Faktoren sind. Die bekanntesten Faktoren sind sicherlich Temperatur- und Lichtverhältnisse, aber auch die chemische Zusammensetzung des Abwassers, Niederschlagsmengen und vieles mehr variieren im Laufe der Jahreszeiten. Welcher dieser Faktoren führt also zur Veränderung der Bakteriengemeinschaft über die Jahreszeiten hinweg?

Privatdozent Dr. Kenneth Dumack, der Leiter der Studie, erklärt: „Wir haben festgestellt, dass die jahreszeitlichen Schwankungen der Umgebungstemperatur nicht die Variation der Bakteriengemeinschaft erklären können. Dies hat uns überrascht, und deshalb haben wir nach einem anderen Faktor gesucht, der die Variation der Bakteriengemeinschaft erklären könnte.” Nils Heck, der Erstautor der Studie, führt weiter aus: “Dabei fanden wir heraus, dass die Gemeinschaft der mikrobiellen Räuber, wie Amöben, Wimperntierchen und auch Rädertiere, die Zusammensetzung der Bakteriengemeinschaft bis zu einem gewissen Grad erklären kann. Diese Räuber sind wiederum von der Umgebungstemperatur abhängig. Somit stellt der Temperaturfaktor einen indirekten Einfluss auf die Bakterien dar, der über die Gemeinschaft der Räuber vermittelt wird.“

Die neuen Erkenntnisse tragen dazu bei, die sogenannte „black box“ Abwasseraufbereitung besser zu verstehen, um so unter anderem Risiken für die Gesundheit zu vermeiden, die durch unzureichend behandeltes Abwasser entstehen können.

Presse und Kommunikation:
Mathias Martin
+49 221 470 1705
m.martin@verw.uni-koeln.de

Verantwortlich: Dr. Elisabeth Hoffmann – e.hoffmann@verw.uni-koeln.de

Wissenschaftliche Ansprechpartner:
PD Dr. Kenneth Dumack
Institut für Zoologie der Universität zu Köln
+49 221 470 8242
kenneth.dumack@uni-koeln.de

Originalpublikation:
„Microeukaryotic predators shape the wastewater microbiome“
https://doi.org/10.1016/j.watres.2023.120293

(nach oben)


LED-Frischenachweis für Obst

Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Perowskit-modifizierte LEDs zeigen Lebensmittelverderb an
Ein Forschungsteam hat Leuchtdioden (LEDs) hergestellt, die Licht in zwei Wellenlängenbereichen gleichzeitig ausstrahlen und für eine vereinfachte die Frischeüberwachung von Obst verwendet werden können. Wie die Forschenden in der Zeitschrift Angewandte Chemie schreiben, bewirkte eine Modifizierung mit Perowskitmaterialien, dass die LEDs auch im Nahinfrarotbereich emittierten, einem Wellenlängenbereich, der in der berührungsfreien Lebensmittelüberwachung wichtig ist.

Perowskite sind Kristalle, die Licht einfangen und umwandeln können. Wegen ihrer einfachen Herstellung und großen Effizienz werden Perowskite in Solarzellen, aber auch für andere Technologien eingesetzt und intensiv erforscht. Angshuman Nag und sein Team am Indian Institute of Science Education and Research (IISER) in Pune (Indien) stellen nun eine Anwendung in der LED-Technologie vor, die die Qualitätsprüfung von frischem Obst und Gemüse vereinfachen könnte.

Da unbehandelte LEDs nur in einem recht engen Lichtbereich ausstrahlen, werden sie für Raumlichtanwendungen mit lumineszierenden Substanzen beschichtet. Diese sogenannten Phosphor-konvertierten (pc) LEDs können den weißen Sonnenlichtbereich recht gut abdecken. Um darüber hinaus noch eine starke Bande im Nahinfrarotbereich zu erhalten, entwickelten Nag und seine Kolleg*innen eine besondere doppelt emittierende Beschichtung für pc-LEDs.

Diese bestand aus einem doppelten, sowohl mit Bismut als auch mit Chrom dotierten Perowskitkristall. Wie die Forschenden feststellten, strahlte die Bismutkomponente warmweißes Licht aus, während die Chromatome einen Teil der Energie in eine starke Bande im Nahinfrarot abgaben.

Nahinfrarotlicht (NIR) verwendet die Lebensmittelindustrie bereits, um Obst und Gemüse auf ihren Frischezustand zu überprüfen. „Nahrungsmittel enthalten Wasser, das die breite Nahinfrarotemission bei etwa 1000 Nanometern absorbiert“, erklären Nag und sein Doktorand Sajid Saikia, der Erstautor der Arbeit. „Je mehr Wasser [in Faulstellen] enthalten ist, desto stärker wird die NIR-Strahlung absorbiert und ein Bild, das unter Nahinfrarotlicht aufgenommen wird, zeigt einen dunkleren Kontrast. Mit diesem einfachen, berührungsfreien Bildgebungsvorgang können wir den Wassergehalt an verschiedenen Stellen des Lebensmittels abschätzen und somit die Frische bestimmen.“

Bei der Inspektion von Äpfeln und Erdbeeren fielen unter derart modifizierten pc-LEDs dunkle Stellen auf, die auf dem normalen Kamerabild nicht zu sehen waren. Durch die Beleuchtung sowohl mit weißem als auch NIR-Licht ließ sich sowohl die normale Färbung mit bloßem Auge als auch verborgene schlechtere Stellen entdecken.

Nag und sein Team stellen sich für die Zukunft ein kompaktes Gerät für eine gleichzeitig visuelle und NIR-Inspektion von Lebensmitteln vor. Das würde jedoch zwei Detektoren einschließen, einen für das sichtbare und einen für das NIR-Licht, was für allgemeinere Anwendungen kostenmäßig noch eine Herausforderung sein könnte. Andererseits sei die pc-LED selbst leicht, ohne Verlust von Chemikalien und lösungsmittelfrei herzustellen. Das Team ist deshalb zuversichtlich, dass sich solche dual emittierende pc-LEDs bei einer ausreichenden Qualifikation in der Langlebigkeit und Skalierbarkeit für allgemeine Anwendungen eignen werden.

Angewandte Chemie: Presseinfo 31/2023
Autor/-in: Angshuman Nag, Indian Institute of Science Education and Research, Pune (India), https://www.iiserpune.ac.in/research/department/chemistry/people/faculty/regular…

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202307689

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Grüner Wasserstoff – Orientierung im aktuellen Dschungel

Travis Müller Presse und Öffentlichkeitsarbeit
WHU – Otto Beisheim School of Management
Wirtschaftsführer und Experten diskutieren bei Nachhaltigkeits-Workshop am Düsseldorfer Campus der WHU – Otto Beisheim School of Management über die geplante „Wasserstoffwirtschaft“.

Die Klima-Uhr tickt. Wer sie stoppen will, könnte mit nachhaltig erzeigtem Wasserstoff erfolgreich sein – so lautet zumindest die Meinung der Experten, die kürzlich am Düsseldorfer Campus der WHU – Otto Beisheim School of Management zusammengekommen sind. Zahlreiche Fachleute aus Wirtschaft und Wissenschaft trafen sich am 6. Juli zu einem Workshop unter dem Titel „Wasserstoff – Orientierung im aktuellen Dschungel“, den die WHU gemeinsam mit ihren beiden Alumni Dr. Klaus Dirk Herwig (DR, 1993) und Erik Schäfer (D, 1988) veranstaltet hatte. Die Veranstaltung bot Wirtschaftsführern die Möglichkeit, Einblicke zu gewinnen in das Potenzial, das grüner Wasserstoff für die Umwelt und alle Bereiche der Wirtschaft bietet – angefangen von der Stahlproduktion über den Verkehr bis hin zum Thema Heizen.

Nach einer kurzen Einführung von Prof. Dr. Jürgen Weigand, Inhaber des Lehrstuhls für Industrieökonomik an der WHU, analysierten die Experten das Thema aus verschiedenen Perspektiven. Da sich der Diskurs über die Energieerzeugung in den vergangenen zehn Jahren stark verändert hat und der Energiebedarf der Gesellschaft in den kommenden Jahren voraussichtlich exponentiell steigen wird, sind sie überzeugt, dass grüner Wasserstoff der Weg in eine umweltfreundliche Zukunft ist. Bis es so weit ist, müssen jedoch noch zahlreiche Hindernisse überwunden werden, ein mangelndes Bewusstsein in den Unternehmen und im öffentlichen Sektor beispielsweise.

Gehe es um erneuerbare Energien und Klimawandel, heißt es laut Erik Schäfer oft: Wenn die Menschheit nicht aufgibt und verzichtet, kann es keine Hoffnung auf eine nachhaltige Zukunft geben. Schäfer, Vorstand der Green Investors AG und Industry Partner bei SENCO Capital, hält diese Sichtweise und die damit suggerierten Schuldgefühle für wenig hilfreich. Er setzt stattdessen auf grünen Wasserstoff. Die Einführung sei ein Gewinn für die Gesellschaft, so Schäfer, da sie es der Menschheit ermögliche, ihr bisher gekanntes Leben weiterhin zu genießen, ohne dem Planeten Schaden zuzufügen. Laut Schäfer verfügt Deutschland, das für seine technologischen Fähigkeiten bekannt ist, über alle notwendigen Ressourcen, um die vorgeschlagene „Wasserstoffwirtschaft“ in die Tat umzusetzen.

Tatsächlich gewinnt die Idee einer Wasserstoffwirtschaft auch in politischen Kreisen immer mehr an Akzeptanz. Ministerin Mona Neubaur (Ministerium für Wirtschaft, Industrie, Klimaschutz und Energie des Landes Nordrhein-Westfalen) versicherte den Workshop-Teilnehmern in einer Videobotschaft ihre Unterstützung. Zudem stellte Dr. Klaus Dirk Herwig, der auch Geschäftsführer von Hydrogy ist, sein kürzlich erschienenes Buch „WASSERSTOFF – Perspektiven, Potenziale und Lösungen für KMU-Unternehmen“ vor, das Unternehmern, Mut machen und ihnen helfen will, sich mit grünem Wasserstoff auseinanderzusetzen.

Dr. Heribert Wiedenhues, ehemaliges Vorstandsmitglied von thyssenkrupp und derzeit CEO von Brainfleet, steht seit zwei Jahrzehnten an der Spitze der Wasserstoffwirtschaft. Er argumentierte, dass eine Investition in grünen Wasserstoff nicht nur dem Planeten zugutekomme, sondern auch ein profitables Unterfangen für kluge Unternehmer sei. Dr. Jens Reichel, Manager bei thyssenkrupp Steel Europe AG, gab ein anschauliches Beispiel aus seinem Stahlwerk in Duisburg: Bei den hohen Energiemengen, die für die Stahlproduktion benötigt würden, scheine die Dekarbonisierung eine unlösbare Aufgabe zu sein, so Reichel. Grüner Wasserstoff ist deshalb unabdingbar, wofür derzeit Investitionen in Milliardenhöhe getätigt werden.

Als eine der bekanntesten deutschen Wirtschaftshochschulen teilt die WHU nachhaltige Umweltanliegen und ermutigt vorausschauende Unternehmer:innen, für eine ökologische und ökonomisch erfolgreiche Zukunft selbst aktiv zu werden. Workshops wie diese, in denen neue Ideen im Bereich der Nachhaltigkeit vorgestellt werden, sind eine Möglichkeit, wie Wirtschaftswissenschaftler und Wirtschaftsexperten zu dieser Diskussion beitragen können.

(nach oben)


Plastikmüll: Belastung in Seen teilweise höher als im Ozean

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Besorgniserregende Befunde für weltweite Mikroplastik-Belastung von Stillgewässern

Dass Meere durch Kunststoffabfälle verschmutzt werden, ist mittlerweile traurige Tatsache und wissenschaftlich gut belegt. Globale Angaben zur Mikroplastik-Belastung von Süßgewässern fehlten bisher allerdings. Ein internationales Forschungsteam unter Mitwirkung von Katrin Attermeyer, Limnologin am WasserCluster Lunz und an der Universität Wien, hat nun erstmals Daten im großen Ausmaß dazu gesammelt. Das Team stellt in der aktuellen Ausgabe des Fachmagazins Nature die Ergebnisse der ersten standardisierten und länderübergreifenden Erhebung vor. Das Ergebnis ist ernüchternd: Plastikmüll wurde in allen beprobten Seen gefunden, in einigen Seen wie dem Lago Maggiore in Italien und dem Lake Tahoe in den USA findet sich mehr Mikroplastik als im weltweit am stärksten verschmutzten subtropischen Ozean.

So praktisch sie im Alltag auch sein mögen: Für die aquatischen Ökosysteme unseres Planeten sind Kunststoffe, die sich dort letztendlich als Mikroplastikmüll ansammeln, eine große Belastung – mit dramatisch steigender Tendenz. Durch das anhaltende Wachstum der weltweiten Kunststoffproduktion nimmt auch die Menge an Mikroplastik – d.h. jener Kunststoffteile, die kleiner als 5 mm sind – in Umwelt und Gewässern zu. Richtete sich der Fokus der Forschung zunächst auf die Auswirkung des Plastikmülls auf marine Gewässer, so wurden in letzter Zeit auch verstärkt Binnengewässer untersucht, in denen sich der Müll ähnlich oder sogar in noch größerem Ausmaß als in den Meeren anreichert. Diese früheren Studien hatten jedoch zwei Mankos: die Beschränkung auf nur wenige Gewässer in bestimmten geografischen Regionen und das nicht-standardisierte Verfahren der Probenentnahme. Letzteres machte den direkten quantitativen Vergleich zwischen den Untersuchungen unmöglich. Überlegungen zu beiden Kritikpunkten flossen ins Design der aktuellen Studie ein und dies resultierte nun in der ersten global repräsentativen, standardisierten Untersuchung der Seen.

Untersucht: 38 Seen. Befund: Plastik überall.
Insgesamt beprobte das Forschungsteam 38 Seen in 23 Ländern, die eine große Zahl an hydromorphologischen Faktoren wie z. B. Fläche, Tiefe, Uferlänge und Verweilzeit des Wassers abdeckten. Auch unterschiedliche anthropogene Aspekte wie z. B. Landbedeckung, Vorhandensein von Kläranlagen und Bevölkerungsdichte wurden berücksichtigt. Die Untersuchungsgebiete waren geografisch weit gestreut und umfassten ein breites Spektrum an Seen und Einzugsgebieten. Somit war die Stichprobe für die globale Variabilität der Seen unter Einbeziehung bestimmter Schlüsselmerkmale repräsentativ. Alle Proben wurden an der Oberfläche durch horizontale Schleppnetze senkrecht zum Seeausfluss nach demselben Protokoll entnommen, konzentriert und gereinigt. Insgesamt wurden so Tausende von Kunststoffpartikeln identifiziert und anhand von Form, Farbe und Größe klassifiziert. „Auf diese Weise haben wir für jeden See die ‚Signatur‘ – also die Art und Häufigkeit – der Kunststoffe ermittelt und uns angeschaut, wie diese Signatur mit potentiellen Verschmutzungsquellen und hydromorphologischen Merkmalen der Wassereinzugsgebiete zusammenhängt“, erklärt Katrin Attermeyer. Anschließend wurde die chemische Zusammensetzung der Kunststoffe mit Hilfe einer speziellen Untersuchungsmethode (Mikro-Raman-Spektroskopie) aufgeklärt. Das Ergebnis war ernüchternd: Plastikmüll fand sich in allen untersuchten Seen – sogar in jenen Gewässern, die auf den ersten Blick vollkommen unberührt von menschlichen Einflüssen zu sein schienen. Insgesamt identifizierten die Forscher*innen den weitaus größten Anteil der Kunststoffpartikel (fast 94 %) als Mikroplastik, gefolgt von 5% Mesoplastik (Teilchengröße 5-10 mm) und 1,5% Makroplastik (> 10 mm). Tatsächlich war in einigen der untersuchten Seen die Plastikkonzentration unerwartet hoch. So wurden in drei der untersuchten Gewässern sogar mehr als 5 Partikel pro m3 gefunden. „Diese Resultate sind insofern beunruhigend, als diese drei Seen – der Luganer See, der Lago Maggiore und der Lake Tahoe – bereits jetzt eine höhere Mikroplastikbelastung aufweisen als die weltweit am stärksten verschmutzten subtropischen Ozeanwirbel“, meint Expertin Attermeyer.

Zusammenhang zwischen Signatur und Seen-Typ
Chemisch bestanden die meisten Kunststoffpartikel aus Polyester (PES), Polypropylen (PP) und Polyethylen (PP) – ein Ergebnis, das Katrin Attermeyer wenig überrascht: „PE und PP machen mehr als die Hälfte der weltweiten Kunststoffproduktion aus, während PES für 70 % der gesamten Produktion von Fasern für die Textilindustrie benötigt werden.“ Dementsprechend waren bei den gefundenen Kunststoffteilchen auch zwei Formkategorien dominant – Fasern (49 %) und Fragmente (41 %), die als „sekundäres Mikroplastik“ durch Zersplitterung größerer Kunststoffteile entstehen.

Zwei Seen-Typen erwiesen sich für die Verschmutzung durch Mikroplastik als besonders vulnerabel: einerseits Seen in dicht besiedelten und urbanisierten Gebieten und andererseits flächenmäßig große Seen, die vermutlich wegen ihres großen Einzugsgebiets und der langen Wasserverweildauer besonders belastet sind. Interessanterweise korrelierten die Kunststoff-Typen der beprobten Seen mit deren morphometrischen Merkmalen: In Seen mit geringer Oberfläche, Maximaltiefe und Uferlänge dominierten blaue oder schwarze Fasern aus PES, während in großen, tiefen Seen mit ausgedehnter Uferlinie transparente oder weiße Fragmente aus PP und PE vorherrschten. „Jeder See hatte somit quasi seine eigene Plastik-Signatur. Die Erfassung dieser Signaturen hilft uns nicht nur bei der Ermittlung möglicher Verschmutzungsquellen, sondern auch bei der Charakterisierung der Auswirkungen der Kunststoffverschmutzung“, so Katrin Attermeyer. Die Ergebnisse der Studie unterstreichen, dass auch Seen Anzeiger der globalen Plastikverschmutzung sein können und bei der Bekämpfung dieser Art von Verschmutzung berücksichtigt werden sollten.

Lunzer See wenig kontaminiert
Als einzigen See Österreichs untersuchten die Forscher*innen den Lunzer See. Er gehört zu der Kategorie der weniger kontaminierten Gewässer mit unter 1 Plastikpartikel pro m3. Dort dominieren schwarze und blaue Fragmente, da der See eher klein ist und nur wenige Personen am Ufer des Sees leben.

Wissenschaftliche Ansprechpartner:
Dr. Katrin Attermeyer
Wasser Cluster Lunz – Biologische Station GmbH
Department für Funktionelle und Evolutionäre Ökologie
Universität Wien
1030 Wien, Djerassiplatz 1
T +43 (0) 7486 2006060
katrin.attermeyer@wcl.ac.at
https://carbocrobe.jimdosite.com/

Originalpublikation:
Plastic debris in lakes and reservoirs.
DOI: 10.1038/s41586-023-06168-4
https://doi.org/10.1038/s41586-023-06168-4 (online ab 17 Uhr)

Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a… (online ab 17 Uhr)

(nach oben)


Künstliche Intelligenz – nachhaltig und ressourcenschonend?

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Projekt der Leibniz Universität Hannover entwickelt ganzheitliches Fahrassistenz-KI-System mit dem Ziel eines niedrigen Energieverbrauchs

Künstliche Intelligenz (KI) kommt inzwischen in vielen Branchen zur Anwendung und kann auch sehr sinnvoll für Nachhaltigkeitsvorhaben eingesetzt werden – etwa zur Klassifikation von Müll, für nachhaltige architektonische Entwicklungen in der digitalisierten Stadt oder zielgenaues Fällen von Bäumen. Doch läuft KI, wenn sie mit großem Rechenaufwand betrieben wird, dem Ziel der Nachhaltigkeit nicht selbst zuwider? Vor allem die Analyse von großen Datenmengen hat meist einen hohen Energieverbrauch und erzeugt einen großen ökologischen Fußabdruck.

Ein Forschungsteam der Leibniz Universität Hannover (LUH) hat sich zum Ziel gesetzt, ressourcensparende KI-Anwendungen zu entwickeln. Das Gesamtprojekt, an dem verschiedene Institute der LUH und die VISCODA GmbH beteiligt sind, wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz mit rund 1,5 Millionen Euro gefördert (LUH-Anteil: 1,2 Millionen Euro). Die Wissenschaftlerinnen und Wissenschaftler betrachten dafür exemplarisch Fahrassistenzsysteme, die in Fahrzeuge eingebaut werden, um die Sicherheit, den Komfort oder auch die Wirtschaftlichkeit des Fahrens zu verbessern. Ziel ist eine deutliche Einsparung von Energie durch effizientere Algorithmen, Kommunikation und Hardware. Wenn dieses erfolgreich ist, ließe sich das im Projekt entwickelte ganzheitliche Konzept auf viele andere Bereiche übertragen, in denen KI beziehungsweise Deep Learning als Methode des maschinellen Lernens zum Einsatz kommt. Das im Frühjahr gestartete Forschungsvorhaben GreenAutoML4FAS, an dem mehrere Institute der Fakultät für Elektrotechnik und Informatik in Kooperation mit der VISCODA GmbH beteiligt sind, läuft zunächst bis Februar 2026.

Das so genannte „Grüne Fahrassistenz-System“ wird eine Reihe von Entwicklungen beinhalten, die maßgeblich zur Energieeinsparung beitragen. So sollen etwa Algorithmen optimiert werden, indem zum Beispiel anstelle von komplexen Berechnungen einfachere Operationen verwendet werden. Die Herausforderung besteht darin, trotz starker Vereinfachung genügend Informationen beizubehalten. Eine ähnliche Herausforderung existiert in der Datenkomprimierung: Welche Informationen sind zum Beispiel wichtig, damit weiterhin eine Person erkannt werden kann? Die Kommunikation zwischen Komponenten ist deutlich schneller und effizienter, wenn nicht alle Informationen, sondern nur die entscheidenden, verschickt werden. Die Effizienz von Software hängt grundsätzlich aber auch von der genutzten Hardware ab. Alle diese Aspekte können einzeln oder in Kombination verbessert werden. Das Team des Verbundprojekts hat sich zum Ziel gesetzt, durch die Summe der Maßnahmen die Energieeinsparung deutlich zu erhöhen.

Hinweis an die Redaktion:
Für weitere Informationen steht Ihnen Tanja Tornede, Institut für Künstliche Intelligenz, unter Telefon +49 511 762 19749 oder per E-Mail unter t.tornede@ai.uni-hannover.de gern zur Verfügung.

(nach oben)


Fassadenbegrünung“Living Wall“ verbindet Nachverdichtung mit Hochwasserschutz

Sabine Keller Presse- und Öffentlichkeitsarbeit
Deutsche Institute für Textil- und Faserforschung Denkendorf
Durch den Klimawandel steigen die Temperaturen und Unwetter nehmen zu. Vor allem in den Innenstädten werden die Sommer für die Menschen zur Belastung. Durch Nachverdichtung wird zwar bestehende Infrastruktur genutzt und Zersiedelung vermieden, aber es steigt der Anteil an versiegelten Flächen. Das wirkt sich negativ auf Umwelt und Klima aus. Fassadenbegrünungen bringen hier mehr Grün in die Städte. Werden textile Speicherstrukturen eingesetzt, können sie sogar aktiv zum Hochwasserschutz beizutragen. Die Deutschen Institute für Textil- und Faserforschung (DITF) haben eine entsprechende „Living Wall“ entwickelt.

Die Pflanzen auf den grünen Fassaden werden über ein automatisches Bewässerungssystem mit Wasser und Nährstoffen versorgt. Die „Living Walls“ arbeiten weitgehend autonom. Sensorische Garne erfassen den Wasser- und Nährstoffgehalt. Der Aufwand für Pflege und Wartung ist gering.

Über neuartige hydraulische Textilstrukturen wird die Wasserführung geregelt. Das Pflanzsubstrat aus Steinwolle, auf dem die Pflanzen wachsen, verfügt durch seine Struktur über ein großes Volumen auf engem Raum. Je nachdem, wie stark die Niederschläge sind, wird das Regenwasser in einer textilen Struktur gespeichert und später zur Bewässerung der Pflanzen genutzt. Bei Starkregen wird das überschüssige Wasser mit zeitlicher Verzögerung in die Kanalisation eingeleitet. Die an den DITF entwickelten „Living Walls“ helfen auf diese Weise, in nachverdichteten Ballungsräumen die Ressource Wasser effizient zu nutzen.

Im Forschungsprojekt wurde auch die Kühlleistung einer Fassadenbegrünung wissenschaftlich untersucht. Moderne Textiltechnik im Trägermaterial fördert die „Transpiration“ der Pflanzen. Dadurch entsteht Verdunstungskälte und die Temperaturen in der Umgebung sinken.

Zur Arbeit des Denkendorfer Forschungsteams gehörte auch eine Kosten-Nutzen-Rechnung und eine Life-Cycle-Analyse. Auf der Basis der Untersuchungen im Labor und im Außenbereich wurde ein „Grünwert“ definiert, mit dem sich die Wirkung von Gebäudebegrünungen als Ganzes bewerten und vergleichen lassen.

Wissenschaftliche Ansprechpartner:
Weitere Informationen zum Thema: Christoph Riethmüller
Leiter Technologiezentrum Smart Living Textiles und Denkendorfer Zukunftswerkstatt
T +49(0)711 9340-256
E christoph.riethmueller@ditf.de

(nach oben)


Unter- und Überwasserkartierung von Flüssen und Seen

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Die präzise Vermessung von Gewässern ist anspruchsvoll. Behörden und Ha-fenbetreiber sind verpflichtet, aktuelle Karten von Flussbetten oder Hafenanlagen bereitzustellen. Die Kartierung erfordert bis dato spezielle Kartierungsschiffe und hohen Personalaufwand. Sie ist kostenintensiv und erfolgt nicht in der Häufigkeit und Präzision, die für künftige Anwendungen, wie den autonomen Schiffverkehr, nötig sein werden. Ein Forscherteam des Fraunhofer IOSB hat deshalb ein handliches, unbemanntes Wasserfahrzeug entwickelt, das Gewässer wie Flüsse, Seen und Häfen über und unter der Wasseroberfläche autonom ver-misst und die zugehörigen 3D-Karten anfertigt.

Gewässerkarten liefern wichtige Informationen – etwa über die Gewässertiefe, die Boden- und Uferbeschaffenheit, die Sohlenstruktur, das Längs- und Querprofil, Angaben zur Böschung, zu anliegenden Flurstücken, zu Hafenanlagen und Brückenbauten, zum Gewässerzustand und vieles mehr. Diese Karten müssen regelmäßig von den zuständigen Behörden erhoben und aktualisiert werden, was mit hohem Kostenaufwand verbunden ist, da die Vermessung der Gewässer aktuell mithilfe von Fachkräften auf Kartierungsschiffen manuell durchgeführt wird. Deutlich günstiger lässt sich die Unter- und Überwasserkartierung mit autonomen Wasserfahrzeugen realisieren. Ein solches System haben Forschende des Fraunhofer IOSB in Karlsruhe im Projekt TAPS (Teilautomatisches Peilsystem für Flüsse und Seen) auf Basis eines kommerziellen USV (unmanned surface vessel) entwickelt. Lediglich mit einem zentralen Arbeitsplatz bzw. einem Leitstand an Land verbunden, kartiert das Messboot alle Arten von Binnengewässern und deren Umgebung, wobei die Vermessung sowohl über als auch unter der Wasseroberfläche stattfindet. Ein küstennaher Einsatz ist ebenso denkbar: Die Kartierung ist in der derzeitigen Ausführung bis zu einer Tiefe von 100 Metern möglich.

Hochpräzise 3D-Modelle von der Über- und Unterwasserszenerie
Ausgestattet mit GPS,- Beschleunigungs- und Drehratensensoren sowie einem Doppler Velocity Log (DVL), einem Sensor, der das Boot befähigt, sich inkrementell am Gewässerboden entlangzutasten, ist das Boot in der Lage, sich autonom fortzubewegen. Für die Orientierung des teilautomatischen Peilsystems werden die Sensordaten fusioniert. Für die Kartierung über Wasser kommen Laserscanner und Kameras in Kombination mit einer am Fraunhofer IOSB entwickelten Kartierungssoftware zum Einsatz – die Geräte rekonstruieren hochpräzise 3D-Modelle der Umgebung. Die Unterwasserkartierung wiederum erfolgt mithilfe eines in die Sensorik integrierten Multibeam-Sonars, das ein komplettes 3D-Modell des Grunds erstellt. »Unser Peilsystem ist insofern teilautomatisch, als der Anwender nur noch den zu kartierenden Bereich vorgeben muss. Die Vermessung selbst erfolgt vollautomatisch, die Datenauswertung erfordert nur wenige Mausklicks. Die für die Kartierung und das autonome Fahren erforderlichen Softwaremodule wurden von uns entwickelt«, erläutert Dr. Janko Petereit, Wissenschaftler am Fraunhofer IOSB.

USV umfährt Hindernisse selbstständig
Zunächst wird der Bereich vorgegeben, der vermessen werden soll. Die Software berechnet darauf basierend die Route. Im nächsten Schritt startet das USV, das 2m x 1,5m x 1m misst und mit 64 Kilogramm ein Leichtgewicht ist. Auf seiner Mission weicht es Hindernissen, die der Laserscanner und das Sonar erfassen, selbstständig aus. Während der Fahrt wird für Navigationszwecke ein schnelles 3D-Modell in Echtzeit erstellt, einschließlich dynamischer Objekte wie fahrender Schiffe. Ein zweites hochpräzises 3D-Modell berechnet die Software nach der Datenauswertung, wobei sowohl die Gewässersohle als auch die über der Wasseroberfläche liegende Szene erfasst wird, bewegliche Objekte aber ausgeblendet werden.

Die Tests mit dem Messboot fanden auf verschiedenen Seen statt. Der einsatzfähige Prototyp wird derzeit von der Fraunhofer-Forschungsgruppe »Smart Ocean Technologies SOT« in Rostock in weiteren Projekten mit dem Schwerpunkt Unter- und Überwasserrobotik genutzt.

Software ermöglicht autonome Navigation auf dem Wasser
Die Anwendungsperspektiven der entwickelten Technologie sind vielfältig. Neben dem autonomen Vermessen von Fahrrinnen und baulichen Strukturen ist etwa auch das autonome Ausheben von Wasserfahrstraßen denkbar. Aber auch, wer nur autonom auf Gewässern navigieren möchte, ohne diese zu kartieren, kann den im Projekt entwickelten Software-Stack nutzen. Deshalb sieht Petereit letztlich Einsatz- bzw. Weiterentwicklungsmöglichkeiten für alle Bereiche des Personen- und Gütertransports auf hoher See und auf Binnengewässern. »Künftig wird der autonome Schiffsverkehr auf deutschen Wasserstraßen massiv zunehmen – bis hin zu neuartigen Logistikketten, die Schiene, Straße und Wasser intelligent kombinieren.«

Autonomer Schiffsverkehr erfordert neben Autonomiealgorithmen aber eben auch sehr präzise Karten, die heute mitunter fehlten, so Petereit: »Die manuellen Vermessungsfahrten finden derzeit nur im Ein- bis Zwei-Jahres-Rhythmus statt und liefern im Vergleich zu unseren umfassenden 3D-Modellen deutlich weniger präzise Ergebnisse, sodass der Zustand der Wasserstraßen nicht optimal erfasst wird. Die Vermessung der Flüsse muss daher künftig in einer wesentlich höheren Frequenz mit einem höheren Detailgrad erfolgen. Unser teilautomatisches Peilsystem bietet hier eine kostengünstige Alternative zu aktuellen Vermessungsmethoden«.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2023/juli-2023/unter-und…

(nach oben)


Grünalge baut Schadstoffe ab – Schon früh im Studium bei internationalem Wettbewerb Praxisluft schnuppern

Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Wie lassen sich Pestizid- oder Medikamenten-Rückstände im Wasser abbauen, damit sie nicht in die Umwelt gelangen? Damit befasst sich ein studentisches Team der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) bei einem internationalen Wettbewerb. Dabei kommt den Studierenden das erlernte Wissen in Theorie und Praxis und eine enge Betreuung zugute. Ideale Studienbedingungen bescheinigt der Kaiserslauterer Biologie regelmäßig auch das CHE-Ranking. Neben Bachelor- und Masterstudiengängen bietet die RPTU in Kaiserslautern ein Lehramtsstudium Biologie an. Eine Bewerbung dafür ist bis zum 15. Juli möglich, für die Bachelor- und Masterstudiengänge bis zum 15. September.

Pestizide, Medikamentenrückstände, aber auch Spuren anderer Substanzen landen regelmäßig in unseren Gewässern. So zeigt zum Beispiel der Pestizidatlas 2022 der Heinrich-Böll-Stiftung auf, dass sich in vielen Fließgewässern in Deutschland Pestizide und ähnliche Stoffe nachweisen lassen. Wie aber lässt sich verhindern, dass sich solche Chemikalien in der Umwelt verbreiten können, Ökosystemen schaden und letztlich auch uns Menschen betreffen? Genau damit befasst sich ein studentisches Team der RPTU in Kaiserslautern. Es nimmt beim internationalen Genetically Engineered Machine Wettbewerb, kurz iGEM, teil. Im Fokus steht hier die Synthetische Biologie. Ziel ist es, an einem realen Problem zu forschen und eine Lösung für dieses beim Finale in Paris im November vor einer Jury und rund 300 weiteren Teams aus aller Welt vorzustellen.

„In verschiedenen Studien haben wir gelesen, dass immer mehr bedenkliche Spurenstoffe im Abwasser zu finden sind“, sagt Luca Langenberg vom Kaiserslauterer iGEM-Team. „Sie gelangen nach wie vor in die Umwelt, sind dort noch aktiv und können das Ökosystem schädigen. Auch aktuelle Kläranlagen können hier nicht alles filtern und abbauen.“

Die Studierenden setzen bei ihrem Vorhaben auf die Grünalge Chlamydomonas reinhardtii. Sie fungiert mit ihrem Stoffwechsel gewissermaßen als winzige Fabrik und soll mit Hilfe bestimmter Enzyme verschiedene Schadstoffe abbauen. Das Team möchte dazu Enzyme der Cytochrom P450-Familie nutzen. „Sie kommen in allen lebenden Organismen vor, unter anderem auch in der menschlichen Leber und sind wichtig für die Entgiftung. Über menschliche Cytochrome ist schon viel bekannt, aber über andere noch nicht. Hier gibt es womöglich noch Potential“, fährt Langenberg fort.

Das Team arbeitet derzeit mit drei dieser Enzyme und ist dabei, die entsprechenden Gene ins Erbgut der Grünalge einzubauen. Im nächsten Schritt müssen die Algen die Enzyme produzieren. Klappt das, können die Studierenden untersuchen, ob und inwieweit die Algen die Schadstoffe abbauen können. Langenberg erläutert: „Im Blick haben wir zunächst sogenannte halogenierte Kohlenwasserstoffe, die etwa als Pflanzenschutzmittel oder bei der Schädlingsbekämpfung Verwendung finden.“ Sollte das Verfahren funktionieren, könnten auch noch weitere Enzyme zum Einsatz kommen, die wiederum andere Substanzen abbauen. Allerdings muss das Team auch noch untersuchen, welche Abbauprodukte anfallen und welche Wirkung diese auf die Umwelt haben.

„Unser langfristiges Ziel ist es, die Grünalgen künftig als Reinigungswerkzeug zu nutzen, etwa in einem mobilen Bioreaktor, der Gewässer an Ort und Stelle säubert, ähnlich wie bei der Dialyse bei Nieren“, sagt Langenberg. Aber auch in Kläranlagen könnten sie zum Einsatz kommen, um Aktivkohlefilter beim Reinigen des Wassers zu unterstützen.

Fachlich unterstützt wird das Team von Professor Dr. Michael Schroda (Abteilung Molekulare Biotechnologie und Systembiologie), aber auch andere Arbeitsgruppen des Fachbereichs stehen den Studierenden mit Rat und Tat zur Seite.

Dass die Studierenden bereits früh in ihrem Studium so selbstständig an einem eigenen Forschungsprojekt arbeiten, ist Teil des Angebotskonzepts für praxisnahe Ausbildung und spiegelt den Wert wider, den der Fachbereich Biologie darauflegt, theoretisches Wissen fachwissenschaftlich in der Praxis anzuwenden.

„Der Studienablauf sieht sowohl im fachwissenschaftlichen als auch im Lehramtsstudium praktische Arbeiten in großem Umfang im Labor vor und vermittelt aktuelle Techniken und Methoden, damit Studierende lernen, Forschungsprojekte selbständig durchzuführen und ihr lösungsorientiertes Denken zu schulen“, sagt Dorothea Hemme-Schwöbel, Geschäftsführerin des Fachbereichs Biologie. Nicht nur Forscherinnen und Forscher, sondern auch Lehrkräfte müssen fit sein, um Schülerinnen und Schülern die Biologie und wissenschaftliches Arbeiten nahe bringen zu können.

Auch das Betreuungsverhältnis ist an der RPTU in Kaiserslautern im Vergleich zu den großen Universitäten sehr gut. Die Studierenden arbeiten und lernen in kleinen Gruppen. Es besteht ein direkter, persönlicher Kontakt zu den Dozentinnen und Dozenten.

Über das Studienangebot in der Biologie an der RPTU in Kaiserslautern
Der Bachelorstudiengang Molekulare Biologie (Bachelor of Science) und das Lehramtsstudium Biologie vermitteln wichtiges Basiswissen aus Botanik, Ökologie, Biodiversität, Genetik, Humangenetik, Tier- und Pflanzenphysiologie, Biotechnologie, Mikrobiologie, Neurobiologie, Bioinformatik, Zoologie sowie Zellbiologie, im Lehramtsstudium auch die Fachdidaktik. Darüber hinaus können die Studierenden ihr Grundlagenwissen in frei wählbaren Fachgebieten vertiefen. Zudem sieht der Bachelorstudiengang Molekulare Biologie ein Betriebs- oder Forschungspraktikum, das Lehramtsstudium Schulpraktika vor, um sich früh beruflich zu orientieren.

Die idealen Studienbedingungen bescheinigt dem Fach Biologie an der RPTU regelmäßig auch das CHE-Ranking. So zeigen sich die Studierenden etwa sehr zufrieden mit der Unterstützung am Studienanfang, dem Lehrangebot und den Laborpraktika, aber auch mit der Vermittlung fachwissenschaftlicher, methodischer und fachübergreifender Kompetenzen. Und auch mit der allgemeinen Studiensituation kann das Fach punkten.

Am Ende des Bachelorstudiums – egal ob fachwissenschaftlich oder Lehramt – steht die Bachelorarbeit an, bei der die Studierenden an einem eigenen Projekt im Labor arbeiten.

Das Lehramtsstudium ist für alle Schularten ausgelegt. Eine endgültige Entscheidung zur Schulform erfolgt erst nach dem vierten Bachelorsemester. Um sich für den Schuldienst zu qualifizieren, schließt sich für die Studierende der Masterstudiengang für das Lehramt (Master of Education) an.

Die RPTU bietet darüber hinaus den Masterstudiengang Biology (Master of Science) an. Hier können die Studierenden aus den folgenden vier Vertiefungsrichtungen auswählen: die Biotechnologie von Mikroorganismen und Pflanzen, die molekulare und biochemische Zellbiologie, der Aufbau und die Funktionsweise des Nervensystems sowie die Ökologie und Biodiversität niederer Organismen.

Wer sich für den Bachelorstudiengang Molekulare Biologie, den Masterstudiengang Biology oder den Lehramts-Masterstudiengang interessiert, hat noch bis zum 15. September Zeit, sich zu bewerben. Der Bachelorstudiengang für das Lehramt ist zulassungsbeschränkt. Hier ist eine Bewerbung bis zum 15. Juli möglich.

Weitere Informationen gibt es unter: https://bio.rptu.de/studium-lehre/studiengaenge

Fragen beantworten:
Luca Langenberg
iGEM-Team RPTU in Kaiserslautern
E-Mail: igem@bio.uni-kl.de

Dr. Dorothea Hemme-Schwöbel
Geschäftsführerin Fachbereich Biologie
RPTU in Kaiserslautern
Tel.: 0631 205-2602
E-Mail: bio-gf@rptu.de

(nach oben)


Einstein Research Unit Climate and Water under Change: Berliner Starkregen-Gefahrenkarten müssen veröffentlicht werden

Jonas Krumbein Kommunikation und Presse
Berlin University Alliance
Wegen Bedenken der Berliner Beauftragten für Datenschutz und Informationsfreiheit hat das Land Berlin Karten zu starkregengefährdeten Grundstücken bislang nicht allgemein zugänglich veröffentlicht. Nun stellt ein Rechtsgutachten der von der Berlin University Alliance geförderten Einstein Research Unit „Climate and Water under Change (CliWaC)“ klar: Die Berliner Starkregen-Gefahrenkarten müssen für alle sichtbar veröffentlicht werden, um die Bevölkerung wirksam vor Gefahren von Starkregen für Leben, Gesundheit und Besitz zu schützen, wie sie im Klimawandel vermehrt auftreten. Denn Datenschutzbedenken müssen gegenüber Schutz vor Extremwetter im Klimawandel zurückstehen.

Bei der Berliner Senatsverwaltung liegen Starkregengefahrenkarten, die bislang nicht öffentlich sind. Grund sind Bedenken der Berliner Beauftragten für Datenschutz und Informationsfreiheit, die durch eine Veröffentlichung von Grundstücksdaten Rückschlüsse auf die persönlichen Lebensverhältnisse von Menschen befürchtet. Diese Bedenken müssen einem Rechtsgutachten der Einstein Research Unit „Climate and Water under Change“ zufolge allerdings gegenüber dem Interesse der Gesamtbevölkerung am Schutz vor Starkregengefahren im Klimawandel zurückstehen.

„Starkregengefahrenkarten enthalten Informationen, die im Zuge des Klimawandels für eine wirksame private und öffentliche Vorsorge gegenüber Extremwetterereignissen unerlässlich sind. Ihre Veröffentlichung kann Leben und Gesundheit sowie Vermögen von Menschen schützen. Deshalb gebietet das Umweltinformationsgesetz, das die Umweltinformationsrichtlinie der Europäischen Union umsetzt und die aus den Grundrechten fließende Schutzpflicht staatlicher Stellen konkretisiert, dass die Starkregengefahrenkarten veröffentlicht werden müssen“, sagt der Rechtswissenschaftler Prof. Dr. Christian Calliess von der Freien Universität Berlin. Calliess‘ Team hat das Rechtsgutachten im Rahmen der Einstein Research Unit „Climate and Water under Change“ (CliWaC) erstellt. Die Einstein Research Unit „Climate and Water under Change“ widmet sich als transdisziplinäre Forschungsinitiative der Berlin University Alliance der Untersuchung wasserbezogener Risiken des Klimawandels im Raum Berlin-Brandenburg.

Dass eine Veröffentlichung von Starkregengefahrenkarten Rückschlüsse auf persönliche Lebensverhältnisse von Menschen zulässt, schließt Prof. Dr. Christian Calliess, ein ausgewiesener Kenner des Umweltrechts, aus: „Grundstücksbezogene Umweltdaten sind nach ihrem Inhalt, ihrem Zweck und ihren Auswirkungen in der Regel nicht mit einer bestimmten Person verknüpft. Sie geben deshalb auch keine Auskunft über die persönlichen Verhältnisse einer Person“, erklärt Calliess. „Selbst wenn im Einzelfall Daten personalisiert und damit offenbart werden könnten, wäre diese vergleichsweise geringe Beeinträchtigung des Datenschutzes kein ausreichender Grund, von einer Veröffentlichung von Gefahrendaten zum Schutz von Leben, Gesundheit und Eigentum bei Extremwetterereignissen und das der Anpassung urbaner Lebensräume an Starkregenereignisse abzusehen.

Die Einstein Research Unit „Climate and Water under Change”
Die Einstein Research Unit „Climate and Water under Change“ (CliWaC) widmet sich als transdisziplinäre Forschungsinitiative der Berlin University Alliance der Untersuchung wasserbezogener Risiken des Klimawandels im Raum Berlin-Brandenburg. Dabei wird CliWaC sozial- und naturwissenschaftliches sowie praktisches Fachwissen von Stakeholdern zusammenbringen, um Minderungs- und Anpassungsmaßnahmen gegenüber Auswirkungen des Klimawandels zu entwickeln. Der Fokus von CliWaC liegt auf der Modellregion Berlin-Brandenburg. Dies macht es möglich, unterschiedliche natürliche, gesellschaftliche und politische Verhältnisse in den Blick zu nehmen – vor allem in den Interdependenzen städtischer und ländlicher Räume. Diese gehen wiederum mit unterschiedlichen Bedürfnissen und Handlungsoptionen einher. Die Forschungsthemen von CliWaC umfassen dabei Ökosysteme, Biodiversität und Ökosystemdienstleistungen, Überschwemmungs- und Abwassermanagement sowie Wasserressourcenmanagement. Das Konsortium besteht aus 28 Projektleitern der Berlin University Alliance, die an Freier Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Charité forschen. Zusätzlich beteiligen sich das Leibniz-Zentrum für Agrarlandschaftsforschung und das Institut für ökologische Wirtschaftsforschung mit. Prof. Dr. Britta Tietjen (Freie Universität Berlin), Prof. Dr. Uwe Ulbrich (Freie Universität Berlin) und Prof. Dr. Tobias Sauter (Humboldt-Universität zu Berlin) leiten das CliWac-Projekt. Gefördert wird die Einstein Research Unit “Climate and Water under Change” durch die Berlin University Alliance und die Einstein Stiftung Berlin.

Die Berlin University Alliance
Die Berlin University Alliance ist der Verbund der drei Berliner Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin sowie der Charité – Universitätsmedizin Berlin für die gemeinsame Gestaltung von Wissenschaft in Berlin. Die vier Partnerinnen haben sich zusammengeschlossen, um den Wissenschaftsstandort Berlin zu einem gemeinsamen Forschungsraum weiterzuentwickeln, der zur internationalen Spitze zählt. Im Zentrum der Zusammenarbeit stehen dabei die gemeinsame Erforschung großer gesellschaftlicher Herausforderungen, die Stärkung des Austausches mit der Gesellschaft, die Nachwuchsförderung, Fragen der Qualität und Wertigkeit von Forschung sowie übergreifende Vorhaben in Forschungsinfrastruktur, Lehre, Diversität, Chancengerechtigkeit und Internationalisierung. Die Berlin University Alliance wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF) und dem Land Berlin im Rahmen der Exzellenzstrategie von Bund und Ländern.

Gemeinsame Pressemitteilung der Freien Universität Berlin, der Humboldt-Universität zu Berlin, der Technischen Universität Berlin und der Charité – Universitätsmedizin Berlin

Weitere Informationen
Zur Einstein Research Unit „Climate and Water under Change”: https://www.cliwac.de/index.html
Zur Berlin University Alliance: https://www.berlin-university-alliance.de/index.html

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Calliess, Freie Universität Berlin, Fachbereich Rechtswissenschaft, Telefon: 030 / 838-51456, E-Mail: europarecht@fu-berlin.de

(nach oben)


Kompetenzzentrum Wasser Berlin unterstützt das WaterMan-Projekt zur Förderung der Wasserwiederverwendung im Ostseeraum

Moritz Lembke-Özer Presse- und Öffentlichkeitsarbeit
Kompetenzzentrum Wasser Berlin gGmbH (KWB)
Das Projekt „WaterMan” fördert die Wiederverwendung von Wasser in der Ostseeregion. Das Kompetenzzentrum Wasser Berlin (KWB) spielt eine wichtige Rolle bei der Erarbeitung von Lösungen zur Förderung von Wasserwiederverwendung.

Das Projekt „WaterMan” fördert die Wiederverwendung von Wasser in der Ostseeregion, indem es lokale Behörden und Wasser- und Abwasserunternehmen bei der Entwicklung von Strategien zur Nutzung von aufbereitetem und zurückgehaltenem Wasser unterstützt. Das Projekt wird im Rahmen des Interreg Baltic Sea Region-Programm von 2023 bis 2025 durchgeführt und hat das Ziel, die Wasserwiederverwendung als neues Element der Wasserwirtschaft zu etablieren und eine klimaresiliente Wasserversorgung zu schaffen.

Mit einem Budget von 4,38 Millionen Euro werden Aktivitäten wie die Wiederverwendung von aufbereitetem und zurückgehaltenem Wasser, die Förderung von Akzeptanz bei Interessensgruppen und Nutzern sowie die Entwicklung einer „Ostseeraum-Toolbox zur Wasserwiederverwendung“ finanziert. WaterMan zielt darauf ab, Wasserwiederverwendung in der Region einzuführen, etwa indem eine gemeinschaftliche Lernumgebung für lokale Behörden und Wasser- und Abwasserunternehmen geschaffen wird. Das Projekt wird von 43 Organisationen aus sechs Ländern unterstützt und konzentriert sich auf den südlichen Ostseeraum.

Das Kompetenzzentrum Wasser Berlin (KWB) spielt eine wichtige Rolle bei der Erarbeitung von Lösungen zur Förderung von Wasserwiederverwendung. Das KWB arbeitet eng mit den Projektpartnern zusammen, um eine Anleitung zur Methodik und zu den verfügbaren Instrumenten zu entwickeln, die lokalen Akteuren bei der Erkennung von Wasserbedarf, der Durchführung von Risikobewertungen sowie der Auswahl umweltfreundlicher Technologien helfen sollen. Das Projekt wird schließlich einen umfassenden und konkreten Leitfaden für lokale Behörden und Wasser- sowie Abwasserunternehmen entwickeln, um die Wiederverwendung von Wasser in der Region zu fördern. Mit dem Fachwissen der Mitarbeitenden über Wasserwiederverwendung, dem Austausch von Erfahrungen und der Schulung praktischer Fähigkeiten in Bezug auf Risiko- und Lebenszyklusanalysen leistet das KWB mithilfe des WaterMan-Projekts einen wichtigen Beitrag zur Entlastung der natürlichen Wasserressourcen und zum Aufbau einer klimaresistenten Wasserwirtschaft im Ostseeraum.

Wissenschaftliche Ansprechpartner:
Pia Schumann
Dr. Ulf Miehe

Weitere Informationen:
https://www.kompetenz-wasser.de/de/forschung/projekte/waterman

(nach oben)


FLEXITILITY: Pilotanlage zur landwirtschaftlichen Wasserwiederverwendung geht an den Start

Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement
Bewässerung und Monitoring auf Versuchsfeld bei der Kläranlage Uebigau

Die Wiederverwendung von gereinigtem und hygienisiertem Wasser aus Kläranlagen soll europaweit und auch in Deutschland vorangetrieben werden. Zum 26. Juni 2023 wird dazu die EU-Verordnung 2020/741 in den Mitgliedsländern wirksam. Ziel ist, die Nutzung von Wasser zu intensivieren und den Schutz der Umwelt sowie Gesundheit von Mensch und Tier zu gewährleisten. Im BMBF-Forschungsprojekt FLEXITILIY ist unter Leitung von inter 3 mit der Inbetriebnahme einer Pilotanlage zur Bewässerung jetzt ein wesentlicher Schritt zur Umsetzung der Wasserwiederverwendung getan. Bis Herbst 2024 wird in Südbrandenburg eine landwirtschaftlich genutzte Versuchsfläche bewässert und einem Monitoring unterzogen.

Seit 15. Juni 2023 werden 12 Hektar Ackerland für die Produktion von Tierfutter mit Wasser beregnet, das zuvor in der Brandenburger Kläranlage Uebigau technisch aufwändig gereinigt und mittels einer UV-Anlage hygienisiert wurde. Die UV-Anlage und das Bewässerungssystem wurden am 13. Juni feierlich durch den Bürgermeister von Herzberg (Elster), einen Vertreter des Gemeindeverbunds Liebenwerda sowie durch den Verbandsvorsitzenden des Herzberger Wasser- und Abwasserzweckverbands (HWAZ) eingeweiht. Die Forschungspartner inter 3 Institut für Ressourcenmanagement und Umweltbundesamt (UBA) arbeiten eng mit dem HWAZ, der Stadt Herzberg und der Agrargenossenschaft Gräfendorf e.G.in diesem Teilprojekt von FLEXITILITY zusammen.

Neue Standards für die Wiederverwendung von Abwasser
Während die Wasserwiederverwendung zu Bewässerungszwecken in südlichen EU-Ländern, und zu Versuchszwecken auch in Deutschland, bereits seit Jahrzehnten gelebte Praxis ist, setzt die EU-Verordnung neue Standards, mit denen es bislang noch keine Erfahrungen gibt: „Wir wollen zeigen, wie es gelingen kann, die hohen Mindestanforderungen an die Wasserqualität und die geforderte Überwachung sowie Risikobewertung einzuhalten,“ beschreibt Dr. Shahrooz Mohajeri, Projektleiter bei inter 3, die Aufgabe. „Denn dann eröffnet die Wasserwiederverwendung Landwirten neue Möglichkeiten, ihre Abhängigkeit von lokalen Niederschlägen zu verringern und mit sicher verfügbarem Wasser wirtschaftlich noch interessantere landwirtschaftliche Produkte zu produzieren.“

Die Pilotanlage besteht aus einer UV-Desinfektion, einer Bewässerungs-technik nach landwirtschaftlicher Praxis und der nötigen Druckerhöhung. FLEXITILITY generiert mit dem Pilotversuch die benötigten praktischen Erfahrungswerte hinsichtlich
– der Bewertung der Hygienisierungstechnik für den Anwendungsfall „Bewässerung landwirtschaftlicher Tierfutterprodukte“,
– des Aufbaus eines praktikablen Monitoringsystems, sowie
– der Entwicklung eines praxisorientierten Risikomanagementplans für diesen Anwendungsfall.

FLEXITILITY: Forschung, Praxis und Behörden arbeiten eng zusammen
Das Projekt zeichnet sich durch eine enge Kooperation von Wissenschaft, Behörden, Kommunalverwaltung sowie Wasser-, Land- und Forstwirtschaft aus: inter 3 ist zuständig für den reibungslosen Aufbau und Betrieb der Technik sowie die Konzipierung und Einhaltung des Risikomanagementplans. Das UBA zeichnet verantwortlich für die Entnahme und Untersuchung von Proben aus Bewässerungswasser, Böden und Grundwasser sowie der angebauten Produkte. Es überwacht eine Vielzahl an Hygiene- und Schadstoffparametern. In der Umsetzung des Risikomanagementplans stimmen sich inter 3 und UBA eng mit der Stadt Herzberg, der unteren Wasserbehörde sowie dem HWAZ ab. Während die UV-Desinfektion auf dem Kläranlagengelände des HWAZ stattfindet, ist für den Betrieb der Bewässerungsanlage die Agrargenossenschaft Gräfendorf e.G. als Pächterin der landwirtschaftlichen Versuchsfläche eingebunden. Zusätzlich werden zwei weitere Versuchsflächen mit dem hygienisierten Wasser bewässert: eine Grünfläche auf dem Betriebsgelände der Kläranlage stellvertretend für städtische Grünflächen sowie Teile eines kleinen Waldstücks zur Beförderung eines klimaresilienten Waldumbaus.

Relevanz für eine klimaresiliente Landwirtschaft
Dass die Wasserwiederverwendung ein wichtiger Baustein in der Klimaanpassung werden sollte, verdeutlichen auch in diesem Jahr die sich intensivierenden Trockenphasen: Angesichts des ausbleibenden Regens rechnen Landwirte im südlichen Brandenburg erneut mit teils erheblichen Ernteausfällen. Bereits in den vergangenen Jahren sind einige aufgrund der Trockenheit wirtschaftlich an ihre Grenzen geraten und denken über das Aufgeben ihres Betriebes nach.

Die in FLEXITILITY gewonnenen Daten zur Hygienisierung und Wiederverwendung gereinigten Abwassers können eine wichtige Grundlage für die Konkretisierung von Umsetzungsregeln zur Wasserwiederverwendung in Deutschland bilden und somit über die Region hinaus wirksam werden. Sollten sich bei den Versuchen keine grundlegenden Risiken zeigen, kann über die Bewässerung weiterer Pflanzen wie z.B. Soja nachgedacht werden.

Das FLEXITILITY-Gesamtprojekt
Das Projekt Flexible Utility – Mit sozio-technischer Flexibilisierung zu mehr Klimaresilienz und Effizienz in der städtischen Infrastruktur (FLEXITILITY) umfasst neben den Versuchen zur Wasserwiederverwendung auch Ansätze für den flexiblen Betrieb von Trinkwassernetzen. Diese werden durch die Projektpartner Brandenburgische Technische Universi-tät (BTU) Cottbus-Senftenberg, Fachgebiet Stadttechnik, und DVGW-Technologiezentrum Wasser (tzw), unter Beteiligung von inter 3 und der Stadt Herzberg (Elster), durchgeführt. Im Fokus steht dabei der Einsatz von dezentralen Trinkwasserspeichern in Wohngebäuden sowie bei institutionellen Wasserverbrauchern: stellvertretend beim Rathaus Herzberg. Die beiden großen Praxistests zur Trinkwasser-Flexibilisierung sowie zur Wasserwiederverwendung laufen noch bis September 2024.

Finanziert wird FLEXITILITY aus Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) im Rahmen des Programms „Umsetzung der Leitinitiative Zukunftsstadt“, Projektträger ist das Deutsche Zentrum für Luft- und Raumfahrt (DLR).

Wissenschaftliche Ansprechpartner:
Dr. Shahrooz Mohajeri
inter 3 Institut für Ressourcenmanagement
mohajeri@inter3.de | +49(0)30 3434 7440

Weitere Informationen:
http://www.inter3.de/forschungsfelder/projekte/details/flexible-utilities-umsetz… Projektbeschreibung
http://www.flexitility.de Projekt-Webseite

Anhang
FLEXITILITY Wasserwiederverwendung_PM_inter3

(nach oben)


Fischsterben in der Oder im August 2022: BfG legt neue Erkenntnisse und Empfehlungen vor

Dominik Rösch Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Der heute veröffentlichte Bericht der Bundesanstalt für Gewässerkunde (BfG) gibt einen umfassenden Überblick zu den an der Bundesanstalt durchgeführten Untersuchungen zum Fischsterben in der Oder im August 2022. Darin enthalten sind neue Erkenntnisse, die ein genaueres Bild zur Entstehung der Katastrophe zeichnen sowie Empfehlungen, die dazu beitragen sollen, „ökologische Extremereignisse“ in der Oder und anderen Flüssen zukünftig frühzeitig zu erkennen und dadurch Gegenmaßnahmen einleiten zu können.

Die BfG-Wissenschaftlerinnen und -Wissenschaftler verdeutlichen in dem Bericht, dass die Kombination aus erhöhtem Salzgehalt, hohen Temperaturen, starker Sonneneinstrahlung und langanhaltend niedrigem Abfluss im Sommer 2022 die massenhafte Vermehrung der Brackwassermikroalge Prymnesium parvum in weiten Teilen der Oder ermöglichte. Den BfG-Fachleuten gelang es nicht nur die Alge, sondern auch das von ihr produzierte Algentoxin Prymnesin-B1 im Oderwasser nachzuweisen. Da in den umfassenden Analysen keine weiteren Schadstoffe in fischtoxischen Konzentrationen gefunden wurden, schlussfolgerten die Autoren/-innen, dass die Algentoxine von Prymnesium parvum der Auslöser für das massenhaften Sterben von Fischen und anderen Organismen waren.

Zur Identifizierung und Quantifizierung der Algenart nutzten die Forschenden u. a. molekularbiologische Methoden (PCR-Verfahren und DNA-Metabarcoding). Diese stehen an der BfG nun zusammen mit der Methode zur Bestimmung der Algentoxine zur Verfügung und können auch im Falle erneuter Algenblüten in der Oder sowie anderen Flüssen schnell zum Einsatz kommen und somit zu einer frühzeitigen Risikoabschätzung beitragen.

Dies ist aus Sicht der am Bericht beteiligten Autoren/-innen dringend erforderlich: Basierend auf den hydrologischen Auswertungen der vergangenen Jahre ist auch zukünftig mit vergleichbaren Niedrigwassersituationen an der Oder zu rechnen.

Eine entscheidende Voraussetzung für die Entstehung der Algenblüte war der erhöhte Salzgehalt in der Oder. Im Vergleich zu Analysen von Wasserproben aus anderen Flussgebieten Deutschlands konnte durch die BfG-Analysen nachgewiesen werden, dass die Konzentrationen des ansonsten nur sehr selten bestimmbaren Elementes Rhenium (Re) im Oderwasser außergewöhnlich erhöht waren. Dies ist ein deutlicher Hinweis auf eine maßgebliche Einleitung salzhaltiger Abwässer aus dem polnischen Bergbau. Hierfür sprechen auch die enormen Salzmengen von im Durchschnitt 4.000 Tonnen Kochsalz, die zusätzlich je Tag in dem Zeitraum der Algenblüte eingebracht wurden. Diese Menge entspricht in etwa dem Inhalt von 200 Güterwaggons Salz je Tag.

Wie lässt sich ein erneutes Fischsterben verhindern?

Ausgehend von der erarbeiteten wissenschaftlichen Basis leiteten die BfG-Fachleute in dem Bericht disziplinübergreifend Empfehlungen ab. Diese sind auch auf andere Flüsse übertragbar, um anderenorts vergleichbare Katastrophen zu verhindern. Die BfG-Fachleute empfehlen:

1. Eine Ausweitung des Algen-Monitorings, inklusive der Algentoxine, und verbesserte Onlinebereitstellung der Daten. Hierzu stehen sichere molekularbiologische Methoden als „Schnelltests“ für die frühzeitige Erkennung von Prymnesium parvum bereit.

2. Eine Vermeidung begünstigender Faktoren für Algenblüten, insb. durch ein an die klimatischen Bedingungen angepasstes Management von Stoffeinleitungen sowie die Reduzierung von Nährstoffeinträgen.

3. Die Kontrolle und Eindämmung schädlicher Algenblüten sowie die Schaffung von Rückzugshabitaten für die natürliche Flussfauna.

4. Ein konzertiertes Vorgehen von Landes- und Bundesbehörden bei zukünftigen Krisenfällen nach dem Vorbild der Ursachenaufklärung des Fischsterbens in der Oder 2022.

Wie dringend die Empfehlungen der BfG umgesetzt werden sollten, zeigen die aktuellen Entwicklungen: In den Seitenkanälen der Oder sind nach Angaben des polnischen Umweltministeriums in den vergangenen Tagen bereits hunderte Kilogramm an Fischen verendet – ein deutliches Warnsignal. „Angesichts der aktuell steigenden Temperaturen, fallender Wasserstände und dem unverändert erhöhten Salzgehalt der Oder halte ich es für sehr gut möglich, dass es auch in diesem Sommer zu einem erneuten großflächigen Fischsterben in der Oder kommt“, sagt Dr. Jan Wiederhold. Der Geoökologe koordinierte die Entstehung des BfG-Berichts zum Fischsterben in der Oder.

Die BfG beteiligte sich schon früh an der Suche nach den möglichen Ursachen des Fischsterbens und führte 2022 eine Vielzahl von Analysen durch. Nach Anfragen des Landeslabors Berlin-Brandenburg und des Landesamtes für Umwelt Brandenburg sowie in Abstimmung mit dem Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz leistete die BfG Amtshilfe in verschiedenen Bereichen. Einige der damals erarbeiteten Ergebnisse gingen in Kurzform in den am 30.09.2022 vorgestellten Statusbericht der „Nationalen Expert*innengruppe zum Fischsterben in der Oder“ ein.

Wissenschaftliche Ansprechpartner:
Dr. Jan Wiederhold, wiederhold@bafg.de

Originalpublikation:
https://doi.bafg.de/BfG/2023/BfG-2143.pdf

Weitere Informationen:
https://www.bafg.de/DE/07_Nachrichten/220930_Statusbericht_Oder-Fischsterben.htm…

(nach oben)


Gut ein Viertel der Beschäftigten hat Zweifel, die aktuelle Berufstätigkeit bis zum Rentenalter durchhalten zu können

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Neue Studie des WSI

Mehr als ein Viertel der Beschäftigten in Deutschland hat Zweifel, die aktuelle Berufstätigkeit ohne Einschränkungen bis zum Rentenalter durchhalten zu können: Gut 20 Prozent glauben, das eher nicht zu schaffen.

Weitere knapp 7 Prozent sind sogar überzeugt, auf keinen Fall durchhalten zu können. Noch deutlich höher sind die Quoten unter Arbeiter*innen (38 Prozent) und bei Menschen, die ihre Arbeitssituation generell als stark belastend oder äußerst belastend einstufen: In diesen Gruppen glauben rund 43 bzw. 59 Prozent, ihre jetzige Tätigkeit eher nicht oder auf keinen Fall ohne Einschränkung bis zum gesetzlichen Rentenalter ausüben zu können, während die Anteile bei geringerer Belastung unterdurchschnittlich sind (siehe auch die Abbildungen 1 bis 3 in der pdf-Version dieser PM; Link unten). Unter den Beschäftigten berichtet gut jede*r Fünfte von stark oder äußerst belastenden Arbeitsbedingungen. Zu diesen Ergebnissen kommt eine neue Studie des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung.*

Die Untersuchung der WSI-Forscher Dr. Florian Blank und Dr. Wolfram Brehmer stützt sich auf eine repräsentative Befragung unter knapp 5000 abhängig Beschäftigten und eine weitere Umfrage unter gut 3600 Betriebs- und Personalräten.

Die befragten Betriebs- und Personalräte sehen die Durchhalte-Chancen der Beschäftigten in ihren Betrieben häufig noch skeptischer. Die Beschäftigtenvertreter*innen sind aber auch der Überzeugung, dass Unternehmen etliche Mitarbeiter*innen länger im Job halten könnten, wenn sie sich verstärkt um alternsgerechte Arbeitsbedingungen bemühen würden: Knapp 42 Prozent der Betriebs- und Personalräte sind überzeugt, dass das für alle oder viele betroffene Beschäftigte möglich wäre, die sonst nicht bis zum Rentenalter durchhalten können, weitere 42 Prozent halten das zumindest bei einigen oder wenigen Kolleg*innen für realistisch. Bislang tun die Arbeitgeber nach Einschätzung der Betriebs- und Personalräte aber längst nicht genug: 40 Prozent bewerten die bisherigen betrieblichen Bemühungen um bessere Arbeitsbedingungen für Ältere auf einer Skala entsprechend den Schulnoten mit 5 oder 6. Knapp 28 Prozent geben lediglich eine 4 (siehe Abbildung 4 in der pdf-Version).

Die Ergebnisse machten deutlich „dass Forderungen nach einer weiteren Anhebung des Rentenalters offensichtlich an der Realität vieler Beschäftigter vorbeigehen“, schreiben die Studienautoren Florian Blank und Wolfram Brehmer. „Solche Maßnahmen würden den zweiten Schritt vor dem ersten machen“ und Ungleichheiten auf dem Arbeitsmarkt verschärfen – oft zuungunsten von ohnehin bei ihrer Arbeit stark belasteten Personen, warnen sie. Als ersten notwendigen Schritt sehen die beiden Wissenschaftler vielmehr‚ „`Gute Arbeit´ für alle Beschäftigten zu ermöglichen“. Wenn Unternehmen mehr dafür täten, ältere Beschäftigte durch bessere Arbeitsbedingungen im Job zu halten, habe das einen dreifachen Vorteil: Es helfe dabei, die Finanzlage der Sozialversicherungen zu verbessern. Es wirke arbeitsmarktpolitisch positiv, weil Arbeitskräfteengpässe entschärft würden. Und vor allem verbesserten sich Lebenssituation und Gesundheit von Millionen Menschen.


Wissenschaftliche Ansprechpartner:
Prof. Dr. Bettina Kohlrausch
Wissenschaftliche Direktorin WSI
Tel.: 0211-7778-186
E-Mail: Bettina-Kohlrausch@boeckler.de

Dr. Wolfram Brehmer
WSI-Experte für Empirische Strukturanalysen
Tel.: 0211-7778-340
E-Mail: Wolfram-Brehmer@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
*Florian Blank, Wolfram Brehmer: Durchhalten bis zur Rente? Einschätzungen von Beschäftigten, Betriebs- und Personalräten. WSI Report Nr. 85, Juni 2023. Download: https://www.boeckler.de/de/faust-detail.htm?sync_id=HBS-008645

Die PM mit Abbildungen (pdf): https://www.boeckler.de/pdf/pm_wsi_2023_06_27.pdf

(nach oben)


Neue europäische Blutdruckleitlinie setzt 140/90 mmHg als „rote Linie“

Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Ergänzung vom 27.06.2023
Die neue Bluthochdruckleitlinie der „European Society of Hypertension“ wurde aktuell publiziert [1] und überrascht durch einen pragmatischen Ansatz im Hinblick auf die Zielwerte: 140/90 mmHg ist die „rote Linie“, die Werte jedes/r Betroffenen sollten also darunter liegen. Wer es verträgt, sollte noch tiefer eingestellt werden, wer nicht, muss es aber nicht. Der Vorstandsvorsitzende der Deutschen Hochdruckliga rät insbesondere im letzteren Fall dazu, die nicht-medikamentösen Maßnahmen zur Blutdrucksenkung auszureizen. Jeder kann selbst etwas tun! Neben zahlreichen Empfehlungen wurden in die Leitlinie zwei neue aufgenommen: eine kaliumreiche Kost und Antistresstraining.

Bluthochdruck ist eine der häufigsten Erkrankungen überhaupt. Die Rate der Betroffenen beträgt derzeit in Deutschland 31,8 Prozent. Das bedeutet: Nahezu jede/r Dritte hat zu hohe Blutdruckwerte – und die sollten nicht auf die leichte Schulter genommen werden/können schwere Gesundheitsschäden/-probleme verursachen. Unbehandelt führt Bluthochdruck zu Folgeschäden an den Organen, den Gefäßen, dem Herz oder den Nieren. Zu hohe Blutdruckwerte können sogar ein Treiber für Demenz sein. Bluthochdruck ist also nicht nur sehr häufig, sondern auch sehr gefährlich.

Daher ist es äußerst wichtig, hohen Blutdruck frühzeitig zu erkennen und zu behandeln. Doch auf welchen Zielwert hin? Bisher war die Beantwortung dieser Frage komplex, es galten verschiedene Werte für verschiedene Patientengruppen. Die neue europäische Blutdruckleitlinie gibt hier nun einen pragmatischen Anhaltspunkt: 140/90 mmHg ist gut, aber Werte weiter darunter wären noch besser (der Blutdruck sollte allerdings nicht unter 120/80 mmHg abgesenkt werden). Die neue Leitlinie zementiert also 140/90 mmHg als „rote Linie“ bei erwachsenen Menschen. Ab diesem Wert muss zwingend eine medikamentöse Blutdrucksenkung erfolgen und mit Hilfe der Blutdrucksenker sollte jede Patientin/jeder Patient diesen Wert unterschreiten.

„Wenn Betroffene Blutdruckwerte unter 140/90 mmHg erreichen, ist ihr Risiko für eine Folgeerkrankung bereits deutlich gesenkt, allerdings haben verschiedene Studien gezeigt, dass das Risiko für Herz-Kreislauf-Erkrankungen bei einer weiteren Absenkung dann noch etwas geringer ist“, erklärt Prof. Markus van der Giet, Vorstandsvorsitzender der Deutschen Hochdruckliga. Warum wurden dann nicht die Zielwerte in der neuen Leitlinie kurzerhand gesenkt? „Die neue ESH-Leitlinie spiegelt hier die Behandlungsrealität wider. Denn für eine tiefere Senkung sind oft höhere Dosen oder mehr Medikamente nötig, die wiederum zu Nebenwirkungen führen können. Diese führen dann dazu, dass die Patientinnen und Patienten die Medikamente oft gar nicht mehr einnehmen – und damit ist am Ende niemandem geholfen. Daher begrüßen wir dieses pragmatische Konzept, jeden auf Werte unter 140/90 mmHg einzustellen – und die, die es vertragen, auch etwas darunter.“

Wer die blutdrucksenkenden Medikamente schlecht toleriert und diese daher nicht für eine weitere Blutdruckabsenkung höher dosiert werden können, sollte versuchen, durch begleitende Lebensstilmaßnahmen eine weitere Absenkung zu erreichen, rät der Experte. „Gewichtsabnahme, gesunde Ernährung, ausreichend Bewegung und Stressreduktion führen zu nennenswerten Effekten bei der Blutdrucksenkung, die sich auch addieren“, motiviert Prof. van der Giet. „Wir raten natürlich allen Betroffenen zu diesen Maßnahmen, besonders aber jenen, bei denen die medikamentöse Therapie nicht wie gewünscht anschlägt bzw. nicht nach Bedarf hochdosiert werden kann.“ Grundsätzlich sollte aber keiner Sorge vor der medikamentösen Therapie haben: Nebenwirkungen treten verhältnismäßig selten auf und es gibt viele verschiedene blutdrucksenkende Medikamente, so dass für die meisten Betroffenen eine Behandlungsoption gefunden werden kann.

Die neue europäische Leitlinie empfiehlt auch zwei neue Maßnahmen für einen blutdruckgesunden Lebensstil: Zum einen werden erstmals Antistresstrainings wie Yoga und autogenes Training empfohlen, zum anderen gibt sie einen neuen, konkreten Ernährungstipp. In der Leitlinie wird zu einer salzarmen, aber kaliumreichen Kost geraten, da Kalium eine blutdrucksenkende Wirkung hat. Es ist in Obst und Gemüse enthalten, die neue Leitlinie rät daher, 4-5 Portionen davon am Tag zu essen. „Das ist im Alltag leicht umzusetzen und hat auch jenseits des Blutdrucks positive Effekte auf den Körper“, sagt Prof. van der Giet. Für das Antistresstraining empfiehlt der Experte, Kontakt zur Krankenkasse aufzunehmen – fast alle haben umfassende Kursangebote und die Kosten werden oft zu einem großen Teil von den Versicherungen getragen. „Werden nicht-medikamentöse Maßnahmen und die Einnahme von Blutdrucksenkern kombiniert, sind für die meisten Betroffenen Werte unter 140/90 mmHg – und auch deutlich darunter – gut zu erreichen“, so lautet das Fazit des Experten.

Umfassende Informationen zu Bluthochdruck finden Sie auf der Webseite der Deutschen Hochdruckliga: www.hochdruckliga.de
peziell mit der Bluthochdrucktherapie (medikamentös wie nicht medikamentös) beschäftigen sich zwei Folgen des Podcast „HyperTon“ der Deutschen Hochdruckliga https://www.hochdruckliga.de/betroffene/hyperton-podcast-blutdruck ):
Folge 1: Blutdruck natürlich senken
Folge 3: Keine Angst vor Medikamenten

[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…

Kontakt für Medienschaffende/Pressestelle der Deutschen Hochdruckliga
Dr. Bettina Albers
Jakobstraße 38
99423 Weimar
albers@albersconcept.de
Telefon: 03643/776423 // Mobil: 0174/2165629

Originalpublikation:
DOI: 10.1097/HJH.0000000000003480

Weitere Informationen:
http://www.hochdruckliga.de

Ergänzung vom 27.06.2023
Leider sind die Zielwerte in dieser Meldung fehlerhaft. Eine medikamentöse Therapie sollte immer bei Werten von über 140/90 mm Hg initiiert werden. Gesenkt werden sollte der Blutdruck aber zunächst bei allen Patientinnen und Patienten auf Werte unter 140/80 mm Hg. Bei erwachsenen Menschen unter 65 Jahren sowie bei älteren, die es tolerieren, soll dann weiter auf Werte unter 130/80 mm Hg abgesenkt werden.

(nach oben)


Wie belastet ist die Elbe? Helmholtz-Forschende verfolgen den Weg von Umweltchemikalien, Mikroplastik und Nährstoffen

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Deutschlands Fließgewässer sind durch Einträge von außen etwa aus Industrie, Landwirtschaft oder Kläranlagen belastet. Doch diese Belastung verändert sich im Flussverlauf. Forscher:innen mehrerer Helmholtz-Zentren wollen nun in einer gemeinsamen Messkampagne genauer analysieren, wie Umweltchemikalien, Nano- und Mikroplastikpartikel sowie Nährstoffe in welcher Konzentration und Größe in die Elbe und dann ins Meer gelangen und wie sie auf dem Weg dahin abgebaut und verändert werden. Die diesjährige Elbe-Fahrt im Rahmen der Forschungsinitiative MOSES beginnt Ende Juni in Tschechien und endet Mitte September in der Deutschen Bucht.

Auf 1.094 Kilometer zieht sich die Elbe von ihrer Quelle im tschechischen Riesengebirge bis zu ihrer Mündung bei Cuxhaven durch Tschechien und Deutschland. Sie fließt dabei durch Großstädte wie Dresden und Magdeburg, bekommt Zulauf durch teils stark belastete Flüsse wie Saale, Havel und Mulde sowie unzählige kleinere Fließgewässer, nimmt Einleiter von Kläranlagen auf und passiert Ackerflächen und Wiesen. Damit landet vieles, was im Einzugsgebiet des Flusses in die Umwelt gebracht wird, irgendwann in irgendeiner Form in der Elbe. Das sind beispielsweise Umweltchemikalien, Nano- und Mikroplastikpartikel und Nährstoffe. „Ziel ist, die stofflichen Einträge und deren Konzentrationen von der Quelle der Elbe bis in die Deutsche Bucht zu messen. Wir wollen so ein Modell entwickeln, das die Verteilung und Verdünnung der Schadstoffe im Fluss berücksichtigt, um daraus Rückschlüsse zu ziehen, welchen Prozessen die Schadstoffe unterliegen“, sagt Dr. Ute Weber. Sie leitet am UFZ die Forschungsinitiative MOSES, bei der neun Helmholtz-Forschungszentren die Folgen hydro-meteorologischer Extremereignisse auf Erde und Umwelt analysieren.

Besonders ist an der diesjährigen Elbe-Kampagne, dass neben dem UFZ als koordinierende Forschungseinrichtung drei weitere Helmholtz-Zentren beteiligt sind, die auf einzelnen Flussabschnitten und Küstenbereichen der Nordsee mit ihren Forschungsschiffen unterwegs sind: Das Helmholtz-Zentrum Hereon, das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar und Meeresforschung (AWI). Diese Kooperation wurde erstmals bei der MOSES-Generalprobe „Elbe 2020“ getestet. „Wir haben damals die Zusammenarbeit der aufeinander abgestimmten Sensor- und Messsysteme sowie die Logistik und Organisation von Schmilka bis in die Deutsche Bucht erfolgreich geprobt“, sagt Ute Weber. Die Einsatzlogistik habe man in den folgenden Kampagnen stets verfeinert, sodass sie nun immer wieder für neue Forschungsziele genutzt werden könne.

Neu in diesem Jahr ist, dass die Schadstoffe erstmals im gesamten Gradienten von der Quelle der Elbe bis in die Mündung in Nordsee untersucht werden. Vom 27. bis 29. Juni übernimmt auf tschechischer Seite das Institute of Hydrobiology der Akademie der Wissenschaften der Tschechischen Republik die Beprobung auf dem rund 370 Kilometer langen Abschnitt von der Quelle bis zur tschechisch-deutschen Grenze. Weil die Elbe auf tschechischer Seite gestaut ist, ist dort allerdings anders als in Deutschland kein Forschungsschiff unterwegs. Die Wasser- und Sedimentproben werden deswegen von Brücken oder an Staustufen entnommen. Von der Grenze bis zur Staustufe Geesthacht kommen dann in den ersten beiden Juliwochen das UFZ-Forschungsschiff „Albis“ zum Einsatz, anschließend das Hereon-Forschungsschiff „Ludwig Prandtl“ von Geesthacht bis nach Cuxhaven (Ende August). Den Küstenbereich der Nordsee übernehmen Anfang September neben der „Ludwig Prandtl“ das GEOMAR Forschungsschiff „Littorina“ und das AWI-Forschungsschiff „Uthörn II“.

Inhalte des Messprogramms „Elbe 2023“
Die Untersuchungen zu den Umweltchemikalien verantwortet der UFZ-Umweltchemiker Prof. Dr. Werner Brack. „Wir wollen eine Palette von unterschiedlichen organischen Chemikalien, die im Wasser gelöst oder an Schwebstoffen gebunden sind, flussabwärts von Tschechien bis in die Deutsche Bucht erfassen und analysieren“, sagt er. Dazu zählen mehr als 600 Stoffe, darunter pharmazeutische Reststoffe, hormonell wirksame Substanzen, Konservierungsstoffe, Polyfluoralkylsubstanzen (PFAS), Pestizide, Industriechemikalien und Tenside. Sie werden abgebaut, umgewandelt, durch Einträge aus verschiedenen Quellen überlagert oder ihre Konzentrationen verdünnt. „Ziel ist, die Einträge etwa aus Landwirtschaft, Kläranlagen, Industrie und Siedlungsbereichen in die Elbe und damit die Belastung des Flusses genauer zu ermitteln“, sagt Werner Brack. Um diesen sogenannten chemischen Fußabdruck zu bestimmen, nehmen Forscher:innen Wasserproben – sowohl in Tschechien vom Ufer der Elbe als auch in Deutschland an 22 Stellen in der Elbe sowie von Land aus an sechs Zuflüssen und acht Kläranlagen. Zudem setzen die Forschenden auf die Non-Target-Analyse, mit der sich unbekannte Verbindungen in Wasserproben anhand der Molekülmasse identifizieren lassen. „Unser Anspruch ist, chemische Mischungen als typische Belastungsmuster zu bestimmen, die sich eindeutigen Quellen wie etwa Landwirtschaft, Industriebetrieben, Straßenverkehr oder Siedlungen zuordnen lassen“, sagt Brack. Bislang sei man diesem Forschungsansatz vor allem in Laborversuchen nachgegangen, doch das Messprogramm in der Elbe biete viel realistischere Bedingungen.

Die UFZ-Umweltchemikerin Prof. Dr. Annika Jahnke koordiniert ein Team von Forscher:innen, für die der Transport und die Verteilung von Nano- und Mikroplastik und mit diesen in Verbindung stehenden Chemikalien wie beispielsweise Weichmachern oder UV-Stabilisatoren im Mittelpunkt stehen. „Die Hauptquellen für das häufige Vorkommen von Plastik in den Meeren liegen an Land, und Flüsse spielen dabei eine wichtige Rolle in der Verteilung. Wir vermuten, dass durch die Elbe viele Nano- und Mikroplastikpartikel in die Nordsee transportiert werden, und wollen deswegen untersuchen, wie sich die Partikel und damit in Verbindung stehende Chemikalien verteilen, von der Quelle bis in die Nordsee“, sagt sie. Beispielhaft für die Elbe wolle man quantifizieren, wie viel Plastik auf diesem Weg ins Meer gelangt. Neben der Partikelanalytik hat ihr Team für das Mess- und Analyseprogramm rund 150 Stoffe ausgesucht. „Diese langlebigen Stoffe sind für Menschen, Organismen und die Umwelt potenziell toxisch, da sie beispielsweise im Verdacht stehen, auf das Hormonsystem einzuwirken, und dazu neigen, sich in Lebewesen anzureichern“, sagt Annika Jahnke. Sie lässt im Verlauf der Elbe und der Deutschen Bucht rund 30 Sediment- und zahlreiche Wasserproben nehmen, die in den Helmholtz-Forschungslaboren untersucht werden sollen.

Als dritter thematischer Schwerpunkt interessieren sich die Forscher:innen für Nährstoffe. Ein vom UFZ-Fließgewässerökologen Dr. Norbert Kamjunke koordiniertes Team will die Konzentrationen von Nährstoffen wie beispielsweise Nitrat, Phosphat oder Silizium sowie von organischen Verbindungen wie etwa Kohlenhydraten und Huminstoffen messen und die Nährstoffaufnahme durch Algen ermitteln, die im Flussverlauf starken Schwankungen unterliegt: Erst wachsen die Algen in der Binnenelbe in Massen heran, nehmen Nährstoffe auf, in dessen Folge die Konzentrationen von Nitrat und Phosphat im Wasser sinken. Die Algen produzieren durch Photosynthese viel Sauerstoff, der pH-Wert steigt. „Im Ästuar unterhalb des Hamburger Hafens sinkt die Fließgeschwindigkeit, die Algen sedimentieren und Abbauprozesse führen zu einem Sauerstoffminimum. Gelöste Nährstoffe werden wieder freigesetzt und in die Nordsee transportiert, wo sie potenziell wieder zu Algenwachstum führen können“, erläutert Norbert Kamjunke, der für das UFZ die Elbefahrt auf der „Albis“ leitet und die gesamte Kampagne koordiniert. Ziel der Messungen ist, durch insgesamt 70 Wasser- und Sedimentproben den Export der Nährstoffe vom Land in die Elbe und in die Küstengewässer zu quantifizieren. „Wir wollen so einen Gradienten für die Nährstoffverteilung von der Quelle bis ins Meer beschreiben“, sagt der UFZ-Forscher. Mit ersten vorläufigen Ergebnissen für die drei Schwerpunkte ist frühestens zum Jahresende zu rechnen.

MOSES steht für „Modular Observation Solutions for Earth Systems”. In dieser vom UFZ koordinierten Initiative haben neun Forschungszentren der Helmholtz-Gemeinschaft zwischen 2017 und 2021 gemeinsam mobile und modular einsatzfähige Beobachtungssysteme aufgebaut. Sie können so die Auswirkungen zeitlich und räumlich begrenzter dynamischer Ereignisse wie zum Beispiel extreme Niederschlags- und Abflussereignisse oder Dürreperioden auf die langfristige Entwicklung von Erd- und Umweltsystemen untersuchen. Seit 2022 ist MOSES im regulären Betrieb.

Aktuelle Informationen zu MOSES:
MOSES-Website: www.moses-helmholtz.de

Wissenschaftliche Ansprechpartner:
Wir bitten um Verständnis, dass im Fall dieser Messkampagne die entsprechenden Fachansprechpartner über die jeweiligen Pressestellen vermittelt werden. Bitte wenden Sie sich
1. an die UFZ-Pressestelle (presse@ufz.de): bei Fragen zur gesamten Kampagne / zur Befahrung der Elbe von der tschechischen Grenze bis zur Staustufe in Geesthacht
2. an die Hereon-Pressestelle (presse@hereon.de): Bei Fragen zur Befahrung der Tide-Elbe vom Wehr Geesthacht in die Deutsche Bucht
3. an die AWI-Pressestelle (medien@awi.de) oder die GEOMAR-Pressestelle (media@geomar.demedia@geomar.de) bei Fragen zu den Messungen in der Deutschen Bucht

Weitere Informationen:
http://www.moses-helmholtz.de

(nach oben)


Cyberagentur gibt Startschuss für zweite Forschungsphase zur Cybersicherheit von KRITIS

Michael Lindner Presse
Agentur für Innovation in der Cybersicherheit GmbH
Hochambitionierte Konzepte setzen sich durch

Drei Forschungsverbunde im Projekt „Existenzbedrohende Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ haben sich nach einer mehrstufigen Evaluation durchgesetzt.

Seit Anfang Dezember 2022 haben die sechs Teilnehmer des Forschungswettbewerbs in der ersten Phase ihre Forschungskonzepte zum Thema „Existenzbedrohende Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ (HSK) ausgearbeitet und konkretisiert. Am 1. Juni 2023 mussten die Konzepte nach vorheriger Vorstellung in individuellen halbtägigen Workshops sowie einwöchiger Überarbeitungsphase final eingereicht werden. Die Jury hat nun die finalen drei Wettbewerbsteilnehmer für die zweite Phase ermittelt. Der Projektleiter, Dr. Gerald Walther, betont in diesem Zusammenhang, dass „wir insgesamt sechs sehr gute Einreichungen am Ende der ersten Phase erhalten haben. Die Jury hat sich sehr genau mit den Konzepten auseinandergesetzt und sich letztlich für die drei Forschungsgruppen mit den innovativsten Ansätzen entschieden.“

Die Hauptauftragnehmer sind die Asvin GmbH, die Otto-von-Guericke-Universität Magdeburg und die Universität Hamburg. Alle drei haben hervorragende Konzepte mit jeweils eigenständigen, hochambitionierten Forschungsschwerpunkten eingereicht:

1) MANTRA, das Projekt der Asvin GmbH, schafft ein sicheres und resilientes Framework zum Echtzeit-Austausch von Cyber-Angriffsmustern und deren Risiko-Management. Der neuartige auf Graphen-Modellen basierende Ansatz bietet erhebliche Vorteile im Cybersicherheitsmanagement, insbesondere bei der Automatisierung und Priorisierung von Maßnahmen, bei der Risikominimierung und während der aktiven Abwehr von Cyberangriffen.

2) ATTRIBUT, das Projekt der Universität Magdeburg, will die Fähigkeit zur Aufklärung bzw. Attribution von Schadcodeangriffen erforschen, welche auf die Nutzung von verdeckter Kommunikation bzw. auf steganographischen Kanälen aufbauen und verdeckte Infiltration in gesicherte Netzwerke, das Verstecken von Command & Control-Kommunikation oder die verdeckte Exfiltration von Daten durch Schutzsysteme zum Ziel haben. Dabei werden sowohl die klassisch verdeckte Ende-zu-Ende-Kommunikation (Steganographie) als auch die moderneren Methoden von sogenannter Stego-Malware betrachtet.

3) SOVEREIGN, das Projekt der Universität Hamburg, wird eine resiliente, KI- und Zero-Trust-basierte Cyber-Defense-Plattform entwickeln und wird damit einen wichtigen Beitrag zur Erhöhung der Cybersicherheit kritischer Infrastrukturen leisten. Konzipiert als modularer Baukasten bringt die Plattform passive und aktive Sensorik sowie Aktuatorik tief in kritische Infrastrukturen ein, um Sicherheitslücken sowie komplexe Cyber-Angriffe frühzeitig zu erkennen, einzuschätzen, zu behandeln und abwehren zu können. Die Plattform wird mittels KI automatisiert Angriffe vorhersagen, erkennen, bewerten und darauf aufbauend das Risiko für Unternehmensprozesse und Assets dynamisch abschätzen.

„Alle drei Forschungsgruppen setzen nun ihre Projektkonzepte um“, erläutert Dr. Gerald Walther. „Dafür haben sie in der Phase 2 ein Jahr Zeit und am Ende wird wiederum die Umsetzung evaluiert. Dann werden zwei Teilnehmer ausgewählt, die in die Phase 3 vorrücken.“
Auch für diese Evaluation steht erneut die Fachjury aus Mitgliedern der Cyberagentur und Vertretern der gesamtgesellschaftlichen Sicherheitsvorsorge bereit. Ihr gehören Prof. Dr. Christian Hummert, Forschungsdirektor der Cyberagentur, Prof. Dr. Tobias Eggendorfer, Abteilungsleiter Sichere Systeme, Dr. André Müller, Forschungsreferent Sichere Systeme, und Dr. Gerald Walther, Leiter Schutz kritische Infrastruktur, und als externe Mitglieder Dr. Harald Niggemann, Cyber Security Strategist beim Bundesamt für Sicherheit in der Informationstechnik sowie Oberstleutnant Christoph Kühn, Dezernatsleiter im Cyber Security Operations Centre der Bundeswehr, an.

Kontakt
Michael Lindner
Pressesprecher der Cyberagentur
Tel.: +49 151 44150 645
E-Mail: presse@cyberagentur.de

Hintergrund:

Cyberagentur
Die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) wurde im Jahr 2020 als vollständige Inhouse-Gesellschaft des Bundes unter der gemeinsamen Federführung des Bundesministeriums der Verteidigung und des Bundesministeriums des Inneren und für Heimat durch die Bundesregierung mit dem Ziel gegründet, einen im Bereich der Cybersicherheit anwendungsstrategiebezogenen und ressortübergreifenden Blick auf die Innere und Äußere Sicherheit einzunehmen. Vor diesem Hintergrund bezweckt die Arbeit der Cyberagentur maßgeblich eine institutionalisierte Durchführung von hochinnovativen Vorhaben, die mit einem hohen Risiko bezüglich der Zielerreichung behaftet sind, gleichzeitig aber ein sehr hohes Disruptionspotenzial bei Erfolg innehaben können.
Der Cyberagentur stehen Prof. Dr. Christian Hummert als Forschungsdirektor und Geschäftsführer sowie Daniel Mayer als kaufmännischer Direktor vor.

Wissenschaftliche Ansprechpartner:
Dr. Gerald Walther

Originalpublikation:
https://www.cyberagentur.de/startschuss-fuer-zweite-forschungsphase-zur-cybersic…

Weitere Informationen:
https://www.cyberagentur.de/30-millionen-fuer-forschung-zum-schutz-kritischer-sy…
https://www.cyberagentur.de/strongcyberagentur-vergibt-millionenauftrage-zur-cyb…
https://www.cyberagentur.de/professionelle-unterstuetzung-der-cyberagentur-im-au…

(nach oben)


Mangel und Überfluss. Zur Verteilung von Knappheit im 21. Jahrhundert

Helena Rose Pressestelle
Kulturwissenschaftliches Institut Essen (KWI)
Podiumsdiskussion im Rahmen des Jahresthemas „Mehr oder Weniger“

Donnerstag, 13. Juli 2023, 18.00 Uhr
Kulturwissenschaftliches Institut Essen (KWI), Gartensaal & Online (via Zoom)
Goethestraße 31, 45128 Essen

Dass mehr und mehr Menschen im ökologischen Haushalt der Erde über ihre Verhältnisse leben, ist nicht erst seit gestern bekannt. Bereits 1972 wies der Club of Rome medienwirksam auf die Grenzen eines Wachstums hin, das auf nicht-erneuerbaren Energiequellen beruht und darüber hinaus kaum absehbare Folgeschäden nach sich zieht: Umweltverschmutzung, Artensterben und Klimakrise.

Immer öfter werden Stimmen laut, die für eine Selbstbeschränkung menschlicher Bedürfnisse im Dienste des planetaren Gleichgewichtes plädieren. Doch was macht die Aussicht auf Mangel mit modernen Massengesellschaften, in denen sich mit dem Versprechen von wachsendem Wohlstand lange Zeit selbst tiefe soziale Risse kitten ließen? An Vorschlägen, wie die Verteilung der Knappheit zukünftig organisiert werden soll, herrscht kein Mangel. Das Wort von der Rationierung knapper Ressourcen macht nicht nur in akademischen Kreisen die Runde, sondern ist auch aus dem Munde politischer Entscheidungsträger wieder zu vernehmen.

Doch verabschiedet man mit der Abkehr vom Überfluss nicht auch das moderne Projekt individueller Autonomie, das dem Menschen umso höhere Freiheitsgrade zusicherte, je entschlossener er die Fesseln der Natur abstreifte? Verbirgt sich im Gewand der Nachhaltigkeit eine Form der Kasteiung, die anderen Beschränkungen auferlegt, um sich selbst moralisch zu überhöhen? Ebenso fraglich ist, wie den Ländern des globalen Südens die Außerbetriebnahme einer Wachstumslokomotive zu vermitteln wäre, deren Ankunft sich weite Teile der Bevölkerung sehnlichst erhoffen. Dieser herausfordernden Gemengelage geht eine Podiumsdiskussion am KWI aus historischer, ökonomischer und politischer Perspektive auf den Grund.

DISKUTANT*INNEN
ANNA ECHTERHÖLTER ist Professorin für Geschichte der Neuzeit und Wissenschaftsgeschichte an der Universität Wien.
RALF FÜCKS ist Gründer und geschäftsführender Gesellschafter des Berliner Thinktanks Zentrum Liberale Moderne.
LISA HERZOG ist Professorin am Centre for Philosophy, Politics and Economics der Universität Groningen.
MATTHIAS SCHMELZER ist Soziologe an der Friedrich-Schiller-Universität Jena.

MODERATION
Danilo Scholz, KWI

TEILNAHME
Die Teilnahme ist kostenlos und ohne Anmeldung möglich in Präsenz im KWI oder via Zoom unter dem auf dieser Seite aufgeführten Link: https://www.kulturwissenschaften.de/en/veranstaltung/mangel-und-ueberfluss/

VERANSTALTER
Eine Veranstaltung des Kulturwissenschaftlichen Instituts Essen (KWI) im Rahmen des Jahresthemas „Mehr oder Weniger“

Über das Kulturwissenschaftliche Institut Essen (KWI):
Das Kulturwissenschaftliche Institut Essen (KWI) ist ein interdisziplinäres Forschungskolleg für Geistes- und Kulturwissenschaften in der Tradition internationaler Institutes for Advanced Study. Als interuniversitäres Kolleg der Ruhr-Universität Bochum, der Technischen Universität Dortmund und der Universität Duisburg-Essen arbeitet das Institut mit den Wissenschaftlerinnen und Wissenschaftlern seiner Trägerhochschulen und mit weiteren Partnern in NRW und im In- und Ausland zusammen. Innerhalb des Ruhrgebiets bietet das KWI einen Ort, an dem die Erträge ambitionierter kulturwissenschaftlicher Forschung auch mit Interessierten aus der Stadt und der Region geteilt und diskutiert werden. Derzeit stehen folgende Forschungsschwerpunkte im Mittelpunkt: Kulturwissenschaftliche Wissenschaftsforschung, Kultur- und Literatursoziologie, Wissenschaftskommunikation, Visual Literacy sowie ein „Lehr-Labor“. Fortgesetzt werden außerdem die Projekte im Forschungsbereich Kommunikationskultur sowie Einzelprojekte.
www.kulturwissenschaften.de

Anhang
Flyer zum Jahresthema „Mehr oder Weniger“

(nach oben)


Auf dem Weg zum Europäischen Gesundheitsdatenraum

Sophie Haderer Geschäftsstelle TMF e.V.
TMF – Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V. (TMF)
Nationale Initiativen für Gesundheitsdateninfrastrukturen aus Deutschland, der Schweiz und den Niederlanden im Austausch

Berlin, 27.06.2023. Expertinnen und Experten dreier nationaler Initiativen kamen am 26. und 27. Juni bei einem Workshop in Berlin zusammen, um über Vorgehen, Hürden und Chancen beim Aufbau von Infrastrukturen für die Nutzung von Gesundheitsdaten für die Forschung zu diskutieren. Vertreten waren die deutsche Medizininformatik-Initiative (MII), gefördert vom Bundesministerium für Bildung und Forschung, die Schweizer Initiative SPHN (Swiss Personalized Health Network) sowie Health-RI (Health-Research Infrastructure) aus den Niederlanden. Bei einer Abendveranstaltung mit Teilnahme der EU-Kommission wurde über Herausforderungen und Perspektiven eines gemeinsamen Europäischen Gesundheitsdatenraums (EHDS) diskutiert. Eingeladen hatte die TMF – Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V., die gemeinsam mit dem Medizinischen Fakultätentag und dem Verband der Universitätsklinika die MII-Koordinationsstelle betreibt.

Die Einführung des EHDS bietet große Chancen für Versorgung und Forschung. Ein innereuropäischer Datenaustausch würde den Grundstein für eine Verbesserung der Gesundheitsversorgung legen und eine Nachnutzung von Gesundheitsdaten für die Forschung ermöglichen. Um den Anforderungen an eine digitale Gesundheits- und Forschungslandschaft erfolgreich zu begegnen, ist die Entwicklung einer gemeinsamen Gesundheitsdatenarchitektur beziehungsweise einer Digitalstrategie notwendig. Im Zuge des EHDS ist es wichtiger denn je, dass Versorgung und Forschung stärker miteinander verzahnt werden. Die MII, SPHN und Health-RI haben in Deutschland, der Schweiz und den Niederlanden jeweils die Basis für eine dezentrale Infrastruktur und damit relevante Vorarbeiten für den EHDS geschaffen, stehen aber noch vielen Herausforderungen gegenüber.

Bei der öffentlichen Abendveranstaltung des Workshops sprach Licínio Kustra Mano, Berater für den EHDS bei der EU-Kommission, DG SANTE, über den Zeitplan für den EHDS-Rechtsrahmen. So könne das Gesetz zum EHDS voraussichtlich im nächsten Jahr verabschiedet werden. Außerdem stellte er die Verantwortlichkeiten für Datenhalter, die erwarteten Vorteile aus Nutzersicht sowie Maßnahmen zur Datenqualität dar.

Vertreterinnen und Vertreter von MII, SPHN und Health-RI erörterten in verschiedenen Workshop-Sessions den aktuellen Stand des Infrastrukturaufbaus in den drei Ländern und gingen auf Gemeinsamkeiten und Unterschiede ein. Dabei wurden die Themen Einwilligungserklärung (Consent), Interoperabilität, Datenaustausch (Data Sharing), rechtliche Rahmenbedingungen, Finanzierung und Nachhaltigkeit adressiert.

Voraussetzungen für einen nachhaltigen Betrieb einer Dateninfrastruktur seien eine gute Governance-Struktur, robuste Finanzierung sowie eine gesetzliche Grundlage und verantwortliche Trägerstelle, sagte Dr. Thomas Geiger, SPHN-Geschäftsführer.

Dr. Katrin Crameri, Direktorin Personalisierte Gesundheitsinformatik beim SIB Schweizerischen Institut für Bioinformatik und Direktorin SPHN Datenkoordinationszentrum, stellte die Schweizer Initiative vor und erläuterte, wie die Schweiz auch als Nicht-EU-Staat zum EHDS beitragen könne. SPHN verfolgt einen dezentralisierten Ansatz und investiert in Datenqualität und Interoperabilität überall dort, wo Gesundheitsdaten aufgenommen oder produziert werden. Ziel ist, diese verantwortungsvoll und effizient für die Sekundärnutzung zur Verfügung zu stellen.

Dr. Jan-Willem Boiten, Senior-Projektleiter Architektur bei Health-RI, gab einen Überblick über das Vorhaben der Niederlande. Health-RI werde von 2022 bis 2028 mit 69 Millionen Euro gefördert. Die Zusammenarbeit mit den europäischen Partnern sei sehr wichtig für den weiteren Aufbau der Infrastruktur.

Sebastian C. Semler, TMF-Geschäftsführer und Leiter der MII-Koordinationsstelle, betonte die Notwendigkeit eines „Identifier“ für die Verknüpfung von Daten innerhalb der föderiert-dezentralisierten Dateninfrastruktur. Deutschland, die Schweiz und die Niederlande befänden sich auf einem ähnlichen Weg zum EHDS II zum „Secondary Use“ von Gesundheitsdaten für Forschung und Innovation. Dies sei sehr ermutigend für die kommenden Herausforderungen und böte Chancen in einer intensivierten Zusammenarbeit.

Pressekontakt:
Sophie Haderer, Tel.: 030 − 22 00 24 732, Mobil: 0173 4054214, E-Mail: presse@medizininformatik-initiative.de

Hintergrund:

Medizininformatik-Initiative:
Ziel der Medizininformatik-Initiative (MII) ist es, Routinedaten aus der Patientenversorgung bundesweit digital zu vernetzen und für die medizinische Forschung verfügbar zu machen, um Krankheiten zukünftig schneller und effektiver behandeln zu können. Daran arbeiten alle Einrichtungen der Universitätsmedizin Deutschlands gemeinsam mit weiteren Forschungseinrichtungen, Unternehmen, Krankenkassen und Patientenvertretungen in den vier Konsortien
DIFUTURE, HiGHmed, MIRACUM und SMITH. Datenschutz und Datensicherheit haben hierbei höchste Priorität. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die MII bis einschließlich 2026 mit insgesamt über 400 Millionen Euro.

SPHN:
Das Swiss Personalized Health Network ist eine nationale Initiative unter der Federführung der Schweizerischen Akademie für Medizinische Wissenschaften (SAMW). In Zusammenarbeit mit dem SIB Schweizerisches Institut für Bioinformatik tragen sie zur Entwicklung, Implementierung und Validierung von koordinierten Dateninfrastrukturen bei, um gesundheitsrelevante Daten für die Forschung nutzbar zu machen. Um Gesundheitsdaten interoperabel und der Forschung zugänglich zu machen, vereint das SPHN sämtliche Entscheidungsträger der wichtigsten Institutionen aus Klinik, Forschung und Forschungsförderung.

Health-RI:
Health-RI ist die nationale niederländische Initiative zur Förderung einer integrierten Infrastruktur für Gesundheitsdaten, die für Forschende, Bürgerinnen und Bürger, Leistungserbringende und die Industrie zugänglich ist. Sie wird die optimale Nutzung von Gesundheitsdaten, Proben und Bildern sowie ein lernendes Gesundheitssystem ermöglichen und die personalisierte Gesundheit beschleunigen.

Weitere Informationen:
http://www.medizininformatik-initiative.de
http://www.sphn.ch
http://www.health-ri.nl

(nach oben)


Netz von Messstationen dokumentiert Unterschiede bei Wetter und Klima im Stadtgebiet von Freiburg

Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Daten der Universität Freiburg für alle Stadtteile sind jetzt über eine App in Echtzeit abrufbar
• Ein Schwerpunkt des Messnetzes liegt auf der Hitzebelastung der Freiburger Bevölkerung und Unterschieden innerhalb des Stadtgebiets. Die Stadt Freiburg unterstützt das Projekt und will die Messergebnisse auch selbst nutzen
• Die Daten bilden die Grundlage für mehrere Forschungsprojekte an der Universität Freiburg zu Klimaforschung und Anpassungsmöglichkeiten von Städten. „Freiburg wird damit zum Testfeld für Stadtklima-Modelle“, sagt Umweltmeteorologe Prof. Dr. Andreas Christen

Im Freiburger Stadtteil Zähringen tobt ein Gewitter, im Rieselfeld hingegen fällt kaum ein Tropfen Regen. In Littenweiler kühlt ein angenehmer Höllentäler den heißen Sommerabend, im Industriegebiet Nord ist von dem Wind nichts zu spüren. „Innerhalb einer Stadt wie Freiburg gibt es große Unterschiede bei Wetter und Klima – diese werden bisher aber kaum erfasst und auch in Modellen etwa zu Extremereignissen wie Hitzestress oder Überflutungen wenig berücksichtigt“, sagt Prof. Dr. Andreas Christen, Professor für Umweltmeteorologie an der Universität Freiburg. Das soll nun ein Netz von gut 40 Messstationen im Freiburger Stadtgebiet und der näheren Umgebung ändern. Die gemessenen Daten an den einzelnen Stationen können von der Öffentlichkeit über die App „uniWeather“ abgerufen werden. Entwickelt hat sie der Student Gregor Feigel als Projektarbeit. Sie ist im App Store kostenlos verfügbar (nur für iOS).

Messstationen lassen sich in der App auswählen
Alle derzeit 42 Stationen messen Lufttemperatur, Feuchte und Niederschlag. Sie übermitteln die Daten alle fünf Minuten per Mobilfunknetz. An 13 der Stationen wird zusätzlich unter anderem Luftdruck, Wind, Sonneneinstrahlung und Strahlungstemperatur erfasst. Mithilfe dieser zusätzlichen Messgrößen kann an den jeweiligen Stationen ebenfalls die so genannte thermische Belastung errechnet werden, also der Hitze- oder Kältestress, dem Menschen dort ausgesetzt sind. „Unser Messnetz hat einen besonderen Schwerpunkt auf Hitze in der Stadt. Das ist in dieser Form einzigartig“, sagt Christen.

In der App lassen sich sowohl die Messstationen in verschiedenen Stadtteilen einzeln auswählen als auch Messgrößen wie etwa Niederschlag oder PET (Physiologisch äquivalente Temperatur), also die Wärmebelastung anzeigen – inklusive einer Grafik für die vergangenen 24 Stunden. Karten zeigen in einer Übersicht über das Stadtgebiet Unterschiede bei den jeweiligen Werten. Die aktuelle Temperatur einer ausgewählten Messstation lässt sich zusätzlich auf dem Sperrbildschirm des Handys ablesen.

Stadt stellt Masten und Strom zur Verfügung
Beim Aufbau des Messnetzes haben Christen und sein Team eng mit der Stadt Freiburg zusammengearbeitet, die unter anderem Laternenmasten zur Befestigung sowie den Strom zum Betrieb der Stationen zur Verfügung stellt. Die Stadtverwaltung kann die Daten der Universität zukünftig auch selbst nutzen, um noch zielgenauer extreme Wetterereignisse zu registrieren. Und klimatische Unterschiede innerhalb der Stadt könnten in längerfristige städtebauliche Planungen mit einbezogen werden. Weiter ist geplant, dass die Stadt die Daten in Echtzeit und historisiert über ihre Datenportale allen Interessierten kostenlos verfügbar macht.

Daten für die Forschung
Entstanden ist das Messnetz an der Universität Freiburg im Rahmen des 2020 gestarteten EU-Projekts „urbisphere“. „Freiburg wird damit zum Testfeld für Stadtklima-Modelle an mehreren europäischen Universitäten und für Wetterdienste“, sagt Christen, der das Projekt leitet. Die Forschenden nutzen die Daten des Messnetzes, um neue Modelle zu entwickeln, die Klimaveränderungen und Wettervorhersagen kleinräumig auflösen: „Wir brechen die Entwicklungen herunter auf die Eben von Stadtteilen – wie betreffen zum Beispiel Wärmeinseln an heißen Tagen Weingarten und wie Littenweiler?“ Das „urbisphere“-Projekt ist an mehreren europäischen Universitäten angesiedelt und untersucht weltweit Modellstädte. Es läuft noch bis 2027 und wird durch einen Synergy Grant des European Research Council (ERC) der EU mit insgesamt zwölf Millionen Euro gefördert.

Künstliche Intelligenz errechnet Modelle
Auch das gemeinsame Projekt „I4C – Intelligence for Cities“ der Universität Freiburg und mehrerer Freiburger Fraunhofer-Institute nutzt die Daten des Messnetzes. Es erforscht mithilfe von Künstlicher Intelligenz (KI), welche Stadtteile besonders Hitze, Hochwasser und Stürmen ausgesetzt sind und wie wir darauf reagieren können. Betrachtungen zu Ethik und Datenschutz beim Umgang mit Künstlicher Intelligenz sind ebenfalls Thema. Das Projekt wird geleitet von dem Informatiker Prof. Dr. Thomas Brox, Professor für Mustererkennung und Bildverarbeitung an der Universität Freiburg, und vom Bundesumweltministerium als „KI Leuchtturm“ gefördert.

Die Freiburger App „uniWeather“ für iOS gibt es kostenlos im App Store unter https://apps.apple.com/de/app/uniweather/id6443663033

Kontakt:
Hochschul- und Wissenschaftskommunikation
Universität Freiburg
Tel.: 0761/203-4302
E-Mail: kommunikation@zv.uni-freiburg.de

Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2023/netz-von-messstationen-dokumentier…

(nach oben)


Biozide im Fassadenputz: überraschende Forschungsergebnisse

Natalie Schalk Referat Marketing und Kommunikation
Hochschule Coburg
Als vor einiger Zeit in Schweizer Gewässern bestimmte Substanzen festgestellt wurden, war die Überraschung groß. Es handelte sich um Biozide, die in der Landwirtschaft nicht mehr eingesetzt werden dürfen. Woher konnten sie kommen? Und wie wirken sie sich aus? Ein Forschungsprojekt der Hochschule Coburg liefert neue Erkenntnisse über Biozide in Baustoffen. Kommende Woche werden sie in Augsburg auf einer Fachtagung präsentiert.

Etwa ein Viertel der hergestellten Biozide wird im Bausektor verwendet. In Putz und Fassadenfarben verhindern sie, dass zum Beispiel Algen und Bakterien als grün-braune Biofilme an der Hauswand wuchern. Das ist nicht nur ein optisches Problem; Pilze beispielsweise können die Fassade tatsächlich beschädigen. Dagegen wirken Chemikalien in Baustoffen langfristig. Regen wäscht sie im Lauf der Zeit aus – und sie landen in Boden und Gewässern. Aus dieser Erkenntnis entwickelte sich ein Forschungskonsortium, an dem die Hochschule Coburg im Rahmen des Projekts BayÖkotox unter Leitung von Prof. Dr. Stefan Kalkhof arbeitet.

Wie Biozide auf Wasserlebewesen wirken, bezeichnen Forschende als „aquatische Toxizität“. Sie ist bereits gut untersucht. Aber zu den Effekten auf die Mikroorganismen im Boden, der so genannten „terrestrischen Toxizität“, gibt es bisher kaum Daten. „Vor zwei Jahren haben wir dazu einen großen Freilandversuch auf dem Parkplatz in der Sonneberger Straße aufgebaut“, erzählt Fabienne Reiß. Sie kommt aus den nahegelegenen Haßbergen, hat in Coburg bereits ihren Bachelor und Master in Bioanalytik absolviert und promoviert im Projekt BayÖkotox bei Prof. Dr. Matthias Noll. Ihre Kollegin Nadine Kiefer kommt aus der Nähe des baden-württembergischen Reutlingen, ist Chemikerin und promoviert bei Prof. Dr. Stefan Kalkhof. Die Bioanalytikerin und die Chemikerin ergänzen sich, sind dankbar für die Möglichkeit, sich miteinander wissenschaftlich auszutauschen – und menschlich aufzubauen, wenn mal was nicht läuft. „Eine Promotion hat Höhen und Tiefen“, sagt Reiß. Kiefer berichtet: „Die Betreuung durch die Profs ist an einer Hochschule sehr eng, das ist super. Und die Tandem-Promotion ist wirklich cool.“

Viel Regen – viele Proben
Sobald es anfing zu regnen, wusste das Tandem: Es steht Arbeit an. Schon wieder. „Wir haben den Freilandversuch 2021 gemacht. Dieses Jahr war sehr, sehr … “ Reiß schaut gespielt-gequält, dann lacht sie ironisch: „feuchtfröhlich! Wir sind fast in Baustoff-Eluaten ertrunken, wussten nicht mehr, wo wir sie lagern können, geschweige denn, wie wir sie analysieren, so lange alles noch stabil ist.“ Die Eluate, eine Flüssigkeit, die für weitere Tests aufbereitet und verdünnt ist, gewann Kiefer aus dem Regenwasser, das von der Test-Fassade lief und in speziellen Behältern aufgefangen wurde. Die Test-Fassade bestand aus L-Steinen aus Beton, die mit verschiedenen Prüfmustern verputzt worden waren: mal nur im Unterputz mit Bioziden, mal auch in Oberputz und Fassadenfarbe. Außer im Freilandversuch wurde das Auswaschungsverhalten auch in einer „Bewitterungskammer“ im Labor ermittelt. Insgesamt 350 Proben haben die Wissenschaftlerinnen analysiert.

Chemikerin Kiefer bestimmte die Menge und Art der Biozide, die im Boden gelandet ist und verschiedene Abbauprodukte. Dann ging es darum, wie sie sich auf das Mikrobiom, die Gemeinschaft der Lebewesen im Boden, auswirken. Dafür wurde untersucht, wie so genannte Standardorganismen reagieren: Algen, Leuchtbakterien, Sedimentwürmer zum Beispiel. Bioanalytikerin Reiß entwickelte eine Methode, um die Mikroorganismen zu markieren. „Wir geben dem Boden den Stoff Bromdesoxyuridin zu. Er ähnelt einem DNA-Baustein und deshalb verwenden ihn Bakterien und Pilze während der Zellteilung als Baustein für die neu gebildete DNA.“ Auf diese Weise konnte sie nachvollziehen, welche Zellteilung betreiben, aktiv sind, welchen es gut geht. Kiefer nickt: „Ich hatte nicht erwartet, dass die Organismen so sensibel reagieren und wir signifikante Effekte feststellen. So viel kommt aus den Fassaden ja gar nicht raus – und wir hatten den Fassadenablauf verdünnt.“

Regulierung, Baustile und Alternativen
Um für den europäischen Markt zugelassen zu werden, muss bei einem Biozid nachgewiesen werden, dass es nicht besonders schädlich ist. Wie sich durch die Kombination verschiedener Biozide („Co-Toxizität“) die Wirkung möglicherweise verändert, wird mit verschiedenen Modellen simuliert. Kiefer glich die Coburger Ergebnisse mit den Modellierungen ab, die für die Zulassung solcher Stoffe eingesetzt werden. Sie entwickelte ein Setup zur experimentellen Validierung, überprüfte spezifische Einflussparameter, kombinierte Modelle und kam zu einem eindeutigen Schluss: „Aktuelle Abschätzungsverfahren spiegeln die realen Effekte nicht wider. Für eine fundierte Gefährdungsbeurteilung für den terrestrischen Lebensraum braucht es weitere Studien.“
Grundsätzlich liefern Daten aus der ökotoxikologischen Forschung Entscheidungsgrundlagen für die Frage, wo eine stärkere Regulierung im Umgang mit solchen Substanzen nötig ist. „Es gibt biozidfreie Alternativen, rein mineralische Putze zum Beispiel“, sagt Kiefer. Reiß zuckt die Schultern: „So wie früher.“ Problematisch sei auch die derzeitige Bauweise: „Jeder möchte diese eckigen Häuser, clean und gerade im Bezug auf die Biozide ist das der worst case. Man kann sich nicht vorstellen, wie sehr ein Dachüberstand die Auswaschung reduziert!“ Kiefer ergänzt, dass auch begrünte Fassaden nicht nur für die Klimabilanz, sondern auch für die Fassade selbst positiv sind. „Aber solche Alternativen sind teurer und den meisten Verbraucherinnen und Verbrauchern ist gar nicht bewusst, dass biozide Verfahren eingesetzt werden.“

Forschungsstand wird auf Fachtagung in Augsburg präsentiert
Das Projekt BayÖkotox wird vom Bayerischen Staatsministerium für Umwelt und Verbruacherschutz gefördert. Das Landesamt für Umwelt (LfU) sammelt und koordiniert die Daten und Ergebnisse von Forschungsgruppen, die sich in verschiedenen Bereichen damit beschäftigen, wie sich Stoffe auf die Umwelt auswirken. Die beiden Coburger Promotionen werden in Kooperation mit den Universitäten Leipzig und Bayreuth durchgeführt. In einem weiteren Projekt befassen sich Coburger Wissenschaftler:innen ebenfalls mit dem Thema: „OMiBiB“ steht für „Optimierung und Minimierung des Biozideinsatzes in Baustoffen“ und wird vom Bayerischen Staatsministerium für Wissenschaft und Kunst gefördert. Die Erkenntnisse beider Projekte werden bei der Biozid-Fachtagung am Donnerstag, 29., und Freitag, 30. Juni in Augsburg vorgestellt. Die Tagung wurde vom Bayerischen Landesamt für Umwelt und dem Institut für Bioanalytik der Hochschule Coburg organisiert. Unter dem Motto „Biozide in Baumaterialien – von wissenschaftlicher Erkenntnis zu praktischen Handlungsmöglichkeiten“ geben nationale und internationale Expert:innen einen Überblick über die Themenschwerpunkte Einsatz, Freisetzung, Bewertung und Vermeidung von Bioziden in Baukomponenten.

(nach oben)


Das Ostseeklima im Einfluss des Atlantiks: Neue Erkenntnisse über eine „Fernbeziehung“

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Von der Wassertemperatur bis zum regionalen Wasserkreislauf: der Arbeitsgruppe „Dynamik regionaler Klimasysteme“ am Leibniz-Institut für Ostseeforschung Warnemünde ist es gelungen, mithilfe von regionalen Klimamodellen und der statistischen Auswertung von Langzeitbeobachtungen, hinter dem Signal des Klimawandels einen starken Einfluss des Atlantiks auf den Ostseeraum zu identifizieren. Sie untersuchten dafür die Auswirkungen der Atlantischen Multidekadischen Variabilität, einer periodischen Schwankung der Oberflächenwassertemperatur des Nordatlantiks, auf die Ostsee. Die Ergebnisse erschienen jetzt in der renommierten Fachzeitschrift npj Climate and Atmospheric Science.

Der Fußabdruck der von Menschen gemachten Erderwärmung ist mittlerweile fast weltweit nachweisbar, auch auf regionaler Ebene. In Nordeuropa ist zum Beispiel die Beeinträchtigung der Kryosphäre – also aller mit Eis bedeckten Gebiete – durch den Klimawandel eindeutig belegt. Dagegen ist der Einfluss auf den Wasserkreislauf weniger offensichtlich. Worauf lassen sich dann die teilweise drastischen Veränderungen, zum Beispiel bei den Niederschlagsmengen im Ostseeraum, zurückführen?

Schwankungen im regionalen Wasserkreislauf lassen sich in der Ostsee aufgrund ihrer eingeschlossenen Lage besonders gut studieren, denn Veränderungen wirken sich hier direkt auf den Salzgehalt aus. Und Salzgehaltsdaten aus der Ostsee existieren seit dem 19. Jahrhundert. Sie können also über einen langen Zeitraum stellvertretend über die Entwicklung von Niederschlag und Verdunstung im Einzugsgebiet Auskunft geben.
Auf dieser Basis zeigte sich, dass der mittlere Salzgehalt der Ostsee durch eine Schwankung mit einer Periode von ungefähr 30 Jahren gekennzeichnet ist. Markus Meier, Leiter der Arbeitsgruppe „Dynamik regionaler Klimasysteme“ am IOW lieferte nun zusammen mit einem Autorenteam eine Erklärung für diese multidekadische Variabilität der Salinität des Ostseewassers: Die so genannte Atlantische Multidekadische Variabilität (AMV) und ihre Wechselwirkung mit der Nordatlantischen Oszillation (NAO) beeinflussen den Niederschlag über dem Wassereinzugsgebiet und damit den Flusseintrag in die Ostsee: Je höher die Niederschläge, desto stärker der Flusswassereintrag. Beides führt zu einer direkten Verdünnung des Ostseewassers. Vermischungsprozesse im Eingangsbereich der Ostsee sorgen dafür, dass das hier einströmende Nordseewasser ebenfalls verdünnt wird – ein positiver Feedback-Mechanismus, der die multidekadische Variation des Salzgehaltes zusätzlich verstärkt.

„Mit unseren Ergebnissen können Trends, die durch den Klimawandel verursacht werden, von natürlichen Schwankungen getrennt werden. Wir werden zukünftig in der Lage sein, Veränderungen des Salzgehaltes im Laufe von Jahrzehnten vorherzusagen“, fasst Markus Meier zusammen. „Solche Vorhersagen könnten zum Beispiel einem nachhaltigen Fischerei-Management dienen, denn die meisten Fischarten sind an ein spezifisches Salzgehaltsspektrum angepasst. Veränderung führen zu Stress und Vorhersagen von „stressigen“ Jahren würden ein frühzeitiges Gegensteuern ermöglichen.“

Der Einfluss der AMV beschränkt sich aber nicht nur auf den Salzgehalt. Florian Börgel, ebenfalls Wissenschaftler in der AG „Dynamik regionaler Klimasysteme“ am IOW untersuchte, wie sich die AMV auf die Wassertemperatur der Ostsee auswirkt. Er wandte dabei zum ersten Mal eine statistische Methode auf die Ostsee an, die ursprünglich entwickelt wurde, um Variabilitätsmuster im globalen Ozean zu erkennen. Diese so genannte Low-Frequency-Component Analysis (LFCA) ermöglicht es, aus komplexen Datensätzen Schwankungsmuster auf der Skala mehrerer Jahrzehnte herausfiltern.

„Wir haben die Daten der Meeresoberflächentemperatur der Ostsee in den Jahren 1900 – 2008 der LFCA unterzogen und das Ergebnis mit dem Resultat einer solchen Analyse an Beobachtungsdaten aus dem Nordatlantik über den gleichen Zeitraum verglichen“, erläutert Florian Börgel. Sein Fazit: Auf der Skala von Jahren und Jahrzehnten korrelieren die multidekadischen Schwankungen der Meeresoberflächentemperaturen des Atlantiks sehr gut mit denen des Ostseeraums. Dieses Bild verschlechtert sich aber drastisch, wenn man einzelne Jahreszeiten betrachtet: Nur bei den Wintertemperaturen ist ein beträchtlicher Anteil der Schwankungen auf die AMV zurückzuführen. Sie spielt somit auch für die Eisbedeckung in der Ostsee eine besondere Rolle. Im Gegensatz dazu werden die Sommer- und Frühlingstemperaturen nicht durch den Atlantik beeinflusst.

Wissenschaftliche Ansprechpartner:
Dr. Florian Börgel | Tel.: 0381 – 5197 3498 | florian.boergel@io-warnemuende.de, Leibniz-Institut für Ostseeforschung Warnemünde

Prof. Dr. Markus Meier | Tel.: 0381 – 5197 110 | markus.meier@io-warnemuende.de, Leibniz-Institut für Ostseeforschung Warnemünde

Originalpublikation:
Meier, H.E.M., Barghorn, L., Börgel, F., Gröger, M., Naumov, L., Radtke, H.: Multi-decadal climate variability dominated past trends in the water balance of the Baltic Sea watershed. npj Clim Atmos Sci 6, 58 (2023). https://doi.org/10.1038/s41612-023-00380-9

Börgel, F., Gröger, M., Meier, H.E.M., Dutheil, C., Radtke, H., Borchert, L.: The impact of Atlantic Multidecadal Variability on Baltic Sea temperatures limited to winter. npj Clim Atmos Sci 6, 64 (2023). https://doi.org/10.1038/s41612-023-00373-8

(nach oben)


Bergisches Hochwasserschutzsystem 4.0: NRW fördert Hochwasserwarnsystem im Bergischen Land mit 2,8 Mio Euro

Katja Bischof Pressestelle
Bergische Universität Wuppertal
Drohendes Hochwasser entlang von Flüssen früher erkennen und so Leben retten und Schäden vermeiden: Das ist das Ziel eines modernen Hochwasserwarnsystems unter Einsatz Künstlicher Intelligenz, das derzeit auf Initiative der regionalen Wirtschaft im Bergischen Land entwickelt wird.

NRW-Wirtschafts- und Klimaschutzministerin Mona Neubaur übergab in dieser Woche den Förderbewilligungsbescheid über insgesamt 2,8 Millionen Euro zu dem Projekt an Prof. Dr.-Ing. Tobias Meisen vom Lehrstuhl für Technologien und Management der Digitalen Transformation (TMDT) der Bergischen Uni sowie an die weiteren Partner aus dem Projektkonsortium: Heinz Berger Maschinenfabrik, Wupperverband, Bergische Struktur- und Wirtschaftsförderungsgesellschaft, Wuppertaler Stadtwerke und Bergische Industrie- und Handelskammer Wuppertal-Remscheid-Solingen.

Im Rahmen des neuen bergischen Gemeinschaftsprojekts soll eine Künstliche Intelligenz (KI) entwickelt und trainiert werden, die die Vorhersage von Wasserpegeln und Hochwassergefahren für die Region präziser als bisherige Warnsysteme ermöglicht. „Das ‚Hochwasserschutzsystem 4.0‘ erkennt Gefahren präziser als etablierte Warnsysteme und kann somit Alarm schlagen, wenn Gewässer über die Ufer zu treten drohen“, so Dr. Andreas Groß, Geschäftsführer der Berger Gruppe und Initiator des Projekts.

Ministerin Neubaur: „Der Klimawandel wird auch bei uns in Nordrhein-Westfalen immer spürbarer und die Auswirkungen können wie bei der Hochwasserkatastrophe im Sommer 2021 dramatisch sein. Umso wichtiger sind Warnsysteme, die verlässlich und frühzeitig drohende Hochwasserstände erkennen und melden können. Das Projekt ‚Hochwasserschutzsystem 4.0‘ im Bergischen Land zeigt, wie künstliche Intelligenz im Ernstfall dazu beitragen kann, rechtzeitig notwendige Schutzmaßnahmen zu ergreifen und so größere Schäden an Gebäuden und Infrastruktur zu vermeiden. Das schafft langfristige Sicherheit für Unternehmen und stärkt die wichtigen Industriestandorte in unseren Mittelgebirgsregionen.“

Das Warnsystem soll die datengetriebene Vorhersage von regionalen Wasserpegeln und Hochwassergefahren unter Berücksichtigung der aktuellen Wetterlage und sonstiger Umweltfaktoren ermöglichen. Mit digitalen Sensoren werden dafür die Pegelstände an Gewässern, Rückhaltebecken und Kanälen, die Niederschlagsmengen, der Unterwasserdruck, Luftfeuchtigkeit, -druck und -temperatur sowie die Windrichtung und -stärke erfasst. In diesen Daten soll die Künstliche Intelligenz Muster erkennen, die im Zusammenhang mit einem Anstieg der Pegelstände stehen. Damit unterscheidet sich das Projekt von klassischen Vorhersagen auf Basis von Modellen. Informationen zu lokalen Wasserpegeln, Prognosen und Warnungen sollen gefährdeten Unternehmen künftig in Echtzeit über eine Hochwasserschutz-App bereitgestellt werden, die vom Wupperverband entwickelt wird.

Das Vorhaben „Hochwasserschutzsystem 4.0“ ist Teil der Initiative „Flagships powered by KI.NRW“, der Kompetenzplattform des Landes für Künstliche Intelligenz KI.NRW. Bei der Entwicklung der neuen Technologien arbeiten die Projektteilnehmer*innen auch mit dem Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen (LANUV) und weiteren Regionen zusammen. „Das System wird nach einer erfolgreichen Einführung im Bergischen Land allen Regionen in Nordrhein-Westfalen zur Verfügung gestellt“, so Stephan A. Vogelskamp, Geschäftsführer der Bergischen Struktur- und Wirtschaftsförderungsgesellschaft.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Tobias Meisen
Fakultät für Elektrotechnik, Informationstechnik und Medientechnik
Telefon 0202/439 1039
E-Mail meisen@uni-wuppertal.de

(nach oben)


DFKI entwickelt KI-Systeme für die flugzeuggestützte Erfassung von Plastikmüll in den Meeren

Simone Wiegand DFKI Niedersachsen
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI
Flugzeuge, die weltweit Gewässer routinemäßig überfliegen, um Verschmutzungen zu überwachen, könnten künftig nicht nur Öl- und Chemieunfälle auf Hoher See, in Küstengewässern und am Strand aufspüren, sondern auch Kunststoffabfälle, die auf der Wasseroberfläche schwimmen. Im Projekt PlasticObs+ arbeitet ein Konsortium unter der Leitung des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) daran, erstmals eine luftgestützte Überwachung größerer, zusammenhängender Meeresgebiete zu entwickeln, die kontinuierlich und nicht wie bisher punktuell Plastik in Gewässern erfasst. Nun liegen erste Ergebnisse vor.

Plastikmüll in Gewässern stellt nach wie vor ein globales, drängendes Umweltproblem dar, da er das Ökosystem Meer und damit eine lebenswichtige Ressource für Menschen und Tiere gefährdet. Rund zehn Millionen Tonnen Plastikmüll landen jährlich in den Weltmeeren. Das entspricht etwa einer Lkw-Ladung pro Minute. Tütenreste, Einwegverpackungen oder Getränkeflaschen sind mittlerweile weltweit zu finden, von der Arktis über die Tiefsee bis zur Nord- und Ostsee.

Müll, der auf der Wasseroberfläche treibt, wurde in der Vergangenheit zwar schon luftgestützt erfasst, aber bisherige Erkenntnisse beruhen im Wesentlichen auf zeitlich und räumlich begrenzten Messungen. Hier setzt das Verbundprojekt PlasticObs+ an. Das langfristige Ziel besteht darin, Überwachungsflugzeuge, die routinemäßig bereits weltweit im Einsatz sind, mit KI-gestützter Sensorik auszustatten und so ein Messsystem zu entwickeln, das die Belastung von Plastikmüll in der Umwelt aus der Luft erfassen kann. Auf diese Weise könnte erstmals eine kontinuierliche und umfassende Bestandsaufnahme umgesetzt werden, die Aufschluss über die Art, Menge und Größe des Abfalls sowie mögliche Verursacherquellen gibt. Das Ergebnis wäre eine wissenschaftliche Basis, um Maßnahmen, Gesetze und Investitionen für die Sammlung, das Recycling und schließlich die Vermeidung von Kunststoffmüll in Gang zu setzen.

Zu den Aufgaben des DFKI, vertreten durch den Forschungsbereich Marine Perception in Oldenburg, gehört die Entwicklung von insgesamt vier KI-Systemen. Die ersten beiden sollen Plastikmüll noch während des Überflugs erkennen und Hotspots näher betrachten. Ein drittes System, das den Müll nach Art, Größe und Menge klassifiziert, kommt später am Boden zum Einsatz. Ein Feedback-System, das menschliche Expertise bei der Betrachtung der Bilder inkludiert, soll schließlich helfen, die ersten Systeme kontinuierlich zu verbessern und deren Vorhersagen zu optimieren.

Testflüge in Norddeutschland
Die Daten für ihre KI-Systeme erhalten die Forschenden des DFKI aus Testflügen in Norddeutschland, die die Jade Hochschule Wilhelmshaven/Oldenburg/Elsfleth mit ihrem Forschungsflugzeug durchführt. Dabei nimmt ein Sensor unter der Nase des Flugzeugs Übersichtsbilder der Region auf. Darauf muss die KI in Sekundenschnelle Müll-Hotspots erkennen, so dass ein zweiter Sensor, der sich weiter hinten unter dem Rumpf befindet, Detailaufnahmen von diesen macht. Die Herausforderung, sagen die DFKI-Forschenden Mattis Wolf und Dr. Christoph Tholen, bestehe einerseits darin, dass „wir ein großes Gebiet überfliegen und der Übersichtssensor ein niedrig aufgelöstes Bild der Szene aufnimmt, dass andererseits die Auswertung innerhalb von Sekunden aber mit einer hohen Treffsicherheit erfolgen muss“.

Ein erster Test fand im vergangenen Jahr auf der Insel Spiekeroog statt. Das Projekt-Konsortium legte jeweils am Strand und in den Salzwiesen ein Versuchsfeld aus Plastik aus. Diese überflog zunächst eine Drohne in Höhen zwischen 15 und 100 Metern und anschließend das Forschungsflugzeug in Höhen ab 150 bis teilweise 1200 Metern. Das Versuchsfeld bestand aus einer exakten Anordnung verschiedener Plastiksorten wie schwarzen PP-Kaffeedeckeln, PS-weißen und cremefarbenen Lunchboxen sowie LDPE-blauen und transparenten Mülltüten. Das Team fixierte die Behältnisse in unterschiedlich großen Ansammlungen unter Netzen, so dass keine Verwehung stattfinden konnte. Die Kernfrage, die die Forschenden mit der Kampagne beantworten wollten, lautete: Aus welchen Höhen können die Sensoren an der Drohne bzw. dem Flugzeug Plastikmüll sicher erkennen? Die bisherigen Ergebnisse werten Projektleiter Wolf und sein Kollege Tholen positiv, denn „sie zeigten, dass Plastik in den von uns angepeilten Höhen mit zufriedenstellender Genauigkeit erkannt werden kann“.

Es zeigte sich, dass die Farbe und die Größe der Gegenstände sowie der Untergrund eine wichtige Rolle spielten. So konnten auf Gras alle Plastiksorten mit hoher Genauigkeit erkannt werden, mit Ausnahme der schwarzen PP-Kaffeedeckel aus mehr als 700 Metern. Auf Sand nimmt die Genauigkeit bei allen Plastiksorten bei 750 Metern ab, besonders stark betroffen waren hier LDPE-transparent und erneut PP-schwarz.

Heutige OCEANS Konferenz
Diese und weitere Ergebnisse haben die DFKI-Forschenden in einem Paper festgehalten, das sie in diesen Tagen auf der OCEANS Konferenz 2023 in Limerick, Irland, präsentieren. Carolin Leluschko, die an der wissenschaftlichen Publikation ebenfalls mitgewirkt hat, sagt: „Um herauszufinden, wie die KI performt, sind die Bilder aus dem Flugzeug von jeweils fünf Personen unabhängig voneinander untersucht und beschriftet worden, ob sie Plastik enthalten oder nicht.“ Die Genauigkeit der KI betrug 93,3 %, während die Genauigkeit der von Menschen gekennzeichneten Bilder 92,6 % betrug.

Auch wenn das Konsortium bis zum Ende der Laufzeit des Projektes im Frühjahr 2025 noch viel Arbeit vor sich hat, belegen die Zahlen, dass die luftgestützte Fernerkundung in Kombination mit KI-Methoden funktioniert und ein wichtiges Instrument zur Bewältigung des globalen Plastikmüllproblems sein kann. PlasticObs+ steht im Einklang mit politischen Initiativen wie der EU-Meeresstrategie-Rahmenrichtlinie und den UN-Nachhaltigkeitszielen, die darauf abzielen, Verschmutzungen der Meere zu verringern und die Ozeane zu schützen. Es wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) mit 1,9 Millionen Euro über drei Jahre gefördert und ist Teil der BMUV-Förderinitiative KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen.

Neben dem DFKI sind in PlastiObs+ drei weitere Partner beteiligt. Die Jade Hochschule Wilhelmshaven/Oldenburg/Elsfleth setzt ihr speziell für Forschungszwecke konzipiertes Flugzeug ein, das als Messplattform für die Aufnahme von Luftbildern dient. Die Optimare Systems GmbH aus Bremerhaven, deren Kerngeschäft in der Entwicklung und Fertigung von Sensorsystemen und Missionsausrüstungen für die flugzeuggestützte Meeresüberwachung besteht, bringt ein Verfahren ein, welches basierend auf Multisensordaten hochauflösende Detailbilder erzeugt. Darüber hinaus kümmert sich Optimare um die Technik und deren Installation auf einem Flugzeug. Die everwave GmbH, die weltweit Plastikmüll in Gewässern und an Küsten mittels innovativer Müllsammelboote und stationärer Flussplattformen einsammelt, sortiert und recycelt, informiert die Öffentlichkeit und sensibilisiert sie für einen nachhaltigeren Umgang mit Plastik zum Schutz der Ozeane.

Einsatz in Brasilien
Einer der nächsten Schritte im Projekt PlasticObs+ besteht darin, weitere Daten zu sammeln. Dazu hob das Forschungsflugzeug der Jade Hochschule kürzlich erneut von Wilhelmshaven ab und überflog ein Gebiet in Norddeutschland, in dem zuvor Festivals stattgefunden hatten. Weitere Feldtests fanden bei Friedeburg im niedersächsischen Landkreis Wittmund statt, wo die Forschenden, ähnlich wie zuvor auf Spiekeroog, einen künstlichen Müllteppich auf zwei Seen ausgelegt hatten. „Diese Daten nutzen wir zum Trainieren unserer KI-Modelle, die wir anschließend an der deutschen Küste mit dem Forschungsflugzeug testen werden“, erläutert Wolf, der im Projekt u.a. dafür zuständig ist, rechenintensive und langsame tiefe neuronale Netze effizienter zu machen, so dass die KI-Systeme während des Überflugs in Sekundenschnelle zuverlässig Müll-Hotspots finden und erfassen. In einem letzten Schritt sollen die Systeme schließlich in Überwachungsflugzeugen für Ölverschmutzungen eingebaut und getestet werden, voraussichtlich in Brasilien.

DFKI Communications:
Simone Wiegand
Telefon: +49 441 99833 66 12
simone.wiegand@dfki.de
communications-ni@dfki.de

Weitere Informationen:
https://www.dfki.de/web/forschung/projekte-publikationen/projekt/plasticobs-plus
https://www.plasticobs.de/
https://www.dfki.de/web/news-media/news-events/kuenstliche-intelligenz-kann-meer

Wissenschaftliche Ansprechpartner:
DFKI:
Mattis Wolf
Tel.: +49 441 99833 4714
Mattis.Wolf@dfki.de

Dr. Christoph Tholen
Tel.: +49 99833 4721
Christoph.Tholen@dfki.de

everwave GmbH:
Inga Hilbig
Tel.: +49 172 4628695
hilbig@everwave.de

Optimare Systems GmbH:
Dr. Tobias Binkele
Tel.: +49 471 48361–42
tobias.binkele@optimare.de

Jade Hochschule:
Tobias Schmid
Tel.: +49 176 922 560 47
tobias.schmid@jade-hs.de

Prof. Dr.-Ing. Jens Wellhausen
Tel.: +49 4421 985 2961
jens.wellhausen@jade-hs.de

Weitere Informationen:
https://www.dfki.de/web/forschung/projekte-publikationen/projekt/plasticobs-plus
https://www.plasticobs.de/
https://www.dfki.de/web/news-media/news-events/kuenstliche-intelligenz-kann-meer

(nach oben)


Wie wirkt das Deutschlandticket?

Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
ARD-Mitmachaktion #besserBahnfahren startet mit Beteiligung von Forschenden der Universität Konstanz und der Hochschule Karlsruhe in die zweite Phase

Welche Erfahrungen haben die Menschen mit Bus und Bahn? Seit dem 1. Mai 2023 läuft die ARD-Mitmachaktion #besserBahnfahren, bei der Teilnehmende ihre Erfahrungen mit dem öffentlichen Nahverkehr mitteilen können. Bislang sind über 2.800 Erfahrungsberichte unter DasErste.de/besserBahnfahren eingegangen. In der nun gestarteten zweiten Phase des Projekts hakt das Wissenschaftsteam von der Hochschule Karlsruhe (Die HKA) und der Universität Konstanz genauer nach.
Wie weit haben es die Fahrgäste zur nächsten Haltestelle? Verfügen sie über ein Auto? Wofür nutzen sie das Deutschlandticket? Und wie hat sich ihr Verkehrsverhalten geändert? Außerdem begleitet die ARD Fahrgäste, die an der Aktion teilnehmen, mit Kamerateams und wird die Ergebnisse im Herbst in einer Doku im Ersten präsentieren. Die ARD erhofft sich daraus aufschlussreiche Erkenntnisse, was konkret geändert werden muss, damit mehr Menschen vom Auto zum ÖPNV umsteigen.

Auswertung der Mitmachaktion
Das Projekt #besserBahnfahren analysiert die Wirkung des Deutschlandtickets. Ausgewertet wird die Crowd-Science-Aktion von Wissenschaftler*innen beider Hochschulen unter Leitung des Verkehrsökologen Jochen Eckart von der HKA und der Gesundheitspsychologin Britta Renner von der Universität Konstanz, die im Rahmen des Baden-Württemberg Institut für nachhaltige Mobilität kooperieren. Die Ergebnisse werden aufbereitet und in verschiedenen Formaten in Fernsehen, Hörfunk und online diskutiert. In der ARD-Doku „Besser Bahnfahren! – Was muss sich ändern?“ geht ein Reporterteam ausgewählten Meldungen nach und spricht mit der Deutschen Bahn darüber.

#besserBahnfahren
Mit dem Start des bundesweiten Deutschlandtickets am 1. Mai will das ARD-Projekt #besserBahnfahren herausfinden, wie der Verkehr in Zukunft gestaltet werden kann, damit er klimafreundlicher wird und die Menschen dennoch mobil bleiben. Der von Jochen Eckart und Britta Renner entwickelte Fragebogen will erfahren, wie oft der ÖPNV genutzt wird und ob dafür das Deutschlandticket gekauft wurde.
In der aktuellen zweiten Befragungsrunde soll herausgefunden werden, ob sich mit dem Deutschlandticket etwas geändert hat, ob die Einführung der ÖPNV-Fahrkarte zu Verhaltensänderungen bei der Mobilität geführt hat und welche Rolle dabei Preisgestaltung, Flexibilität und Taktung im öffentlichen Nahverkehr spielen.
Bis Ende Juli können noch eigene Erfahrungen und Erlebnisse eingereicht werden unter DasErste.de/besserBahnfahren. Im Anschluss werden die ausgewerteten Ergebnisse in Fernsehen, Hörfunk und online vorgestellt.

Faktenübersicht:
• ARD-Mitmachaktion #besserBahnfahren mit Beteiligung der Gesundheitspsychologin Britta Renner von der Universität Konstanz, des Verkehrsökologen Jochen Eckart von der Hochschule Karlsruhe und des Baden-Württemberg Instituts für Nachhaltige Mobilität an der HKA
• Hochschule Karlsruhe und Universität Konstanz sind im Rahmen des Baden-Württemberg Instituts für Nachhaltige Mobilität gemeinsam an der wissenschaftlichen Auswertung beteiligt
• #besserBahnfahren analysiert die Wirkung des Deutschlandtickets
• Mitmachen unter: DasErste.de/besserBahnfahren
• Die Mitmachaktion wird unterstützt von Pro Bahn, Deutsche Bahn, Allianz pro Schiene, Greenpeace, BUND, den Verbraucherzentralen und Verkehrsclub Deutschland (VCD).
• Weitere Infos und Videomaterial unter: http://swr.li/besserbahnfahren-ard-mitmachaktion-startet-in-zweite-phase und DasErste.de/besserBahnfahren

(nach oben)


Das Fernwärmenetz der Zukunft – Projekt TeoS

Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Unser Fernwärmenetz gleicht einem Wimmelbild. Ein Bild, das jetzt noch mehr Details bekommt, denn dieses Netz soll künftig weitgehend ohne fossile Brennstoffe arbeiten. Es gilt, ein ausgeklügeltes, effizientes System zu entwickeln, dabei die Vorlauftemperaturen zu senken und emissionsfreie Erzeugungskapazitäten zu errichten. Immer mit der Maßgabe, dass auch der letzte Anschluss die vertraglich zugesicherte Leistung erhält. Dies erfordert hochkomplexe Berechnungen und Ingenieurskunst. Genau diese Expertise bringt das neue Projekt TeoS* zusammen – unter der Leitung der Universität Duisburg-Essen (UDE).

Gemeinsam mit dem Fernwärmenetzbetreiber BTB in Berlin und der Fernwärme Duisburg GmbH erforscht der Lehrstuhl Energietechnik der UDE, wie ein solches Netz möglichst klimafreundlich versorgt werden kann. Dafür werden die bestehenden Netze in Duisburg und Berlin modelliert und um potenzielle, erneuerbare Energiequellen (EE) ergänzt – etwa Wärmepumpen, Geothermie, Solarthermie.

„Unser Lehrstuhl beschäftigt sich seit mehreren Jahren mit komplexen Modellen der Wärmenetze und Energieerzeugung – trotzdem ist TeoS mit den großen Datenmengen aus Duisburg und Berlin eine neue Herausforderung für uns. Wir werden etliche Monate brauchen, um die zahlreichen Szenarien mit der Netzberechnung und der Simulation der Erzeugungsseite zu verknüpfen“, erklärt Projektkoordinator Dr. Jürgen Roes. Die Standorte werden hinsichtlich Geodaten, städtebaulicher Gegebenheiten und nutzbarer industrieller Abwärme analysiert. Auch Wetterlagen und die Preisentwicklung spielen in Teilprojekten eine Rolle.

Es kann durchaus sein, dass neue Anlagen errichtet werden müssen, möglicherweise werden auch hydraulische Modifikationen erforderlich, um eine unterbrechungsfreie Versorgung zu gewährleisten. Das UDE-Team betrachtet emissionsarme Anlagen wie Großwärmepumpen, die Wärme aus Flüssen wie dem Rhein beziehen, oder die Tiefengeothermie, die es gerade in einem anderen Projekt für Düsseldorf und Duisburg untersucht.

Das Ziel des Ganzen ist ein Instrument, das ein künftiges Netz detailgenau simuliert, kritische Punkte identifiziert und dabei verschiedene Erzeugungsfälle berücksichtigt. Die verschiedenen Rahmenbedingungen sollen auch zeigen, wie sich möglichst viel CO2 einsparen lässt. „Nur so kann das Fernwärmenetz der Zukunft bedarfsgerecht und belastbar geplant werden“, unterstreicht Roes.

* TeoS steht für Technologieoffene Energiesystemanalyse zur Ableitung von Handlungsmaßnahmen für die Dekarbonisierung urbaner Wärmenetze. Gefördert wird das zunächst zweijährige Projekt vom Bundesministerium für Wirtschaft und Klimaschutz mit rund 800.000 Euro, wovon knapp 500.000 Euro auf den Lehrstuhl Energietechnik der UDE entfallen.

Wissenschaftliche Ansprechpartner:
Dr. Jürgen Roes, Energietechnik, Tel. 0203/37-93010, juergen.roes@uni-due.de

(nach oben)


Heizen und Kochen: Klimabilanz von Erdgas oft schlechter als bisher angenommen

Andreas Schmitz Corporate Communications Center
Technische Universität München
– Neuberechnung bezieht Gaslecks und unvollständige Gasverbrennung mit ein.
– Elektrizität kann klimafreundlichere Alternative zum Kochen und Heizen sein.
– Anteil der Erneuerbaren Energien im Strommix ist entscheidend.

Das Heizen und Kochen mit Erdgas ist oft klimaschädlicher als bisher gedacht. Dies ergibt ein neues Berechnungsmodell, das Forschende der Technischen Universität München (TUM) entwickelt haben. Das Besondere: Es bezieht auch die gewaltigen Gasmengen mit ein, die ungenutzt in die Atmosphäre entweichen.

„Wir wollten wissen, ob es – auch unter Berücksichtigung der Gasleckagen – klimafreundlicher ist, Gas für das Heizen und Kochen zu nutzen oder Elektrizität“, erläutert Dr. Florian Dietrich, Wissenschaftler im Bereich für Umweltsensorik und Modellierung an der TUM. Gemeinsam mit Forschenden der ETH Zürich, der Universität Utrecht und der Niederländischen Organisation für Angewandte Naturwissenschaftliche Forschung TNO hat das internationale Team eine Hightech-Messstation für die Erfassung von Kohlendioxid, Methan und Kohlenmonoxid sowie Laserspektrometer für Vor-Ort-Messungen von Methan genutzt und alle Variablen in dem eigens entwickelten Berechnungsmodell zusammengeführt. Die Ergebnisse wurden in einem Peer-Review-Verfahren publiziert und bestätigt.

Unvollständig verbranntes Erdgas wichtig für die Klimabilanz
Auf dem Oktoberfest 2019 beispielsweise, so fanden die Forschenden heraus, ging 1,4 Prozent des damals eingesetzten Gases verloren. Bei einer Gasmenge von über 185.000 Kubikmetern entwichen also 2.500 Kubikmeter Gas in die Umgebung. „Das entwickelte Berechnungsmodell bezieht diese Mengen an entwichenem Erdgas mit ein und liefert einen umfassenden Emissionsfaktor für die Verwendung von Erdgas zum Kochen und Heizen“, erläutert Wissenschaftler Dietrich.

Erneuerbare Energien im Strommix senken den Emissionsfaktor
Um entscheiden zu können, ob Erdgas oder Elektrizität die klimafreundlicher ist, muss man jedoch auch auf den verwendeten Strommix schauen: „Ein hoher Anteil erneuerbarer Energien senkt den Emissionsfaktor für Elektrizität erheblich, während z.B. die Verwendung von Kohlestrom den gegenteiligen Effekt hat“, so Dietrich. Die Forschenden haben all diese Faktoren in ihr Berechnungsmodell miteinfließen lassen und können so quantitative Rückschlüsse ziehen, für welche Nationen Strom bereits heute die klimafreundlichere Alternative zu Erdgas ist und welche Anstrengungen die anderen Nationen noch unternehmen müssen, um diesen Punkt zu erreichen.
Für alle 25 untersuchten Nationen wird dabei deutlich: „Durch die Einbeziehung der Leckagen und unvollständigen Verbrennungen wird insgesamt ein geringerer Anteil an erneuerbaren Energiequellen im Strommix benötigt, als bisher angenommen“, fasst die Professorin für Umweltsensorik und Modellierung Jia Chen zusammen, die zudem Leiterin des Innovationsbereichs Umwelt im Robotik- und KI-Institut MIRMI der TUM ist. Es ist also für die meisten Nationen bereits deutlich früher möglich, aus Aspekten des Klimaschutzes auf Elektrizität anstelle von Gas zu setzen.

Kanada mit klarer Empfehlung für Elektrizität
Auf einzelne Staaten geblickt heißt das, dass beispielsweise Kanada mit seinem hohen Anteil an Wasserkraft aus reinen Klimaschutzgründen bereits heute fürs Heizen und Kochen komplett auf Elektrizität setzen könnte. In China sieht es anders aus: Denn die Kohleverbrennung dominiert dort im Strommix, so dass durch die Verwendung von Elektrizität bei identischer Energiemenge mehr Kohlenstoff ausgestoßen wird als bei der Verbrennung von Erdgas.

Für Deutschland gibt es derzeit trotz des stark zunehmenden Anteils an Wind- und Solarenergie noch keine klare Empfehlung für Elektrizität. Damit befindet sich Deutschland noch in breiter „Gesellschaft“: Für 18 von 25 betrachteten Staaten ist Elektrizität im Vergleich mit Gas aktuell noch nicht klimafreundlicher, darunter Staaten wie Spanien, Italien, die Niederlande, Japan und Australien. Ein Blick auf die Diagramme der TUM-Forschenden zeigt jedoch deutlich, dass für viele der untersuchten Nationen Elektrizität schon bald die klimafreundlichere Alternative sein wird, da kontinuierlich in den Ausbau erneuerbarer Energien investiert wird.

Weitere Informationen
• In einem Presserundgang am 27. Juni 2023 auf der Messe Automatica in München, von 11:30 bis 12:30, Halle 4/329 bekommen Vertreter von Medien neu entwickelte Demos aus den Bereichen Gesundheit, Mobilität, Umwelt und Arbeit zu sehen – unter anderem auch eine Demo von Prof. Jia Chen. Akkreditierung über andreas.schmitz@tum.de.
• Auf der Messe Automatica vom 27. bis 30. Juni 2023 finden Sie zudem über 30 Demonstrationen von Forschungsarbeiten zum Thema Robotik und KI in Halle B4 im Bereich AI-Society. Hier geht es zur Übersicht
• Für diese Forschungsarbeit kamen unter anderem folgende Technologien aus dem Bereich für Umweltsensorik und Modellierung von Prof. Jia Chen sowie der Universität Utrecht und TNO und der Bioscience-Firma LI-COR zum Einsatz:
o MUCCnet-Stationen: Die Hightech-Messstation auf dem Dach des TUM-Forschungsbereiches zeigten zu Zeiten des Oktoberfests einen starken Anstieg der Methankonzentrationen. Dies war für die Wissenschaftler der Auslöser dafür, die Methanemissionen bei Verbrennungsprozessen mit Erdgas näher zu untersuchen.
o Laserspektroskopie: Zusätzlich zu diesen Messungen schickten Prof. Chen und Dr. Dietrich Studierende mit einem Laserspektrometer im Rucksack auf das Oktoberfestgelände. Diese präzisen Gasmessungen vor Ort bestätigten den Verdacht, dass ein Event wie das Oktoberfest, auf dem eine große Menge der Energie durch Erdgas bereitgestellt wird, eine starke Methanquelle darstellt.
o Durch zusätzlich durchgeführte Messungen des Isotopen- sowie des Ethan-Methan-Verhältnisses ließ sich auch ermitteln, welche Mengen an Methan durch Lecks und unvollständige Verbrennung entweichen.
• Prof. Jia Chen ist Professorin für Umweltsensorik und Modellierung an der TUM und Leiterin des Innovationsbereiches Umwelt im Munich Institute of Robotics and Machine Intelligence (MIRMI). Mit dem von Executive Director Prof. Sami Haddadin geführten MIRMI hat die TUM ein integratives Forschungszentrum geschaffen, in dem inzwischen über 70 Professor:innen der TUM und ihre Teams mithilfe von Robotik und künstlicher Intelligenz neue Lösungsansätze etwa in der Medizin, in Fabriken und in der Pflege erforschen. Weitere Informationen finden Sie unter https://www.mirmi.tum.de/.

Wissenschaftliche Ansprechpartner:
Prof. Jia Chen
Lehrstuhl für Umweltsensorik und Modellierung
Technische Universität München (TUM)
jia.chen@tum.de

Originalpublikation:
Dietrich, F., Chen, J., Shekhar, A., Lober, S., Krämer, K., Leggett, G., Van der Veen, C., Velzeboer, I., Denier van der Gon, H., Röckmann, T. (2023). Climate impact comparison of electric and gas-powered end-user appliances. Earth’s Future, 11, e2022EF002877. https://doi.org/10.1029/2022EF002877

Weitere Informationen:
http://Fotos zum Download: http://go.tum.de/857097

(nach oben)


Ärmere Alleinlebende von Teuerung erneut am stärksten belastet

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Neue Daten des IMK Inflationsmonitors

Die Inflationsrate in Deutschland ist im Mai spürbar gesunken, war mit 6,1 Prozent aber immer noch sehr hoch. Deutlich überdurchschnittlich von der Teuerung belastet sind weiterhin Alleinlebende mit niedrigen Einkommen. Sie hatten im Mai eine Inflationsrate von 6,9 Prozent zu tragen, die höchste im Vergleich verschiedener Haushaltstypen. Dagegen verzeichneten Alleinlebende mit sehr hohen Einkommen eine Teuerungsrate von 5,4 Prozent – und wie schon seit Anfang 2022 die niedrigste haushaltsspezifische Belastung.

Die soziale Spreizung bei der Inflation betrug damit 1,5 Prozentpunkte, nachdem es im April 1,9 Prozentpunkte waren. Dass ärmere Haushalte besonders stark durch die Inflation belastet sind, liegt daran, dass Nahrungsmittel und Haushaltsenergie in ihren Warenkörben ein sehr hohes Gewicht haben. Diese Güter des Grundbedarfs sind nach wie vor die stärksten Preistreiber: Im Mai war ihr Beitrag zur allgemeinen Inflation noch sieben Mal (bei Nahrungsmitteln) beziehungsweise neunmal (Haushaltsenergie) so groß wie im langjährigen Mittel. Im Vergleich der letzten Monate hat die Preisdynamik bei Nahrungsmitteln und Haushaltsenergie aber nachgelassen, weshalb die haushaltsspezifischen Raten nun weniger weit auseinanderliegen als zuvor. Das ergibt der neue IMK Inflationsmonitor des Instituts für Makroökonomie und Konjunkturforschung (IMK) der Hans-Böckler-Stiftung.*

Die IMK-Inflationsexpertin Dr. Silke Tober und IMK-Direktor Prof. Dr. Sebastian Dullien berechnen mit dem IMK Inflationsmonitor seit Anfang 2022 jeden Monat die spezifischen Teuerungsraten für neun repräsentative Haushaltstypen. Am größten war die soziale Differenz bei den Inflationsraten bislang im Oktober 2022 mit 3,1 Prozentpunkten.

Eine leicht überdurchschnittliche Teuerungsrate mussten im Mai auch Familien mit niedrigen Einkommen schultern (6,2 Prozent). Sie hatten zwischen Februar 2022 und Februar 2023 durchgehend die höchste Inflationsbelastung unter allen Haushaltstypen aufgewiesen, in den ersten beiden Monaten 2023 zusammen mit einkommensarmen Alleinlebenden. Dass die ärmeren Familien nun nicht mehr so stark hervorstechen, beruht auf zuletzt deutlich rückläufigen Kraftstoffpreisen. Diese schlagen sich rechnerisch im Ausgabenportfolio von Familien spürbar nieder. Arme Alleinstehende besitzen hingegen selten ein Auto, weshalb ihre Inflationsrate davon weniger beeinflusst wird.

Die übrigen untersuchten Haushaltstypen lagen im Mai bei oder knapp unterhalb der allgemeinen Inflationsrate von 6,1 Prozent. Ersteres gilt für Alleinerziehende, für Alleinlebende und für kinderlose Paare mit jeweils mittleren Einkommen. Bei Familien mit mittleren und mit hohen Einkommen sowie bei Alleinlebenden mit höheren Einkommen schlug die Inflation mit jeweils 5,9 Prozent zu Buche (siehe auch die Informationen zur Methode unten und die Abbildung in der pdf-Version dieser PM; Link unten).

Trotz des nachlassenden Drucks bei den Preisen für Haushaltsenergie und Lebensmitteln spielen diese Kostenfaktoren für Haushalte mit niedrigeren Einkommen weiterhin eine besonders große Rolle, wie der Detailvergleich zeigt. Bei ärmeren Alleinlebenden trugen sie im Mai 4,7 Prozentpunkte zu 6,9 Prozent haushaltsspezifischer Inflationsrate bei. Bei Familien mit zwei Kindern und niedrigeren Einkommen summierten sie sich auf 4,4 Prozentpunkte, bei Familien mit mittleren Einkommen immerhin noch auf 3,3 Prozentpunkte. Das Problem wird vor allem für Haushalte mit niedrigen Einkommen dadurch verschärft, dass die Alltagsgüter, die sie vor allem kaufen, kaum zu ersetzen sind und viele nur geringe finanzielle Rücklagen haben.

Bei Alleinlebenden mit sehr hohen Einkommen trugen Nahrungsmittel und Haushaltsenergie hingegen lediglich 1,9 Prozentpunkte zur Inflationsrate von 5,4 Prozent bei. Bei ihnen wie den Haushalten mit höheren Einkommen waren dagegen beispielsweise die deutlich gestiegenen Preise für Wohnungsinstandhaltung, Restaurantbesuche und Übernachtungen oder Reisen ein spürbarer Faktor bei der spezifischen Teuerung.

Für die kommenden Monate erwarten die Fachleute des IMK, dass die starken Preisschübe als Folge der Pandemie und des Überfalls Russlands auf die Ukraine weiter auslaufen. Mittlerweile sinkt auch die sogenannte Kernrate der Inflation – die Teuerung ohne Energie und Nahrungsmittel –, wenn auch langsamer als die Inflationsrate insgesamt. Das liegt daran, dass die Energiepreise die Produktions- und Transportkosten nahezu aller Güter und Dienstleistungen beeinflussen, was aber sowohl beim Anstieg als auch beim Rückgang zeitversetzt geschieht.

Insgesamt werde die Inflation „bei hinreichendem Wettbewerb in den kommenden Monaten auch ohne weitere Zinserhöhungen der Europäischen Zentralbank weiter sinken, und es sind teilweise auch Preisrückgänge zu erwarten“, schreiben Tober und Dullien. Die Forschenden gehen davon aus, dass der Rückgang des Preisdrucks unterstützt wird „durch die Auflösung noch vorhandener Lieferengpässe und eine Verringerung der teilweise überhöhten Gewinnmargen“, die etliche Unternehmen im Windschatten der allgemein starken Preissteigerungen aufgeschlagen haben. „Beides dürfte die Wirkung der etwas stärkeren Lohnentwicklung kompensieren, so dass die Inflationsrate spätestens im Verlauf von 2024 wieder in der Nähe des Inflationsziels der EZB von zwei Prozent liegen dürfte.“

– Informationen zum Inflationsmonitor –
Für den IMK Inflationsmonitor werden auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) des Statistischen Bundesamts die für unterschiedliche Haushalte typischen Konsummuster ermittelt. So lässt sich gewichten, wer für zahlreiche verschiedene Güter und Dienstleistungen – von Lebensmitteln über Mieten, Energie und Kleidung bis hin zu Kulturveranstaltungen und Pauschalreisen – wie viel ausgibt und daraus die haushaltsspezifische Preisentwicklung errechnen. Die Daten zu den Haushaltseinkommen stammen ebenfalls aus der EVS. Im Inflationsmonitor werden neun repräsentative Haushaltstypen betrachtet: Paarhaushalte mit zwei Kindern und niedrigem (2000-2600 Euro), mittlerem (3600-5000 Euro), höherem (mehr als 5000 Euro) monatlichem Haushaltsnettoeinkommen; Haushalte von Alleinerziehenden mit einem Kind und mittlerem (2000-2600 Euro) Nettoeinkommen; Singlehaushalte mit niedrigem (unter 900 Euro), mittlerem (1500-2000 Euro), höherem (2000-2600 Euro) und hohem (mehr als 5000 Euro) Haushaltsnettoeinkommen sowie Paarhaushalte ohne Kinder mit mittlerem Haushaltsnettoeinkommen zwischen 3600 und 5000 Euro monatlich. Der IMK Inflationsmonitor wird monatlich aktualisiert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sebastian Dullien
Wissenschaftlicher Direktor IMK
Tel.: 0211-7778-331
E-Mail: Sebastian-Dullien@boeckler.de

Dr. Silke Tober
IMK-Expertin für Geldpolitik
Tel.: 0211-7778-336
E-Mail: Silke-Tober@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Sebastian Dullien, Silke Tober: IMK Inflationsmonitor – Inflationsunterschiede zwischen Haushalten im Mai 2023 deutlich geringer. IMK Policy Brief Nr. 152, Juni 2023. Download: https://www.boeckler.de/de/faust-detail.htm?sync_id=HBS-008634

Die PM mit Abbildung (pdf): https://www.boeckler.de/pdf/pm_imk_2023_06_16.pdf

(nach oben)


Charité übernimmt Vorsitz der Allianz führender europäischer Universitätskliniken EUHA

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Wie kann eine Gesundheitsversorgung in der Zukunft aussehen? Werden Mediziner:innen mit künstlicher Intelligenz Diagnosen stellen? Nutzen Ärzt:innen Big-Data-Analysen, um Krankheitsverläufe im Voraus zu bestimmen? Bleiben wir dank modernster Vorsorge länger gesund? Heute hat die Charité – Universitätsmedizin Berlin in London die Präsidentschaft der European University Hospital Alliance (EUHA) für die kommenden Monate übernommen. Ganz oben auf der gesundheitspolitischen Agenda: die nachhaltige Gestaltung der Gesundheitssysteme in Europa, damit sie dem demografischen Wandel, einer voranschreitenden Digitalisierung und dem erheblichen Mangel an Fachpersonal gerecht werden können.

In London sind Führungskräfte und Expert:innen der EUHA zur halbjährlichen Mitgliederversammlung und einem Symposium mit dem Titel „Rethinking European Health Systems: Creating the Sustainable Health Workforce of the Future“ zusammengekommen. Was sie bewegt, ist die Dringlichkeit einer Reform der europäischen Gesundheitssysteme. Fast alle Länder Europas stehen vor der Herausforderung, eine alternde Bevölkerung zu versorgen. In fast allen Ländern fehlt Personal, mangelt es an Ressourcen, kommt es zu Engpässen. Unterdessen entstehen beinahe täglich, insbesondere im Umfeld der Universitätsmedizin, neuartige Konzepte zur Versorgung von Patient:innen oder tragen Erkenntnisse der biomedizinischen Forschung zu innovativen Therapieansätzen bei.

Wie also lassen sich die europäischen Gesundheitssysteme unter diesen Voraussetzungen zukunftssicher aufstellen? Wie können Arbeitskräfte gewonnen und bestmöglich ausgebildet werden? Kann ein langes Erhalten von Gesundheit durch neuartige Präventionskonzepte der Schlüssel zu einer bestmöglichen Versorgung aller sein? „Diese drängenden Fragen gilt es anzugehen“, sagt Prof. Dr. Heyo K. Kroemer, Vorstandsvorsitzender der Charité. „Die COVID-19-Pandemie hat einmal mehr den Handlungsbedarf aufgezeigt: Wir müssen europaweit gemeinsame Standards in der Gesundheitsversorgung erarbeiten, Kooperationen in der biomedizinischen Forschung stärken und gemeinsam ein Konzept für die Ausbildung der Mediziner:innen und Gesundheitsfachkräfte von morgen entwickeln. Dabei ist eine Bündelung von Ressourcen wichtig, denn nur so können wir den Herausforderungen mit innovativen Ansätzen begegnen.“

Charité löst King’s Health Partners ab
Mit ihrer Verantwortung für die Versorgung von Patient:innen, für Forschung und Ausbildung kommt Universitätskliniken eine besondere Rolle in dem notwendigen Transformationsprozess zu. Mit dem heutigen Tag übernimmt die Charité den Vorsitz der EUHA und damit die Federführung für diesen Prozess in den kommenden Monaten. Sie löst das Londoner Universitätsklinikum King’s Health Partners ab und wird die aktuellen Themen gemeinsam mit dem schwedischen Karolinska University Hospital angehen, da sie von besonderer Tragweite sind. Das Karolinska University Hospital wird im November die darauffolgende Präsidentschaft antreten.

„Das Ziel unserer Präsidentschaft ist es, die Plattform der EUHA zu nutzen und zu erweitern, damit wir in Europa einerseits besser auf zukünftige Herausforderungen vorbereitet sind, beispielsweise auf neue Infektionskrankheiten oder Krisenfälle, und andererseits voneinander lernen, um unsere Gesundheitssysteme zukunftssicher aufzustellen“, sagt Prof. Kroemer. Das betrifft in besonderem Maße den Bereich Digital Health und den Aufbau eines gemeinsamen European Health Data Space, damit Gesundheitsdaten länderübergreifend für Versorgung und Forschung nutzbar werden. Es gehe darum, die Systeme und Strukturen europaweit auszubauen und intelligente Tools zu entwickeln: „Im digitalen Zeitalter muss das Gesundheitswesen zugunsten medizintechnischer Neuerungen und einer patientenzentrierten Medizin befähigt werden, große Mengen an klinischen Daten konsequent verarbeiten und damit auch nutzen zu können“, so der Vorstandsvorsitzende der Charité. Wie dies umgesetzt werden kann, damit beschäftigt sich das Digital Health and Data Network der EUHA, eine Arbeitsgruppe unter Charité-Leitung, die vor vier Jahren gegründet wurde.

Neue Ansätze aus EUHA-Gruppen und -Netzwerken
Den aktuellen Herausforderungen des Fachkräftemangels stellt sich unter anderem das 2021 ins Leben gerufene und an der Charité koordinierte Nursing Network der EUHA. Neben einer Vertretung der Interessen der Pflegenden auf europäischer Ebene stehen die Entwicklung gemeinsamer Ausbildungs- und Weiterbildungsprogramme und ein Austauschprogramm für Mitarbeitende im Vordergrund. Zu den innovationstreibenden Kräften der EUHA gehört neben vielen weiteren Aktivitäten auch das European Center for Gene & Cellular Cancer Therapies (EUCCAT), an dem die Charité und das Berlin Institute of Health in der Charité (BIH) maßgeblich beteiligt sind. Das virtuelle Institut strebt es an, neuartige Krebstherapien erschwinglich und zugänglich zu machen. Dazu führt es Grundlagenforschung, Einrichtungen zur Herstellung von Arzneimitteln, Kapazitäten für klinische Studien und Umsetzungswissen zusammen. Perspektivisch soll damit Europas Wettbewerbsfähigkeit auf dem Gebiet von Forschung und Entwicklung sowie klinischer Anwendung von Zell- und Gentherapien gestärkt werden.

„Die Entwicklung innovativer Therapien, sogenannte Advanced Therapy Medicinal Products (ATMPs), eine stärkere Berücksichtigung der Interessen von Patientinnen und Patienten durch das Erheben von Patient-Reported Outcome Measures (PROMs) und neue Ansätze, die dazu beitragen, exzellentes Personal zu gewinnen und binden, das sind neben der Digitalisierung Kernthemen, die die Zukunft der europäischen Universitätskliniken bestimmen werden“, befindet Prof. Kroemer. „Für den Austausch von Informationen und Best Practice ist die EUHA eine exzellente Plattform. Den Aktivitäten zum Erfolg zu verhelfen, dafür wird sich die Charité im Zuge ihrer Präsidentschaft einsetzen und Kontakte zu den Institutionen der Europäischen Union sowie anderen internationalen Organisationen weiter ausbauen.“

Über die EUHA
Die European University Hospital Alliance besteht aus zehn führenden europäischen Universitätskliniken mit nachgewiesener Exzellenz in Gesundheitsversorgung, Bildung und Forschung: Aarhus University Hospital, Dänemark; Assistance Publique – Hôpitaux de Paris, Frankreich; Charité – Universitätsmedizin Berlin, Deutschland; Erasmus MC, Rotterdam, Niederlande; Ospedale San Raffaele, Mailand, Italien; Universitätsklinik Karolinska, Stockholm, Schweden; King’s Health Partners, London, Vereinigtes Königreich; UZ Leuven, Löwen, Belgien; AKH Wien & MedUni Wien, Österreich; Krankenhaus Campus Vall d’Hebron Barcelona, Spanien. Die Institutionen arbeiten zusammen, um die Versorgung von Patient:innen jetzt und in Zukunft zu verbessern. Dabei haben alle Mitglieder eine Kapazität von mehr als 1.000 Krankenbetten, sie sind Exzellenzzentren in der Forschung und nationale Referenzzentren. Sie decken die bestehenden europäischen Referenznetzwerke (ERNs) ab. Das Motto „Leading by Doing“ steht für die Absicht, kompetenter Berater auf europäischer Ebene zu sein und innovative Lösungen für zentrale Herausforderungen im europäischen Gesundheitswesen zu entwickeln.

Weitere Informationen:
https://www.euhalliance.eu/ EUHA-Webseite
https://www.charite.de/index.php?id=30276849 Die European University Hospital Alliance (EUHA) an der Charité

(nach oben)


Die Energiewende in Deutschland auf einen Blick: Ariadne‐Tracker prüft Fortschritt auf dem Weg zur Klimaneutralität

Sarah Messina / Kopernikus-Projekt Ariadne Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Um 2045 klimaneutral zu sein, muss das Energiesystem in einem nie dagewesenen Tempo umgebaut werden. Ob die Energiewende in Deutschland auf Kurs ist, zeigt jetzt der neue Transformations‐Tracker des Kopernikus‐Projekts Ariadne auf einen Blick. Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) setzt der Tracker die Entwicklung von mehr als 40 konkreten Schlüsselindikatoren ins Verhältnis zu den Zielpfaden der Ariadne‐Szenarien zur Klimaneutralität – vom Gesamtsystem, über die Energiewirtschaft bis in die einzelnen Sektoren Gebäude, Verkehr und Industrie.

„Unsere Analysen zeigen: Um auf Kurs zur Klimaneutralität zu kommen, geht es mit den Fortschritten der Energiewende in den meisten Bereichen zu langsam voran“, sagt Gunnar Luderer, Vize-Leiter des Ariadne-Projekts und Szenarien-Experte des Potsdam-Instituts für Klimafolgenforschung (PIK). „Vor allem bei Neuanschaffungen muss massiv umgesteuert werden, um den Weg zur Klimaneutralität nicht zu verbauen“. Wo es schon läuft, aber auch, wo es noch hakt, zeigt der Transformations-Tracker anhand von Geschwindigkeits-Tachometern. Derzeit stehen diese erst in den wenigsten Fällen auf Erfolg.

Neben Kennzahlen der letzten drei Jahre zu Emissionen und dem Ausbau von Windenergie, Photovoltaik & Co gehören zu den berücksichtigten Indikatoren auch jene Signale, die den Ausstieg aus der Nutzung von Kohle, Öl und Gas verfolgen. Auch inwiefern Investitionen in Autos, Heizungssysteme und Industrieanlagen mit den langfristigen Klimazielen vereinbar sind, fließt also in den Transformations-Tracker mit ein. Denn gerade bei den langlebigen Investitionsgütern zeigt sich, dass noch viel zu tun ist. Neue Benziner oder Diesel fahren im Schnitt 18 Jahre auf den Straßen, neue Gasheizungen sind 15-25, teils sogar 30 Jahre in Betrieb. Die fossile Zukunft wird hier also bei Kaufentscheidungen mitunter gleich mitbestellt.

+++ Achtung Sondereffekt! Vorsicht bei der Formel für den Fortschritt +++
Auch bei den Erfolgen lohnt es sich, genauer hinzuschauen. Jüngste Ereignisse wie die Corona-Pandemie oder die Energiekrise haben auf die Indikatoren einen starken Einfluss. Manch ein „Fortschritt“ auf dem Weg zur Klimaneutralität ist deshalb nicht der notwendigen strukturellen Transformation geschuldet, sondern geht lediglich auf kurzfristig wirkende Entwicklungen zurück. Diese im Tracker gekennzeichneten „Sondereffekte“ sollten deshalb mit Vorsicht interpretiert werden, so die Fachleute. Denn Emissionen, die etwa im Zuge der Pandemie durch das Herunterfahren der Industrieproduktion oder weniger Verkehr auf den Straßen gesunken sind steigen nach der Pandemie wieder an.

“Dass viele vermeintlich günstige Entwicklungen der letzten Jahre Folge der Corona-Pandemie und der Energiekrise sind, ist zunächst ernüchternd“, ergänzt Frederike Bartels vom PIK. „Umso mehr gilt es, auf dem aktuellen Bewusstsein für Energiefragen jetzt aufzubauen und strukturelle Veränderungen bei zukünftigen Investitionen oder individuellem Verhalten anzustoßen, die dann einen nachhaltigen Nutzen für den Weg zur Klimaneutralität haben”.

+++ Die Energiewende ist kein Selbstläufer: Ariadne-Szenarien als Frühwarnsystem für Kurskorrekturen +++
Der Ariadne-Tracker kann so als Frühwarnsystem der Energiewende aufzeigen, wo die Knack- und Knirschpunkte liegen und die praktische Umsetzung nicht zu den Notwendigkeiten der gesetzten Klimaziele passt. Geleitet vom Potsdam-Institut für Klimafolgenforschung unter Mitwirkung von Ariadne-Fachleuten des Instituts für Energiewirtschaft und Rationelle Energieanwendung der Universität Stuttgart, des Fraunhofer-Instituts für Solare Energiesysteme, des DLR-Instituts für Verkehrsforschung und des Fraunhofer-Instituts für System- und Innovationsforschung baut der Transformations-Tracker auf die im Ariadne-Projekt entstandenen Szenarien auf, die verschiedene Transformationspfade zur Klimaneutralität 2045 beschreiben. Diese Transformationspfade umfassen das gesamte Energiesystem und die Sektoren Industrie, Gebäude und Verkehr und integrieren im Modellvergleich Gesamtsystem- und Sektormodelle. So können detaillierte Energiewendepfade analysiert werden, um robuste Strategien abzuleiten und Unsicherheiten oder Hemmnisse entlang der notwendigen Transformation auszubuchstabieren.

Weblink zum Transformation Tracker:
https://tracker.ariadneprojekt.de/

Weiterführende Informationen:
Deutschland auf dem Weg aus der Gaskrise – Wie sich Klimaschutz und Energiesouveränität vereinen lassen (2022): Gunnar Luderer, Frederike Bartels, Markus Blesl, Alexander Burkhardt, Ottmar Edenhofer, Ulrich Fahl, Annika Gillich, Andrea Herbst, Kai Hufendiek, Markus Kaiser, Lena Kittel, Florian Koller, Christoph Kost, Robert Pietzcker, Matthias Rehfeldt, Felix Schreyer, Dennis Seibert, Luisa Sievers. Kopernikus-Projekt Ariadne, Potsdam. DOI: 10.48485/pik.2022.004

Weblink: https://ariadneprojekt.de/pressemitteilung/deutschland-auf-dem-weg-aus-der-gaskr…

Deutschland auf dem Weg zur Klimaneutralität 2045. Szenarien und Pfade im Modellvergleich. Ariadne-Report (2021): Gunnar Luderer (Hrsg.), Christoph Kost (Hrg.), Dominika Soergel (Hrsg.) et al. Kopernikus-Projekt Ariadne, Potsdam. DOI: 10.48485/pik.2021.006

Weblink: https://ariadneprojekt.de/pressemitteilung/so-geht-klimaneutralitat-2045-was-der…

Pressekontakt:
Sarah Messina | Leitung Kommunikation Ariadne
Potsdam-Institut für Klimafolgenforschung (PIK)
Telefon: +49 (0)331 288 2544 | Email: ariadne-presse@pik-potsdam.de

Maria Bader | Kommunikationsmanagerin Ariadne
Mercator Research Institute on Global Commons and Climate Change (MCC)
Telefon: +49 (0)30 3385537 365 | E-Mail: ariadne-presse@pik-potsdam.de

Wer ist Ariadne? Im Konsortium von mehr als 25 wissenschaftlichen Partnern führt das Kopernikus-Projekt Ariadne durch einen gemeinsamen Lernprozess mit Politik, Wirtschaft und Gesellschaft, erforscht Optionen zur Energiewende und stellt politischen Entscheidern wichtiges Orientierungswissen bereit.
Weblink zum Projekt Ariadne: https://ariadneprojekt.de/
Folgen Sie dem Ariadnefaden auf Twitter @AriadneProjekt

Über die Kopernikus-Projekte
Die Kopernikus-Projekte des Bundesministeriums für Bildung und Forschung (BMBF) bilden eine der größten deutschen Forschungsinitiativen zum Thema Energiewende. Ihr Ziel ist eine klimaneutrale Bundesrepublik mit einer sauberen, sicheren und bezahlbaren Stromversorgung bis zur Mitte des Jahrhunderts. www.kopernikus-projekte.de

(nach oben)


Lichtverschmutzung: Gemeinsame Standards sollen Klarheit schaffen

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Zusammenschau aktueller Methoden soll einheitliche Umweltschutzregelungen ermöglichen

Lichtverschmutzung – zu viel Licht in der Nacht – ist ein Problem für Natur und Naturwissenschafter*innen. Im Fachjournal Science vergleicht der Astrophysiker Stefan Wallner von der Universität Wien aktuelle Methoden und empfiehlt einheitliche Regelungen um den Umweltschutz voranzubringen. Auch für Österreich fordert er ein bundesweites „Lichtverschmutzungsgesetz“.

Lichtverschmutzung hat sehr viele Facetten, die schon bei der Definition anfangen: So kann es beispielsweise um die Aufhellung des Nachthimmels gehen oder um die Ausbreitung der Außenbeleuchtung, die von Satelliten oder Tieren auf unterschiedlichen Arten gesehen werden. Der Astrophysiker Stefan Wallner der Universität Wien erklärt: „Die Definition des Phänomens gibt Hinweise darauf, wie Messungen durchgeführt werden müssen. Aufgrund vieler verfügbarer Geräte und Methoden, die für die unterschiedlichen Ansätze verwendet werden, verfügen Forscher*innen weltweit über eine große Vielfalt, wie sie künstliches Licht in der Nacht untersuchen können. Dies kann aber zu Problemen führen, da verschiedene Beobachtungen dadurch möglicherweise nicht vergleichbar sind.“

Wallner wurde daher zusammen mit internationalen Forschungskolleg*innen vom renommierten Fachjournal Science dazu eingeladen, den aktuellen Wissensstand zusammenzutragen und die derzeit verwendeten Methoden zu überprüfen, um das Ausmaß der auftretenden Lichtverschmutzung zu quantifizieren und die daraus resultierenden Auswirkungen zu analysieren.

Eine besondere Herausforderung dabei stellt dabei der Zusammenhang zwischen Luft- und Lichtverschmutzung dar, an dem Wallner forscht. Wallner: „Die große Veränderlichkeit der Erdatmosphäre wirkt sich erheblich auf die daraus resultierende Lichtverschmutzung aus. Um beide Phänomene gemeinsam einzudämmen, müssen interdisziplinäre Lichtverschmutzungsforscher*innen weltweit zusammenkommen um daran arbeiten, Daten aus aktuell verfügbaren Technologien verständlicher zu nutzen, aber auch über Messstandards und neue Möglichkeiten nachdenken.“

Um die Lichtverschmutzung effektiv einzudämmen braucht es auf diese Erkenntnisse fußende Gesetzgebungen. „Die vor kurzem überholte ÖNORM O 1052 zu Lichtimmissionen sowie das kommende Lichtverschmutzungsgesetz im Land Oberösterreich sind wichtige Schritte. Ein bundesweites Gesetz dazu wird dennoch notwendig sein, um den Natur- und Umweltschutz gegen künstliches Licht bei Nacht maximal anzuheben“, fordert Wallner.

Wissenschaftliche Ansprechpartner:
Dr. Stefan Wallner, BSc MSc
Institut für Astrophysik, Universität Wien
1180 Wien, Türkenschanzstraße 17
T +43 1 4277 53841
stefan.wallner@univie.ac.at

Originalpublikation:
Miroslav Kocifaj, Stefan Wallner. Measuring and monitoring light pollution: Current approaches and challenges. Science (2023)
DOI: 10.1126/science.adg0473 (https://doi.org/10.1126/science.adg0473)

Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a…

(nach oben)


Alternative Einkommensquellen bringen Landwirtschaft und Gesellschaft näher zusammen

Heike Bräuer Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Neue Studie zu sozialen Funktionen der Landwirtschaft

Die Zahl landwirtschaftlicher Betriebe in Deutschland sinkt, im Durchschnitt bewirtschaften immer weniger Betriebe immer größere Flächen. Gleichzeitig nimmt der Anteil der Betriebe zu, die ihr Einkommen auch jenseits der Nahrungsmittelproduktion erwirtschaften, zum Beispiel mit der Produktion erneuerbarer Energien, der Vermietung von Ferienwohnungen oder der Direktvermarktung landwirtschaftlicher Produkte.

Ein Team von Agrarökonom:innen um Wiebke Nowack vom Albrecht Daniel Thaer-Institut für Agrar- und Gartenbauwissenschaften hat die sozialen Funktionen der Landwirtschaft in diesem Kontext untersucht. Ergebnis: Mit der Industrialisierung der Nahrungsmittelproduktion und der Diversifizierung der Tätigkeiten verändert sich die Rolle landwirtschaftlicher Betriebe in Dorfgemeinschaften, in ländlichen Regionen und in der Gesellschaft insgesamt.

Fallstudie in Schleswig-Holstein
„In unserer Fallstudienregion im Kreis Dithmarschen in Schleswig-Holstein haben wir beobachtet, dass Betriebe insbesondere über die Tätigkeiten im Bereich der Einkommensdiversifizierung in soziale und wirtschaftliche Strukturen eingebunden sind“, erläutert Doktorandin Wiebke Nowack. Co-Autor Thies Popp, der im Rahmen seiner Doktorarbeit ebenfalls in der Region geforscht hatte und dort aufgewachsen ist, betont, dass Einkommensalternativen in Dithmarschen entscheidend dafür sind, welche Betriebe erfolgreich wirtschaften, wachsen und zu denen gehören, die weitermachen.

Soziale Funktionen noch wenig erforscht
Die Agrarökonom:innen bauen ihre Studie auf einer Kategorisierung von elf Typen sozialer Leistungen auf, die landwirtschaftliche Betriebe für die Gesellschaft erbringen können. Dazu zählen beispielsweise die Stärkung des sozialen Zusammenhalts der Dorfgemeinschaft oder die Erschließung und Erhaltung von Erholungsräumen. „Im Gegensatz zu ökologischen Funktionen, haben solche sozialen Funktionen der Landwirtschaft in der Wissenschaft bisher wenig Beachtung gefunden. Unsere Fallstudie zeigt, wie Landwirtschaft soziale Funktionen erfüllt und wie sich das im Kontext des Größenstrukturwandels ändert“, so Harald Grethe, Professor am Thaer-Institut für Agrar- und Gartenbauwissenschaften und ebenfalls Co-Autor der Veröffentlichung.

Arbeitsintensive Tätigkeiten wie Direktvermarktung sind sozial besonders wirksam
Während sich der Größenstrukturwandel in der Landwirtschaft und die damit verbundene Industrialisierung der Nahrungsmittelproduktion negativ auf die sozialen Funktionen der Landwirtschaft ausgewirkt haben, weil beispielsweise Maschinen größer und lauter geworden sind, weitere Distanzen zurücklegen oder von Dienstleistern bedient werden statt vom Nachbarn, bergen die Einkommensalternativen jenseits der Nahrungsmittelproduktion die Chance, dass sich Landwirtschaft und Gesellschaft begegnen und näher kommen. „Unsere Ergebnisse weisen darauf hin, dass vor allem arbeitsintensive Tätigkeiten wie Direktvermarktung, touristische Angebote oder auch Bauernhofpädagogik soziale Funktionen erfüllen“, betont Julia Schmid, eine weitere Co-Autorin.

Appell an die Agrarpolitik: stärkere Anerkennung sozialer Leistungen
Die Ergebnisse der Fallstudie sind aus Sicht der Forscher:innen ein Impuls für agrarpolitische Entscheidungsträger:innen. Bisher hängt die Höhe möglicher Fördermittel für landwirtschaftliche Betriebe in erster Linie von der bewirtschafteten Fläche ab oder es werden Kapitalinvestitionen gefördert. „Wollen wir, als Gesellschaft, dass soziale Leistungen von Landwirtschaft stärker anerkannt und honoriert werden, könnten landwirtschaftsnahe Tätigkeiten ein wichtiger politischer Ansatzpunkt sein. Würden diese stärker angereizt und Barrieren abgebaut, stünden landwirtschaftlichen Betrieben auch vielfältigere Entwicklungsmöglichkeiten zur Verfügung – unabhängig von ihrer Größe“, so das Resümee von Wiebke Nowack.

Wissenschaftliche Ansprechpartner:
Wiebke Nowack
Albrecht Daniel Thaer-Institut für Agrar- und Gartenbauwissenschaften
E-Mail: wiebke.nowack@hu-berlin.de

Originalpublikation:
https://www.sciencedirect.com/science/article/pii/S0743016723001006?via%3Dihub

(nach oben)


Wie denken die Deutschen über nachhaltiges Bauen und Wohnen?

Christoph Uhlhaas M.A. Geschäftsstelle
acatech – Deutsche Akademie der Technikwissenschaften
acatech, Körber-Stiftung und ZIRIUS veröffentlichen repräsentative Umfrage-Ergebnisse zu den Technikeinstellungen der Deutschen im Bereich Bauen und Wohnen. Online-Pressekonferenz am 19. Juni um 9:00 Uhr.

Wie möchten die Deutschen wohnen? Wo sehen sie sich in der Lage, durch Verhaltensänderung oder Anschaffung neuer Geräte Energie zu sparen? Welche Investitionen im Energiebereich planen Hauseigentümerinnen und -eigentümer? Das TechnikRadar 2023 fasst die Ergebnisse einer neuen repräsentativen Umfrage zu den Technikeinstellungen der Deutschen zusammen. In diesem Jahr liegt der Schwerpunkt auf nachhaltigem Bauen und Wohnen – ein Thema, welches angesichts von Klimakrise, Materialknappheit und steigenden Energiepreisen an Bedeutung gewonnen hat.

Am 19. Juni, bereits einen Tag vor der Veröffentlichung des TechnikRadar 2023, werden in einer Online-Pressekonferenz die zentralen Ergebnisse der aktuellen Umfrage vorgestellt.

Präsentiert und eingeordnet werden die Ergebnisse von
• Matthias Mayer, Leiter des Bereichs Wissenschaft der Körber-Stiftung
• Prof. Dr. Cordula Kropp, wissenschaftliche Projektleiterin und Soziologin vom Zentrum für Interdisziplinäre Risiko- und Innovationsforschung der Universität Stuttgart (ZIRIUS)
• Prof. Dr. Ortwin Renn, TechnikRadar-Co-Projektleiter und acatech Präsidiumsmitglied
• Prof. Dr.-Ing. Jan Wörner, Präsident acatech

Die teilnehmenden Medienvertreterinnen und -vertreter erhalten die Studie sowie das Datenmaterial zur Erstellung eigener Grafiken direkt im Anschluss an die Pressekonferenz.

Wir laden Sie herzlich ein zur Online-Pressekonferenz:
TechnikRadar 2023
Montag, 19.06.2023, 9:00 Uhr bis 9:45 Uhr
Zoom-Videokonferenz

Anmeldung an frohwein@acatech.de

(nach oben)


Augengesundheit: Irisfarbe – ein wenig beachteter Risikofaktor

Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft
Von hellem Blau oder Grau über grünliche bis hin zu tiefbraunen Tönen: Die Iris oder Regenbogenhaut des Auges kann eine ganze Palette von Farbschattierungen annehmen. Doch die Augenfarbe bestimmt nicht nur einen wesentlichen Teil des äußeren Erscheinungsbildes. Wie man heute weiß, hängt die Farbe der Iris auch mit der Neigung zu bestimmten Augenerkrankungen und dem Ergebnis etwa von Hornhauttransplantationen zusammen. Dass die Augenfarbe hier als unabhängiger Risikofaktor wirkt, sei lange Zeit wenig beachtet worden, so die Deutsche Ophthalmologische Gesellschaft (DOG). Experten der Fachgesellschaft geben einen Überblick darüber, was über diesen Zusammenhang bekannt ist.

Welche Augenfarbe ein Mensch hat, hängt davon ab, wie hoch die Konzentration an Melanin in seiner Iris ist – des Farbstoffs also, der neben der Augen- auch die Haut- und die Haarfarbe bestimmt. „Das Melanin hat dabei immer dieselbe bräunliche Farbe – auch grüne und blaue Augen besitzen keine anderen Farbstoffe“, erläutert Professor Dr. med. Claus Cursiefen, Direktor des Zentrums für Augenheilkunde am Universitätsklinikum Köln und Generalsekretär der DOG. Die anderen Farbschattierungen beruhten auf Lichtbrechungseffekten, die bei verschiedenen Melaningehalten zum Tragen kämen.

Ganz ohne Melanin – wie bei Menschen mit der angeborenen Pigmentstörung Albinismus – bleiben die Augen sehr hell, je nach Lichteinfall kann sogar der rote Augenhintergrund hindurchschimmern. „Bei Menschen mit okulärem Albinismus ist bekannt, dass die Augenentwicklung insgesamt beeinträchtigt ist“, sagt Cursiefen. Weil Melanin nicht nur in der Iris, sondern auch im Pigmentepithel der Netzhaut enthalten ist, kann es ohne diesen Farbstoff zu deutlichen Fehlentwicklungen im Augenhintergrund und nachfolgenden Sehstörungen kommen.

Helle Augen: Höheres Risiko für Aderhaut-Tumoren und AMD
Doch auch wenn man vom Extremfall der Pigmentstörung absieht, kann sich der Melaningehalt der Iris auf die Augengesundheit auswirken. Denn so wie in der Haut schützt das Melanin auch in der Iris vor dem Einfluss des Sonnenlichts. Es filtert sowohl den sichtbaren Teil des Lichtspektrums – Menschen mit sehr hellen Augen reagieren daher besonders empfindlich auf starken Lichteinfall – als auch dessen UV-Anteil. Bei niedrigerem Melaningehalt steigt deshalb auch das Risiko, an einem so genannten uvealen Melanom zu erkranken, einem aggressiven Tumor der Aderhaut.1 „Dieser Krebstyp ist zwar sehr selten, er findet sich jedoch bei Menschen europäischer Abstammung 20 bis 30 mal häufiger als bei Menschen asiatischer oder afrikanischer Abstammung“, erläutert Professor Dr. med. Nikolaos Bechrakis, Präsident der DOG und Direktor der Universitätsaugenklinik Essen.

Mit einem geringeren Schutz vor den schädlichen Auswirkungen des Sonnenlichts lässt sich vermutlich auch die Beobachtung erklären, dass Menschen mit hellen Augen eher eine altersabhängige Makuladegeneration (AMD) entwickeln als Menschen mit dunklen Augen. „Bei der Entstehung der AMD spielen freie Radikale, oxidativer Stress und die Ansammlung von Abfallprodukten im Bereich der Netzhaut eine Rolle – Prozesse, die durch UV-Licht verstärkt werden“, erläutert Cursiefen. Ein Zusammenhang zwischen Augenfarbe und AMD-Risiko sei zwar nicht in allen Studien gefunden worden, so der Experte. „Eine umfangreiche Metaanalyse mit fast 130 000 Teilnehmenden konnte jedoch belegen, dass zumindest die feuchte Form der AMD bei Menschen europäischer Herkunft deutlich häufiger ist als bei Menschen mit asiatischen oder afrikanischen Wurzeln“, berichtet der Kölner Augenarzt.2 Ob dies hauptsächlich auf die Augenfarbe zurückzuführen ist, oder ob auch andere genetische Faktoren eine Rolle spielen, ist allerdings noch unklar.

Dunkle Augen: Mehr Grauer Star, häufiger Komplikationen bei Transplantationen
Bei der Entwicklung einer Linsentrübung, auch Grauer Star oder Katarakt genannt, sind Dunkeläugige dagegen im Nachteil. Diese Augenerkrankung entwickelt sich bei Menschen mit braunen Augen zwei bis viermal so häufig wie bei blauäugigen Menschen – ein Effekt, der auch innerhalb der weißen Bevölkerung nachgewiesen wurde und somit von der Ethnie unabhängig zu sein scheint.2 „Eine Theorie hierzu besagt, dass in der vorderen Augenkammer eine umso höhere Temperatur herrscht, je mehr Licht durch die Iris absorbiert wird“, erläutert Cursiefen. Bei dunkler Iris wäre demnach mit einer leicht erhöhten Temperaturbelastung zu rechnen, die wiederum einen bekannten Risikofaktor für die Entstehung des Grauen Stars darstellt. So ist die hitzebedingte Katarakt etwa bei Schweißern als Berufskrankheit anerkannt.

Auch das Ergebnis operativer Eingriffe am Auge kann von der Augenfarbe abhängen. Bei einer Hornhauttransplantation, bei der die Hornhaut in ihrer gesamten Dicke ausgetauscht wird („perforierende Keratoplastik“), werden Abstoßungsreaktionen und andere Komplikationen häufiger beobachtet, wenn die Iris dunkel ist. „Hier wird ein Einfluss des Melanins auf das Immungeschehen in der vorderen Augenkammer vermutet“, sagt Cursiefen. Womöglich verstärke das Pigment entzündliche Prozesse.

Unabhängig von dieser Beobachtung nimmt die Zahl der klassischen, perforierenden Hornhauttransplantationen seit einigen Jahren stark zugunsten minimal invasiver Techniken ab. In einer eigenen Arbeit haben Cursiefen und Kollegen daher die Komplikationsrate bei der minimal invasiven DMEK („Descemet Membrane Endothelial Keratoplasty“) untersucht, bei der lediglich die innerste Schicht der Hornhaut transplantiert wird. „Hier konnten wir keinen Effekt der Augenfarbe auf das Transplantatüberleben nachweisen“, so Cursiefen.3 Offenbar sei es durch den wesentlich schonenderen Ansatz gelungen, eine Immunaktivierung im Auge zu vermeiden und so den Einfluss des Melanins auszuschalten.

Ziel ist, erhöhte Risiken durch die Irisfarbe auszugleichen
„Die Beispiele zeigen, dass scheinbar unbedeutende Faktoren wie die Augenfarbe im klinischen Alltag durchaus relevant sein könnten“, so das Resümee der DOG-Experten. Nun gelte es, diese komplexen Zusammenhänge weiter zu definieren, bei der Behandlung zu berücksichtigen und, wo immer möglich, erhöhte Risiken und Nachteile auszugleichen.

Quellen:
1 Sun HP,Lin Y,Pan CW. Iris color and associated pathological ocular complications:a review of epidemiologic studies. Int J Ophthalmol 2014;7(5):872-878. doi:10.3980/j.issn.2222-3959.2014.05.25

2 Pugazhendhi A et al. Neovascular Macular Degeneration: A Review of Etiology, Risk Factors and Recent Adavnces in Research and Therapy. Int J Mol Sci. 2021 Feb; 22(3): 1170. doi: 10.3390/ijms22031170

3 Hayashi T, Hos D, Schrittenlocher S, Siebelmann S, Matthaei M, Franklin J, Clahsen T, Bock F, Bachmann B, Cursiefen C. Effect of Iris Color on the Outcome of Descemet Membrane Endothelial Keratoplasty. Cornea. 2020 Jul;39(7):846-850. doi: 10.1097/ICO.0000000000002305.

(nach oben)


Berufliche Zukunft planen

Alexandra Nießen Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Endlich geschafft – Abi in der Tasche! Wer noch zum Wintersemester ein Uni-Studium starten möchte, bekommt am 15. Juni bei der Wahl des Studiengangs Unterstützung. An diesem Donnerstag veranstalten die Hochschulen in NRW den Langen Abend der Studienberatung. Auch die Universität Duisburg-Essen (UDE) lädt Abiturient:innen, Oberstufenschüler:innen und Eltern ein. Eine Anmeldung ist nicht erforderlich.

Von 18 bis 21 Uhr können sich Uni-Interessierte im Akademischen Beratungs-Zentrum ABZ an der UDE am Campus Duisburg übers Studieren informieren. Insbesondere gibt es Beratungen zu Studiengängen der Ingenieurwissenschaften und der Physik & Energy Science. Dabei widmet sich das ABZ zudem Fragen der Inklusion. Die Berufsagentur für Arbeit (Ausbildung und duales Studium) wird mit ihrer Berufsberatung vertreten sein. Wer sich für Stipendien interessiert, erfährt darüber mehr vorab von verschiedenen Förderungswerken (ab 16 Uhr).

Beginn: 18 Uhr, ABZ, Geibelstraße 41 (Campus Duisburg)

Weitere Informationen:
https://www.uni-due.de/abz/studieninteressierte/langer_abend_der_studienberatung…

ABZ: Marion Büscher, Akademisches Beratungs-Zentrum ABZ, marion.buescher@uni-due.de

Redaktion: Alexandra Nießen, Tel. 0203/37 9-1487, alexandra.niessen@uni-due.de

Wissenschaftliche Ansprechpartner:
ABZ: Marion Büscher, Akademisches Beratungs-Zentrum ABZ, marion.buescher@uni-due.de

(nach oben)


Kampf ums Klima – Von der „Letzten Generation“ und Klimaklagen

Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Welche Konflikte entstehen durch die Herausforderung, den Klimawandel jetzt aufzuhalten, um nachfolgende Generationen vor den negativen Folgen zu bewahren? Der „Kampf ums Klima“ ist Thema der nächsten Vorlesung für Schülerinnen und Schüler, zu der die Universität Heidelberg im Rahmen ihres Projekts GO FUTURE! einlädt. Über Klimaklagen und die „Letzte Generation“ spricht der Rechtswissenschaftler Prof. Dr. Marc-Philippe Weller gemeinsam mit Theresa Hößl und Camilla Seemann. Die Referenten stehen im Anschluss zur Verfügung, um Fragen zu beantworten und sich mit ihren Zuhörern auszutauschen.

Kampf ums Klima – Von der „Letzten Generation“ und Klimaklagen
Nächste Veranstaltung der „GO FUTURE!“-Vorlesungen findet am 14. Juni statt

Welche Konflikte entstehen durch die Herausforderung, den Klimawandel jetzt aufzuhalten, um nachfolgende Generationen vor den negativen Folgen zu bewahren? Der „Kampf ums Klima“ ist Thema der nächsten Vorlesung für Schülerinnen und Schüler, zu der die Universität Heidelberg im Rahmen ihres Projekts GO FUTURE! einlädt. Über Klimaklagen und die „Letzte Generation“ spricht der Rechtswissenschaftler Prof. Dr. Marc-Philippe Weller gemeinsam mit Theresa Hößl und Camilla Seemann. Die Referenten stehen im Anschluss zur Verfügung, um Fragen zu beantworten und sich mit ihren Zuhörern auszutauschen. Die Vorlesung findet am 14. Juni 2023 in Hörsaal 13 der Neuen Universität, Grabengasse 3-5, statt und beginnt um 17.00 Uhr. Eine Anmeldung ist nicht erforderlich.

Mit dem Projekt GO FUTURE! nimmt die Universität Heidelberg die insgesamt 17 Nachhaltigkeitsziele der Vereinten Nationen in den Blick: Damit verbindet sich der globale Plan, Frieden und Wohlstand zu fördern, Armut zu bekämpfen, Ungleichheit zu verringern und die Umwelt und unseren Planeten zu schützen. Doch was genau verbirgt sich hinter den SDGs – den Sustainable Development Goals? Was können Wissenschaft und Forschung leisten, um diese Ziele zu verwirklichen? Diese Fragen gemeinsam mit Kindern und Jugendlichen zu diskutieren, ist Anliegen des Projekts GO FUTURE!, das die Universität Heidelberg im Rahmen von heiSCHOOL – der neuen Dachmarke für die „Kinderuni“ und die „Junge Uni“ – ins Leben gerufen hat.

Ein zentraler Teil des Projekts ist eine Vorlesungsreihe, die über insgesamt sechs Semester läuft. Nach „Alles Klima?!“ – dem zentralen Thema des vergangenen Wintersemesters – wird die Reihe im Sommersemester mit Vorlesungen zu der Frage „Ein bisschen Frieden?“ fortgesetzt. Dem Auftakt zum „Kampf ums Klima – Von der ,Letzten Generation‘ und Klimaklagen“ folgen drei weitere Veranstaltungen, in denen es um die Entstehung von Kriegen (28. Juni) sowie um Konflikte in der Energiewende (5. Juli) und um Cybersicherheit (12. Juli) gehen wird. Neben Schülerinnen und Schülern sind alle Interessierten eingeladen, die Vorlesungsreihe zu besuchen.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
http://www.uni-heidelberg.de/de/heischool/go-future/ein-bisschen-frieden – Vorlesungen „Ein bisschen Frieden?“
http://www.uni-heidelberg.de/de/heischool/go-future/wenn-uni-schule-macht – Projekt GO FUTURE!
http://www.uni-heidelberg.de/de/heischool/go-future/ziele-fuer-nachhaltige-entwi… – Videos GO FUTURE!
http://www.uni-heidelberg.de/de/heischool – heiSCHOOL

(nach oben)


Großstädteranking 2023: Menschen in Hamburg am glücklichsten – in Leipzig am unglücklichsten

Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Studie unter Leitung des Freiburger Wirtschaftswissenschaftlers Bernd Raffelhüschen untersucht 12 Großstädte im Rahmen des „SKL Glücksatlas“
• Einkommenshöhe, persönliche Gesundheit, Zusammengehörigkeitsgefühl und öffentliche Verwaltung sind wichtigste Gründe
• Je zufriedener die Bürger*innen, desto optimistischer blicken sie in die Zukunft

Die glücklichsten Großstädter*innen Deutschlands leben in Hamburg. Das ist das Ergebnis der Studie „SKL Großstädteranking 2023“ unter Leitung des Wirtschaftswissenschaftlers Prof. Dr. Bernd Raffelhüschen von der Wirtschafts- und Verhaltenswissenschaftliche Fakultät der Universität Freiburg, die im Rahmen des SKL Glücksatlas erschienen ist. Für das Ranking wurde die deutschsprachige Wohnbevölkerung in 12 Großstädten (Berlin, Hamburg, München, Köln, Frankfurt, Stuttgart, Düsseldorf, Leipzig, Dresden, Hannover, Bremen, Essen) mit Online-Zugang und einem Alter zwischen 16-74 Jahren repräsentativ hinsichtlich ihrer Lebenszufriedenheit befragt. Auch die Gründe für die Zufriedenheit wurden erhoben. Die Befragung fand zwischen 30. März und 24. April 2023 statt. Den Glücksatlas gibt es seit 2011, seit 2022 ist die Süddeutsche Klassenlotterie (SKL) Partnerin der Studie.

Den ersten Platz des Städterankings in der Kategorie allgemeine Lebenszufriedenheit erreicht Hamburg mit 7,16 Punkten (auf einer Skala von 0 bis 10 Punkten), gefolgt von Frankfurt am Main (7,07 Punkte) und dem drittplatzierten München (6,9 Punkte). Diese drei Städte erreichen überdurchschnittlich hohe persönliche Glückswerte sowie sehr gute Zufriedenheiten mit städtischen Merkmalen wie etwa dem Wirtschaftsstandort. „Insgesamt ist festzustellen, dass für die Zufriedenheit der Bürger*innen mit ihrer Stadt besonders die Höhe der Einkommen, die persönliche Gesundheit, das Zusammengehörigkeitsgefühl der Bürger und die Arbeit der öffentlichen Verwaltung wichtig sind“, sagt Bernd Raffelhüschen.

Auf Rang 4 folgt Berlin mit 6,88 Punkten. Die befragten Berliner*innen zeigen eine hohe Zufriedenheit mit ihrem Leben, dem Einkommen und dem Arbeitsleben, sind aber mit den städtischen Angeboten, besonders mit der Verwaltung, unzufrieden. Das Mittelfeld beginnt mit Hannover (6,75 Punkte) auf Platz 5. Die Hannoveraner*innen sind mit Familie und Gesundheit mäßig zufrieden, städtische Bereiche wie Verkehr und die Verwaltung bewerten sie indes positiv. Im sechstplatzierte Düsseldorf (6,69 Punkte) gibt es eine hohe Zufriedenheit mit dem Einkommen und dem Wirtschaftsstandort, Unzufriedenheit gibt es mit der Verkehrsinfrastruktur.

Die untere Hälfte des Rankings vereint neben den eher schwächeren Wirtschaftsdaten (Ausnahme: Stuttgart) eine allgemeine Unzufriedenheit mit dem Verkehr, der Sicherheit, aber auch mit der öffentlichen Verwaltung. In Köln (7. Platz, 6,65 Punkte), Essen (8. Platz, 6,63 Punkte) und Bremen (10. Platz, 6,5 Punkte) sind darüber hinaus die Arbeitslosenzahlen wie Unterbeschäftigung oder die SGBII-Quote eher hoch. Die beiden Letztplatzierten Leipzig (12. Platz, 6,44 Punkte) und Dresden (11. Platz, 6,49 Punkte) haben beide eine etwas ältere Bevölkerung und vergleichsweise schwache Wirtschaftszahlen. Die Dresdner sind mit dem persönlichen Leben eher unzufrieden, aber begeistert von ihrer Stadt. Stuttgart erhält einen schwachen 9. Platz (6,54 Punkte). Hervorstechend ist hier die hohe Unzufriedenheit mit dem Zusammengehörigkeitsgefühl.

Wirtschaftsstandort als Faktor
Spitzenreiter Hamburg punktet insbesondere auch in der Kategorie Wirtschaftsstandort. Das Bruttoinlandsprodukt pro Kopf liegt dort bei 64.000 Euro, Leipzig bei 38.000 Euro. Diese Unterschiede spiegeln sich auch in der Zufriedenheit mit dem Einkommen wider, die in Hamburg hoch und in Leipzig niedrig ist. Die Hamburger*innen bewerten die Attraktivität ihrer Stadt als Wirtschaftsstandort mit dem Topwert von 7,0 Punkten. Die Leipziger*innen geben ihrem Wirtschaftsstandort nur durchschnittliche 6,55 Punkte. Die Gleichung „Einkommen gleich Zufriedenheit“ gilt jedoch nicht uneingeschränkt. Es gibt auch Ausnahmen: Obwohl Düsseldorf (Platz 6) und Stuttgart (Platz 9) wohlhabend sind, sind sie nur mittelmäßig zufrieden. Die Gründe liegen unter anderem in unzureichender Stadtpolitik, wie die Bewertungen der öffentlichen Verwaltung zeigen. Generell wird die Stadtverwaltung von den Bürger*innen am schlechtesten von allen Bereichen beurteilt, Kultur- und Naherholungsmöglichkeiten am besten.

Zusammengehörigkeitsgefühl als Faktor
Das Zusammengehörigkeitsgefühl ist ein weiterer wichtiger Faktor für die Stadtzufriedenheit. Es wird umso stärker empfunden, wenn die Bürger*innen sich sicher und entspannt in ihrer Stadt bewegen können, wenn die Nachbarschaft funktioniert und wenn die Menschen gerne in Vereinen, in der Kommune oder bei Stadtfesten ehrenamtlich engagiert sind. Tendenziell gilt, dass Städte (etwa Leipzig, Berlin, Bremen, Essen), deren Bürger*innen mit dem Zusammengehörigkeitsgefühl unzufrieden sind, auch mit der Verwaltung und mit der Sicherheitslage ihrer Stadt unzufrieden sind. Die Zufriedenheit mit der Stadtverwaltung hängt aber auch von der Steuerkraft und den Sachinvestitionen der Städte ab. Je wohlhabender eine Stadt – wie zum Beispiel Frankfurt, Hamburg oder München – desto eher kann sie in Krankenhäuser, Schulen und Straßen investieren.

Generell gilt, so das Fazit der Forschenden: Je zufriedener eine Großstadt, desto optimistischer schauen ihre Bürger*innen auch in die Zukunft. Und: Wenn die Bürger mit dem eigenen Leben zufrieden sind, dann bewerten sie auch die Zufriedenheit mit der Stadt positiv.

Weitere Informationen:
https://www.skl-gluecksatlas.de/info/presse

Wissenschaftliche Ansprechpartner:
Timon Renz, M.Sc.
Institut für Finanzwissenschaft und Sozialpolitik
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-5480
E-Mail: timon.renz@vwl.uni-freiburg.de

Prof. Dr. Bernd Raffelhüschen
Institut für Finanzwissenschaft und Sozialpolitik
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-2353
E-Mail: bernd.raffelhueschen@vwl.uni-freiburg.de

Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2023/grossstaedteranking-2023

(nach oben)


Erkenntnisse und Folgen: COVID-19-Forschung aus Magdeburg vorgestellt

Friederike Süssig-Jeschor Pressestelle
Universitätsmedizin Magdeburg
Wie ist die Corona-Pandemie in der Landeshauptstadt Magdeburg verlaufen? Was ist über die einzelnen Virusvarianten und zu Therapieansätzen bekannt? Welche Erkenntnisse zu den Folgen der Viruserkrankung liegen bereits vor und wie steht es um die Versorgung von Betroffenen mit Long-COVID? Über diese und weitere Fragen diskutierten 75 Wissenschaftlerinnen und Wissenschaftler der Universitätsmedizin Magdeburg im Beisein von Wissenschaftsminister Prof. Dr. Armin Willingmann heute im Rahmen eines wissenschaftlichen Symposiums zu medizinischer COVID-19 Forschung.

Ziel des Symposiums war es, nach drei Jahren Pandemie und dem Auslaufen letzter bundesweiter Schutzmaßnahmen, über die bisherige Pandemieforschung am Standort Magdeburg in den wissenschaftlichen Austausch zu gehen und dabei auch offene Forschungsfragen in den Blick zu nehmen. Ausrichter war die Lokale Stabstelle des Netzwerks Universitätsmedizin (NUM) in Magdeburg unter der Leitung von Mikrobiologe Prof. Dr. med. Achim Kaasch.

Insgesamt 29 Forschungsprojekte wurden im Rahmen der Veranstaltung präsentiert. Professor Kaasch betonte: „Die Universitätsmedizin Magdeburg hat sich bereits seit der ersten Stunde an dem Nationalen Forschungsnetzwerk der Universitätsmedizin im Kampf gegen COVID-19 beteiligt. Aber auch darüber hinaus forschen zahlreiche Arbeitsgruppen hier am Standort zu diesem Thema.“ Darunter sind großangelegte Studien zur Immunreaktion, zur Verbreitung des Virus im Großraum Magdeburg, zu Auswirkungen der Corona-Pandemie unter anderem für die Risikogruppen der älteren Menschen, Pflegepersonal und pflegende Angehörige sowie zur Versorgung von Betroffenen mit Long-COVID. Ein Vorhaben befasst sich mit Surveillance und Testung, ein weiteres mit den Thema Pandemiemanagement. Auch das deutschlandweit einmalige „AKTIN-Register“, durch welches das Robert Koch-Institut seit März 2020 täglich wichtige Echtzeit-Daten zur Lage in deutschen Notaufnahmen während der COVID-19-Pandemie erhält, zählte zu den vorgestellten Projekten.

Als Vertreter des Fakultätsvorstandes der Medizinischen Fakultät der Otto-von-Guericke-Universität Magdeburg richtete Forschungsdekan Prof. Dr. med. Florian Junne ein Grußwort an die Gäste und unterstrich: „Unsere Wissenschaftlerinnen und Wissenschaftler haben mit ihren Forschungsprojekten über die neuartige Infektionskrankheit COVID-19 maßgeblich dazu beigetragen, Gesundheitseinrichtungen, Gesellschaft und auch Politik bei der Bewältigung der Corona-Krise zu unterstützen. Und obwohl wir seit Ausbruch der Pandemie einige wertvolle Erkenntnisse gewonnen haben, sind vor allem die Langzeitfolgen für Erkrankte noch weitestgehend unerforscht. Deshalb wollen wir als Universitätsmedizin Magdeburg weitere wissenschaftliche Anstrengungen unternehmen, um unter anderem für Betroffene mit den Krankheitsbildern Long COVID beziehungsweise Post-COVID-19 verbesserte Therapiestrategien zu entwickeln.“ „Aber auch die Frage nach der Pandemie-Resilienz, das heißt, wie gut sind wir auf künftige Pandemien vorbereitet und wie kann im Gesundheitssystem eine größere Resilienz erreicht werden, wird uns noch weiter beschäftigen“, ergänzt Professor Kaasch. Zu diesen und weiteren wissenschaftlichen Folgefragen wurde in einem offenen fachlichen Austausch im Rahmen einer gemeinsamen Poster-Ausstellung am Nachmittag diskutiert.

Wissenschaftsminister Prof. Dr. Armin Willingmann würdigte das hohe Engagement der Magdeburger Forscherinnen und Forscher im Kampf gegen die Corona-Pandemie. „Die Corona-Pandemie hat verdeutlicht, wie wichtig medizinische Spitzenforschung ist und welch großer Beitrag hier von der Universitätsmedizin geleistet werden kann: in der Erforschung, in der Therapie und nicht zuletzt auch in der Politikberatung. Diese Pandemie haben wir auch dank hervorragender wissenschaftlicher Leistungen überwunden. Als Erkrankung bleibt Covid-19 jedoch eine Herausforderung. Noch immer gibt es Ansteckungen und auch die Therapie von Long- und Post-Covid-Fällen sollte weiter optimiert werden. Deshalb wird das Land Sachsen-Anhalt die Universitätsmedizin in Magdeburg und Halle weiterhin bei ihren vielfältigen Forschungsprojekten unterstützen“, so Willingmann.

Lokale Stabstelle des Netzwerks Universitätsmedizin
Die Lokale Stabsstelle des Netzwerk Universitätsmedizin (NUM) in Magdeburg fungiert als Schnittstelle zwischen der zentralen Koordinierungsstelle des NUM an der Charité – Universitätsmedizin Berlin, den Wissenschaftlerinnen und Wissenschaftlern am Standort Magdeburg sowie den weiteren Lokalen Stabsstellen anderer Universitätsmedizinstandorte.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Achim Kaasch, Direktor des Institutes für Medizinische Mikrobiologie und Krankenhaushygiene Magdeburg (IMMB), Otto-von-Guericke-Universität Magdeburg, Tel.: 0391-67-13392, achim.kaasch@med.ovgu.de

(nach oben)


Sportrecht: Wo Sport und Staat sich berühren

Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
Wissenschaftspodcast mit Professor Martin Nolte über Sportregeln, Diskriminierung im Fußball, Anti-Doping und vieles mehr: https://www.dshs-koeln.de/aktuelles/social-media/podcast/wissenschaftspodcast/

Wer jemandem auf offener Straße ins Gesicht boxt, bekommt es mit der Polizei zu tun. In manchen Sportarten gibt es für gezielte Schläge auf den Kopf Punkte und Medaillen. Möglich ist das, weil Sportorganisationen selbst definieren können, was in ihrer Sportart erlaubt ist. Sie können sich selbst Regeln geben und in eigenen Gerichten verhandeln. Aber nur innerhalb bestimmter Grenzen. Denn auch im Sport greift staatliches Recht, zum Beispiel bei Spielmanipulation oder Doping.

Ein ausgewiesener Experte des Sportrechts und einziger Professor in Deutschland auf diesem Gebiet ist Univ.-Prof. Dr. Martin Nolte. Er leitet das Institut für Sportrecht der Deutschen Sporthochschule Köln und ist aktueller Gast im Wissenschaftspodcast „Eine Runde mit …“. Ein Rechtsthema in einem Podcast mag für einige auf den ersten Blick trocken klingen, doch Martin Nolte nimmt die Hörer*innen direkt humorvoll mit: „Gerade, wenn es um trockene Themen geht, muss man viel Wasser reinbringen. Denken wir zum Beispiel an Wassersport. Da paddeln Sie mit dem Kanu durch eine schöne Schilflandschaft und ignorieren das Schild ‚Kanu fahren verboten‘. Sie verstoßen gegen eine Regel, bekommen einen Bußgeldbescheid, Sie gehen dagegen vor und schon sind Sie im Rechtsstreit.“ Über die Grenzen von Sportregeln spricht Prof. Martin Nolte im Podcast ebenso wie über Diskriminierung im Fußball und die Wirksamkeit von Anti-Doping-Regeln. So hat er beispielsweise wissenschaftlich ausgewertet, wie genau die Leistungssportler*innen in Deutschland den Nationalen Anti-Doping Code kennen und ihn beherzigen. Sein Fazit: „Es wäre schön, wenn sich die Straßenverkehrsteilnehmer in Deutschland so an die Straßenverkehrsordnung hielten wie die Leistungssportler an die Anti-Doping-Regeln.“

Der Sportrechtsexperte skizziert auch aktuelle Fälle, an denen er arbeitet. Er erstellte etwa ein Gutachten im Fall Vušković. 2022 wurde der Fußballprofi Mario Vušković positiv auf das Dopingmittel EPO getestet. Die Anti-Doping-Regeln sehen eine vierjährige Sperre vor, das DFB-Sportgericht verhängte zwei Jahre, also zwei Jahre weniger als die Regel der Nationalen Anti Doping Agentur (NADA) besagt. Nolte erklärt, wie das zustande kommt. Seine wissenschaftliche Arbeit hat auch ganz konkret Effekte für die Praxis, zum Beispiel, wenn er eine Finanzierungsgarantie für den gemeinnützigen Sport aus Glücksspielerträgen entwickelt oder einen Safe Sport Code erarbeitet, der als Regelwerk gegen interpersonale Gewalt im Sport dienen soll. Neben seiner fachlichen Expertise spricht Martin Nolte bei „Eine Runde mit …“ auch über seine Leidenschaft für den Orientierungslauf, eine Sportart, die ihn schon sein ganzes Leben lang begleitet und ihm – privat wie beruflich – Orientierung gibt.

„Eine Runde mit …“ ist auf allen gängigen Podcast-Plattformen und auf der Website der Deutschen Sporthochschule Köln zu finden: https://www.dshs-koeln.de/einerundemit.

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Martin Nolte
Institut für Sportrecht
E-Mail: m.nolte@dshs-koeln.de
Tel.: +49 221 4982-6088

Originalpublikation:
https://www.dshs-koeln.de/aktuelles/social-media/podcast/wissenschaftspodcast/

(nach oben)


Lokales Artensterben womöglich oft unterschätzt

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Eine neue Studie zur Biodiversität zeigt, dass die Artenzahl kein verlässliches Maß ist, um Ökosysteme zu überwachen. Demnach können scheinbar gesunde Ökosysteme mit konstanter oder sogar steigender Artenzahl bereits auf dem Weg in einen schlechteren Zustand mit weniger Arten sein. Solche Übergangsphasen zeigen sich aufgrund systematischer Verzerrungen selbst in langjährigen Datenreihen erst mit Verzögerung, so ein Ergebnis der Untersuchung unter Leitung der Universität Oldenburg, die jetzt in der Zeitschrift Nature Ecology & Evolution erschienen ist.

Scheinbar gesunde Ökosysteme mit konstanter oder sogar steigender Artenzahl können bereits auf dem Weg in einen schlechteren Zustand mit weniger Arten sein. Selbst in langjährigen Datenreihen können sich solche Umbrüche erst mit Verzögerung zeigen. Grund dafür sind systematische Verzerrungen der zeitlichen Trends in der Artenzahl, wie eine aktuelle Studie zeigt, die jetzt in der Zeitschrift Nature Ecology & Evolution veröffentlicht wurde. „Unsere Resultate sind wichtig, um zu verstehen, dass die Artenzahl allein kein verlässliches Maß dafür ist, wie stabil das biologische Gleichgewicht in einem bestimmten Ökosystem auf lokaler Ebene ist“, sagt Dr. Lucie Kuczynski, Ökologin am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg und Hauptautorin der Untersuchung, in der sie und ihre Kollegen Beobachtungsdaten von Süßwasserfischen und Vögeln mit Simulationsrechnungen kombinierten.

Das Forschungsteam, zu dem neben Kuczynski auch Prof. Dr. Helmut Hillebrand vom ICBM und Dr. Vicente Ontiveros von der Universität von Girona in Spanien gehörten, war von den Ergebnissen überrascht: „Uns erfüllt mit Sorge, dass eine gleichbleibende oder sogar zunehmende Artenvielfalt nicht unbedingt bedeutet, dass in einem Ökosystem alles in Ordnung ist und die Artenzahl langfristig konstant bleibt“, erläutert Hillebrand. „Offenbar haben wir etwa bei Süßwasserfischen negative Trends bislang unterschätzt. Arten verschwinden auf lokaler Ebene schneller als wir dachten“, so Kuczynski.

Bislang war die Biodiversitätsforschung davon ausgegangen, dass die Artenzahl in einem Ökosystem langfristig gleich bleibt, wenn sich die Umweltbedingungen nicht verschlechtern oder verbessern. „Es handelt sich dabei um ein dynamisches Gleichgewicht zwischen Neuansiedlungen und lokalen Auslöschungen“, so Hauptautorin Kuczynski. Zunehmende oder abnehmende Artenzahlen werden als Reaktion auf verbesserte oder verschlechterte Umweltbedingungen interpretiert. Um herauszufinden, ob sich aus einer konstanten Artenzahl tatsächlich auf ein stabiles biologisches Gleichgewicht schließen lässt, analysierten Kuczynski und ihre Kollegen zunächst mehrere tausend Datensätze, in denen die Artenzahl von Süßwasserfischen in Europa und Brutvögeln in Nordamerika in verschiedenen Gegenden über viele Jahre – bei den Fischen im Durchschnitt 24, bei den Vögeln 37 Jahre – dokumentiert worden war. Die Forschenden wollten so ermitteln, welche Trends sich bei den einzelnen Lebensgemeinschaften zeigten. Anschließend verglichen sie die Beobachtungsdaten mit verschiedenen Simulationsmodellen, in denen sie unterschiedliche Annahmen für die Einwanderung und das Verschwinden von Arten trafen.

Das Team fand zunächst heraus, dass die Artenzahl sowohl bei den Fischen als auch bei den Vögeln in den Beobachtungszeiträumen generell anstieg. Ein Vergleich mit den Simulationen zeigte aber, dass dieser Anstieg geringer ausfiel als es eigentlich zu erwarten gewesen wäre. Diese Diskrepanz führten die Forschenden auf ein Ungleichgewicht zwischen Neubesiedlung und lokalem Aussterben zurück: „Tiere wie Süßwasserfische, die sich nur begrenzt ausbreiten können, besiedeln unserer Simulation zufolge ein Ökosystem schneller als in klassischen Modellen, während das Aussterben später eintritt als erwartet“, so Kuczynski. Dies führe dazu, dass nach einer Umweltveränderung in einem Ökosystem noch eine Zeitlang Arten zu finden sind, die eigentlich schon zum Aussterben verdammt sind, während gleichzeitig neue Spezies einwandern. Dieser Effekt verschleiere den drohenden Verlust an Biodiversität: „In Ökosystemen treten Übergangsphasen auf, in denen die Artenzahl höher ist als erwartet“, so die Umweltforscherin. Das Artensterben tritt erst nach diesen Übergangsphasen auf – und dann in der Regel schneller als erwartet.

Das Team geht davon aus, dass man nun neu darüber nachdenken muss, mit welchen Methoden sich Ökosysteme am besten überwachen lassen. Auch Naturschutzziele – die oft vor allem darin bestehen, die bestehende Artenvielfalt zu erhalten – müssten womöglich neu definiert werden. Das von Kuczynski und Kollegen entwickelte Modell könnte dabei als Werkzeug dienen, um verschiedene Mechanismen auseinanderzuhalten, die die Artenzahl beeinflussen. Es liefert zudem Informationen darüber, wie stark die Beobachtungsdaten von den zu erwartenden Veränderungen abweichen.

Wissenschaftliche Ansprechpartner:
Dr. Lucie Kuczynski, E-Mail: lucie.kuczynski@uol.de (nur Englisch)
Prof. Dr. Helmut Hillebrand, E-Mail: helmut.hillebrand@uol.de

Originalpublikation:
Lucie Kuczynski, Vicente J. Ontiveros, Helmut Hillebrand: „Biodiversity time series are biased towards increasing species richness in changing environments”, Nature Ecology & Evolution, doi.org/10.1038/s41559-023-02078-w

Weitere Informationen:
http://uol.de/icbm/planktologie

(nach oben)


Dortmunder FOM Studierende erfinden neuen Deckel für PET-Einwegflaschen

Nils Jewko Pressestelle
FOM Hochschule
Wer sich eine Getränkeflasche aus Plastik kauft, stellt häufig fest, dass der Deckel nach dem Öffnen mit der Flasche verbunden bleibt. Dahinter steckt eine EU-Vorgabe, die in Deutschland teilweise schon umgesetzt wird. Demnach dürfen PET-Einwegflaschen ab Juli 2024 nur noch mit so einem Verschluss verkauft werden. Eine solche Konstruktion haben nun auch drei Studierende der FOM Hochschule in Dortmund im Rahmen ihres Maschinenbau-Studiums gemeinsam mit einem Dozenten entwickelt. Der große Unterschied zu bereits im Handel erhältlichen Flaschen: Durch eine besondere Laschenverbindung soll der Deckel ausreichend Abstand zur Flaschenöffnung haben und somit nicht beim Trinken stören.

„Der Deckel ist simpel, effektiv und kostengünstig. Er soll sich vor allem für kleinere Firmen lohnen, die nicht über ausreichend Konstruktionsmöglichkeiten und Entwicklungsbudget verfügen. Darauf lag unser Hauptaugenmerk“ sagt FOM Student Marius Wachholz, der den Deckel gemeinsam mit seinen FOM Kommilitonen Simon Börgel und Jan Limpak sowie FOM Dozent Prof. Dr. Jochen Remmel entwickelt hat. Das Besondere an dem Deckel ist die wendelartige Laschenverbindung: Dadurch ist er fest mit dem Flaschenring verbunden – aber mit ausreichend Abstand zum Flaschenhals.

Idee kam während einer Vorlesung
Die Idee für den Deckel kam den FOM Studierenden während einer Konstruktionsvorlesung bei Prof. Remmel im Rahmen ihres Bachelor-Studiums in „Maschinenbau“ (mittlerweile „Maschinenbau & Digitale Technologien“). Der Ausgangspunkt: Eine bereits erhältliche PET-Einwegflasche mit einem Deckel nach der EU-Vorgabe, die einer der Studierenden dabei hatte. Sie ärgerten sich über die Konstruktionsweise, vor allem darüber, dass sie der Deckel beim Trinken stört. „Wir haben uns gedacht, dass es dafür eine bessere Lösung geben muss“, sagt Marius Wachholz. Die Studierenden fingen an zu tüfteln, verfolgten verschiedene Ansätze – bis sich am Ende die Idee mit der Laschenverbindung durchsetzte.

Erfindung als Gebrauchsmuster angemeldet
„Aus einer Idee, die im Hörsaal entstanden ist, ist eine praktische Lösung geworden. Das unterstreicht, dass an der FOM großen Wert auf den Theorie-Praxis-Transfer gelegt wird“, sagt Prof. Remmel, der die Erfindung gemeinsam mit den Studierenden beim Deutschen Patent- und Markenamt als Gebrauchsmuster angemeldet hat. Bislang wurde zwar noch kein Deckel produziert, aber die ersten Schritte sind bereits in Planung: „Wir wollen Kontakt mit Firmen aufnehmen, um unseren Deckel vorzustellen. Wir sehen in unserem Produkt eine einfache Lösung für ein vorhandenes Problem“, sagt Marius Wachholz.

Hintergrund
Die EU-Vorgabe
Dass der Deckel fest an der Flasche hängen bleibt, geht auf ein großes Maßnahmenpaket der EU zur Vermeidung von Plastikmüll zurück. Zwar gilt die Regel erst ab Juli 2024 für alle PET-Einwegflaschen bis zu drei Litern, sie wird aber teilweise schon umgesetzt. Durch die Konstruktion soll der Deckel gemeinsam mit der Flasche recycelt werden und nicht in der Umwelt landen. Andere Produkte wie Trinkhalme aus Plastik oder Einweg-Besteck sind in Deutschland bereits verboten.

(nach oben)


Unterschätzter Wärmespeicher

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Der Klimawandel hat viele Effekte – der bekannteste davon ist die globale Erwärmung. Die überschüssige Wärme wird zu 89 Prozent in den Ozeanen gespeichert, der Rest von Eis und Gletschern, der Atmosphäre und von Landmassen. Ein internationales Forschungsteam unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) hat nun die gespeicherte Wärmemenge an Land (inklusive der Binnengewässer) untersucht und deren Verteilung aufgezeigt. Die im Fachjournal Earth System Dynamics veröffentlichten Berechnungen zeigen, dass dort im Jahr 2020 mehr als das 20-fache im Vergleich zu 1960 gespeichert wurde, wobei der stärkste Anstieg unter der Erde stattfand.

Die Zunahme der menschgemachten Treibhausgase in der Atmosphäre verhindert, dass Wärme ins All abgegeben wird. Folglich nimmt die Erde stetig mehr Sonnenstrahlung auf, als sie durch Wärmestrahlung abgeben kann. Diese zusätzliche Energie, das zeigen frühere Studien, wird gespeichert: vor allem in den Ozeanen (89 Prozent), aber auch in den Landmassen der Kontinente (5-6 Prozent), in Eis und Gletschern (4 Prozent) und in der Atmosphäre (1-2 Prozent). Noch hat dieses Wissen aber Lücken: Unklar war bislang etwa, wie sich diese zusätzliche Wärmemenge in den kontinentalen Landmassen genau verteilt.

Dem Forschungsteam unter Leitung des UFZ und mit Beteiligung von Wissenschaftler:innen des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), der Vrije Universiteit Brussel und anderer Forschungszentren gelang es, genauer zu quantifizieren, wie viel Wärme zwischen 1960 und 2020 in den kontinentalen Landmassen gespeichert wurde. Das Ergebnis: Insgesamt wurden dort zwischen 1960 und 2020 23,8 x 1021 Joule Wärme aufgenommen. Zum Vergleich: Das entspricht in etwa dem 1.800-fachen Stromverbrauch Deutschlands in der gleichen Zeit. Mit einem Anteil von rund 90 Prozent wird die meiste Wärme bis zu 300 Metern tief in der Erde gespeichert; 9 Prozent der Energie sorgen für das Auftauen von Permafrostböden in der Arktis, 0,7 Prozent werden in Binnengewässern wie beispielsweise Seen und Stauseen gespeichert. „Obwohl die Binnengewässer und Permafrostböden weniger Wärme speichern als die Böden, müssen sie dauerhaft beobachtet werden, denn die zusätzliche Energie sorgt für bedeutsame Veränderungen der Ökosysteme“, sagt der UFZ-Forscher Francisco José Cuesta-Valero, Erstautor der Studie.

Nachweisen konnten die Wissenschaftler:innen auch, dass sich die gespeicherte Wärmemenge unter der Erde, in Permafrostböden und in Seen seit den 1960er Jahren kontinuierlich erhöht hat. So nahm sie im Boden im Vergleich der beiden Dekaden 1960-1970 und 2010-2020 fast um das 20-fache von 1,007 auf 18,83 x 1021 Joule zu, in den Permafrostregionen von 0,058 auf 2,0 x 1021 Joule und in Binnengewässern von -0,02 auf 0,17 x 1021 Joule. Die Forschenden hatten für die Berechnung der Wärmemengen in bis zu 300 Meter Tiefe weltweit mehr als 1.000 Temperaturprofile genutzt. Für die Schätzung der Wärmespeicherung in Permafrostböden und in den Binnengewässern setzten sie auf Modelle. Für die Modellierung der Gewässer kombinierten sie beispielsweise globale Seenmodelle, hydrologische Modelle und Erdsystemmodelle. Um die Wärmespeicherung in Permafrostböden abzuschätzen, nutzten sie ein Permafrostmodell, das verschiedene plausible Verteilungen des Bodeneises in der Arktis berücksichtigt. „Die Verwendung von Modellen ermöglichte es, den Mangel an Beobachtungen in vielen Seen und in der Arktis auszugleichen und die Unsicherheiten aufgrund der begrenzten Anzahl von Beobachtungen besser einzuschätzen“, erklärt Francisco José Cuesta-Valero.

Die Quantifizierung der thermischen Energie ist wichtig, weil mit ihrer Zunahme Prozesse einhergehen, die Ökosysteme verändern können und somit Folgen für die Gesellschaft haben. Dies gilt zum Beispiel für die dauerhaft gefrorenen Böden in der Arktis. „In Permafrostböden mag die Wärmemenge zwar nur neun Prozent der kontinentalen Wärmespeicherung ausmachen, der Anstieg in den letzten Jahren verstärkt aber durch das Auftauen des Permafrostes die Freisetzung von Treibhausgasen wie Kohlendioxid und Methan“, sagt Francisco José Cuesta-Valero. Nimmt die gespeicherte Wärmeenergie im Boden zu, erwärmt sich die Erdoberfläche und gefährdet damit beispielsweise die Stabilität des Kohlenstoffpools im Boden. Auf landwirtschaftlichen Flächen könnte das die Ernten und damit die Ernährungssicherheit der Bevölkerung gefährden. In Binnengewässern könnte sich der veränderte thermische Zustand auf die Dynamik der Ökosysteme auswirken: Die Wasserqualität verschlechtert sich, der Kohlenstoffkreislauf gerät durcheinander; es kommt vermehrt zu Algenblüten, was wiederum die Sauerstoffkonzentration und die Primärproduktivität verändert und sich damit auf den Fischfang auswirken könnte.

Co-Autor Prof. Dr. Jian Peng, Leiter des UFZ-Departments Remote Sensing, bilanziert deshalb: „Es ist wichtig, die von den kontinentalen Landmassen absorbierte zusätzliche Wärmemenge genauer zu quantifizieren und zu überwachen. Denn dies ist ein wichtiger Indikator, um zu verstehen, wie sich aufgrund der Wärmespeicherung die Veränderungen der natürlichen Prozesse künftig auf die Natur und den Menschen auswirken werden“.

Wissenschaftliche Ansprechpartner:
Francisco José Cuesta-Valero
UFZ-Department Remote Sensing
francisco-jose.cuesta-valero@ufz.de

Prof. Dr. Jian Peng
Leiter UFZ-Department Remote Sensing
jian.peng@ufz.de

Originalpublikation:
Francisco José Cuesta-Valero, Hugo Beltrami, Almudena García-García, Gerhard Krinner,
Moritz Langer, Andrew H. MacDougall, Jan Nitzbon, Jian Peng, Karina von Schuckmann, Sonia I. Seneviratne, Wim Thiery, Inne Vanderkelen, and Tonghua Wu. Continental Heat Storage: Contributions from the Ground, Inland Waters, and Permafrost Thawing. Earth System Dynamics. https://doi.org/10.5194/esd-14-609-2023

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=20/2023

(nach oben)


Vor allem bei Übergewicht: Fachleute warnen vor verstecktem Muskelschwund

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Proteine & Kraftsport könnten helfen, wenn adipöse Patient:innen an Muskelschwund litten. Doch meist werde die Krankheit nicht erkannt, so Prof. Dr. Bischoff von der Uni Hohenheim

Es sei ein bislang kaum beachtetes Krankheitsbild, und es beträfe vor allem Menschen mit starkem Übergewicht, der sog. Adipositas: Aufgrund von Bewegungsmangel könne es bei dieser Bevölkerungsgruppe zu einem schleichenden Muskelschwund kommen, der unter dem Fettmantel verborgen und damit unentdeckt bleibe. Prof. Dr. med. Stephan Bischoff von der Universität Hohenheim in Stuttgart gehört zu einem internationalen Experten-Panel, das das neue Krankheitsbild der sogenannten „sarkopenen Adipositas“ definierte und Kriterien zur Diagnose erarbeitete. Ihre Ergebnisse veröffentlichten die Fachleute in den Zeitschriften „Clinical Nutrition“ und „Obesity Facts“ (https://doi.org/10.1159/000521241). Im nächsten Schritt gelte es nun, geeignete Therapien zu entwickeln.

Muskelschwund aufgrund von Bewegungsmangel sei eine Krankheit, die bislang vor allem bei betagten Menschen, bei chronisch Kranken und als Folge längerer Phasen der Unbeweglichkeit beobachtet werde. Beispiele für solche chronischen Krankheiten könnten Krebs, Herzinsuffizienz oder Diabetes sein. Längere Unbeweglichkeit könne z.B. durch langes Tragen eines Gipsverbandes oder längere Bettlägerigkeit verursacht werden.

Neu sei allerdings die Erkenntnis, dass auch junge Menschen an Muskelschwund leiden können, wenn sie entsprechendes Körpergewicht auf die Waage brächten, erklärt Ernährungsmediziner Prof. Dr. med. Bischoff. „Mit zunehmendem Übergewicht steigt erst einmal die Muskelmasse, um die Gewichtszunahme auszugleichen. Danach erreicht die Muskelmasse jedoch oft einen Kipp-Punkt, ab dem sie aufgrund von Bewegungsmangel wieder abnimmt.“

Mit abnehmender Muskelmasse steigt die Gefahr von Erkrankungen

Das gefährliche daran: bei stark bis krankhaft übergewichtigen Menschen verberge die Decke aus Körperfett den gefährlichen Muskelverlust.

Die Folgen seien nicht zu unterschätzen, warnt Prof. Dr. Bischoff: „Patientinnen und Patienten mit Muskelschwund sind deutlich anfälliger für Krankheiten. Auch die Lebenserwartung sinkt“, so der Ernährungsmediziner.

Diesen Zusammenhang hätten zum Beispiel auch die Erkrankungswellen während der Covid-Pandemie illustriert: „Da sich Muskelschwund bei adipösen Menschen auch auf die Atemmuskulatur auswirkt, hatten diese aufgrund der verringerten Atemleistung deutlich schwerere Verläufe.“

Ein Viertel der Bevölkerung potentiell betroffen

In Deutschland seien Übergewicht und Adipositas leider kein Randgruppenphänomen: Rund die Hälfte der Bevölkerung in Deutschland sei inzwischen übergewichtig. Bei einem Viertel der Gesamtbevölkerung sei das Übergewichts so stark ausgeprägt, dass sie unter dem Namen Adipositas als Krankheit eingestuft werde, so Prof. Dr. Bischoff (s. Hintergrund).

Zuerst sei der Zusammenhang zwischen Adipositas und Muskelschwund durch eine Häufung von Einzelbeobachtungen aufgefallen. Um den Verdacht zu erhärten, entschlossen sich zwei Fachgesellschaften – die European Society for Clinical Nutrition and Metabolism (ESPEN) und die European Association for the Study of Obesity (EASO) – das Thema mit einer eigens einberufenen Expertenrunde zu klären.

In ihrem Auftrag führten Prof. Dr. med. Bischoff und über 30 Kolleg:innen die Expertise aus 16 Ländern Europas und aus Übersee zusammen. In einem 4-stufigen sogenannten Konsensus-Gespräch erarbeiteten die Fachleute aus verschiedenen Disziplinen eine klinische Definition und Diagnoseverfahren. Koordiniert wurde das Panel von Prof. Dr. Lorenzo Donini von der italienischen Universität Sapienza in Rom.

Konsenspapier empfiehlt Methodenmix zur Diagnose

Um die sogenannte „sarkopene Adipositas“ zu diagnostizieren, empfehlen sie einen Methodenmix. Dabei werden sowohl die Anteile von Fett- und Muskelmasse im Körper bestimmt als auch die Muskelfunktion gemessen.

Um die Körperzusammensetzung zu bestimmen, biete sich z.B. die Bioimpedanzanalyse an: Das Analysegerät leite einen schwachen Strom durch den Körper der Patient:innen. Aus dem elektrischen Widerstand lasse sich dann die Körperzusammensetzung berechnen. Alternativ könnten auch Messungen aus der Magnetresonanztomographie („MRT-Röhre“) verwendet werden.

Um die Muskelfunktion zu testen, gäbe es eine Reihe standardisierter Tests. Dabei werde z.B. gestoppt, wie oft Patient:innen in einer Minute aufstehen und sich wieder hinsetzen könnten oder welche Gehstrecke sie in 6 Minuten zurücklegten.

„Von der sarkopenen Adipositas sprechen wir dann, wenn sowohl der Anteil von Muskelmasse zu niedrig als auch die Muskelfunktion bereits beeinträchtigt ist“, erklärt Prof. Dr. med. Bischoff. Bei der endgültigen Diagnose würden dann noch Details wie Alter, Geschlecht oder auch die ethnische Zugehörigkeit berücksichtigt.

Proteinreiche Kost als Hoffnungsträger bei den Therapieformen

Wie die sarkopene Adipositas behandelt werden könne, sei derzeit noch Gegenstand der Forschung, betont der Ernährungsmediziner der Universität Hohenheim. Erste Ergebnisse zeichneten sich jedoch bereits ab.

„Aus der Adipositas kennen wir bereits einige Programme zur Gewichts-Reduzierung. Eines davon wenden wir seit rund 20 Jahren erfolgreich an der Universität Hohenheim an. Nun müssen wir noch mehr darauf achten, dass die Muskelmasse bei der Gewichtsabnahme möglichst unangetastet bleibt bzw. wieder aufgebaut wird. Am aussichtsreichsten dafür scheint die Kombination aus Krafttraining und proteinreicher Ernährung.“

Die proteinreiche Ernährung will Prof. Dr. Bischoff schon seit Jahrzehnten empfohlen und auch in eigener Praxis angewendet haben: „Bislang empfahlen wir die proteinreiche Kost vor allem deshalb, weil sie schnell den Hunger stillt und dadurch den Abnehm-Erfolgt erhöht.“

Anpassungsbedarf gäbe es voraussichtlich bei der Bewegungstherapie: „Wichtiger als Ausdauertraining scheint es, Gewichte zu stemmen – so wie es Bodybuilder und Gewichtheberinnen tun.“

Chirurgische Maßnahmen benötigen intensivere Nachsorge

Noch weitreichender seien die Folgen der neuen Erkenntnisse für chirurgische Maßnahmen gegen krankhaftes Übergewicht, bei denen der Magen verkleinert oder der Darm verkürzt werde.

„In solchen Fällen brauchen wir eine viel intensivere Nachsorge“, erklärt Prof. Dr. med. Bischoff. Denn gerade weil Proteine stark sättigten, sei es für Patient:innen mit verkleinertem Magen sehr schwierig, ausreichende Mengen zu sich zu nehmen. „Da stellt sich sehr schnell ein Völlegefühl oder Übelkeit ein.“

Auch das nötige Bewegungstraining erweise sich als komplex. „In einer ersten Studie zusammen mit dem Universitätsklinikum Tübingen hatten wir versucht, die Betroffenen zum Training in Eigenregie zu ermutigen.“, berichtet Prof. Dr. Bischoff. Dazu hätten die Patient:innen eine Wii-Konsole und entsprechende Trainingsprogramme erhalten.

Der Erfolg sei bei diesem Ansatz jedoch überschaubar geblieben. „Es zeigt sich, dass Betroffene gerade nach einer chirurgischen Behandlung noch viel mehr aktive Betreuung benötigen“, so das Zwischenfazit des Ernährungsmediziners.

HINTERGRUND Übergewicht vs. Adipositas
Übergewicht bezieht sich auf ein Körpergewicht, das über dem gesunden Bereich liegt. Adipositas hingegen ist eine ernstere Erkrankung, bei der überschüssiges Körperfett zu Gesundheitsproblemen führen kann. Bei der Unterscheidung hilft der sogenannte Body-Mass-Index (BMI), bei der das Gewicht eines Menschen durch das Quadrat seiner Körpergröße geteilt wird. Adipositas wird in der Regel durch einen BMI von 30 oder höher definiert, während Übergewicht durch einen BMI von 25 bis 29,9 definiert ist. Adipositas kann das Risiko für Herzerkrankungen, Diabetes, Schlaganfälle und andere gesundheitliche Probleme erhöhen.

HINTERGRUND: Bioimpedanzanalyse
Die Bioimpedanzanalyse gibt Aufschluss, wie viel Wasser und wie viel Masse sich im Körper eines Lebewesens befinden. Sie fußt darauf, dass Wasser den Strom wesentlich besser leitet als feste Masse. Bei der Bioimpedanzanalyse wird eine Elektrode an der Hand und eine am Fuß angebracht, so dass der Strom quer durch den Körperstamm fließt. Aus dem elektrischen Widerstand lässt sich der Anteil des Wassers berechnen. Da Muskeln mehr Wasser enthalten als Fett, lässt sich weiterhin auch das Verhältnis von Muskelmasse zu Fettgewebe bestimmen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Stephan C. Bischoff, Universität Hohenheim, Institut für Ernährungsmedizin,
T +49 (0)711 459-24100, E bischoff.stephan@uni-hohenheim.de

Originalpublikation:
Publikation Definition and Diagnostic Criteria for Sarcopenic Obesity: ESPEN and EASO Consensus Statement: https://doi.org/10.1159/000521241

Weitere Informationen:
https://www.uni-hohenheim.de/expertenliste-proteine
https://www.uni-hohenheim.de/presse

(nach oben)


Mit Schrott mehr Umweltschutz

Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
DBU fördert neue Technik – Erste kommerzielle Anlage startet

Osnabrück/Berlin. Wenn östlich von Berlin das Entsorgungs- und Recyclingunternehmen Alba an seinem Standort Hoppegarten eine Aluminium-Sortieranlage in Betrieb nimmt, beginnt für das Metall-Recycling von Sekundärrohstoffen eine neue zirkuläre Zeitrechnung. Denn es ist die erste kommerzielle Anwendung einer laserbasierten Sortier-Technik, für deren Entwicklung die Deutsche Bundesstiftung Umwelt (DBU) mit Projekt- und Prototyp-Förderung in Höhe von mehr als einer Million Euro sowie drei mittelständische Unternehmen mit technischer Finesse und Ingenieurkunst den Weg geebnet haben. DBU-Generalsekretär Alexander Bonde: „Das ist bahnbrechendes Hightech. Aus Schrott wird Umweltschutz.“

Ein Win-Win für Wirtschaft und Umwelt
Der Metall-Müll ist nach Bondes Worten „keineswegs nutzloser Abfall, sondern tatsächlich kostbarer Rohstoff, der wieder zu hochwertigen Legierungen einzuschmelzen ist“. Das sei ein Win-Win für Wirtschaft und Umwelt. „Die wegweisenden Ideen der beteiligten mittelständischen Unternehmen senken nicht nur die Energiekosten, sondern sorgen für mehr Umwelt- und Klimaschutz, weil weniger Rohstoffe der Erde entnommen werden müssen“, fügt Bonde hinzu. Er spricht von einem „riesigen Impuls für die Kreislaufwirtschaft“. Dass nun eine Aluminium-Sortieranlage Marktreife erlangt hat, ist einer mehrjährigen Entwicklung und Forschung zu verdanken – maßgeblich durch Kooperation der beiden NRW-Firmen Clean-Lasersysteme GmbH und cleansort GmbH sowie der OSR GmbH & Co.KG aus Baden-Württemberg. Clean-Lasersysteme feilte an der geeigneten Messtechnik, cleansort tüftelte am Anlagenbau, und die auf Schrotthandel und Aufbereitung von Rohstoffen spezialisierte OSR war schließlich der entscheidende Schlüssel, um den Prototyp einer Anlage in Rosengarten (Ostwürttemberg) in Betrieb zu nehmen. Die Deutsche Bundesstiftung Umwelt hat die Hightech-Vorhaben fachlich und finanziell gefördert.

Bestimmte Hochleistungswerkstoffe benötigen exakte Legierungsanteile
„Die angewandte Technologie ist von höchster Präzision geprägt“, sagt DBU-Referatsleiter Dr. Michael Schwake. Kombiniert werden dabei zwei Verfahren mit dem Ziel, die Legierung der Schrottteile genau zu bestimmen. In der Metallurgie handelt es sich bei Legierungen um homogene metallische Werkstoffe, die aus mehreren chemischen Elementen bestehen, wovon mindestens eines ein Metall ist. Schwake: „Für verschiedene Sektoren wie die Automobilindustrie sind Legierungsbestandteile von größter Bedeutung. Hochleistungswerkstoffe wie Karosseriebleche oder Achsträger benötigen exakte Legierungsanteile.“

Bonde: Das könnte den Schrottmarkt revolutionieren
Genau das gewährleistet die Hoppegarten-Anlage, die anfangs aufgrund der zu erwartenden positiven Nachhaltigkeits- und Kosteneffekte Aluminiumschrott sortiert, grundsätzlich aber alle metallischen Werkstoffe für die spätere Weiternutzung trennen kann. In einem ersten Schritt werden die etwa handtellergroßen Schrottstücke wie zum Beispiel ausgestanzte Bleche auf einem Fließband transportiert. Kameras inspizieren jedes einzelne Teil und identifizieren mehrere Prüfpunkte. Dann kommen die Hightech-Laser an diesen Prüfpunkten zum Einsatz: zunächst zum Reinigen der Oberfläche von Dreck und Deckschichten bis aufs Grundmetall – anschließend mit punktuellen Laserpulsen direkt auf das Schrottteil. Blitzschnell. Die Folge: Das Material verdampft, aus den Lichtemissionen der Metallatome wird die chemische Zusammensetzung ermittelt. Eine Ausblas-Einheit am Ende des Prozesses sorgt mittels Luftdrucks für die Trennung der Schrottstücke. Durch eine solche laserbasierte Sortier-Technik – im Fachjargon spricht man von laserinduzierter Plasmaspektroskopie LIBS (Laser Induced Breakdown Spectroscopy) – kann künftig der Schrott entsprechend seiner Legierungsanteile zielgenau zur Schmelze gebracht werden. DBU-Generalsekretär Bonde: „Diese hochkomplexe Technologie ist eine herausragende Entwicklung und könnte den Schrottmarkt revolutionieren.“

Bedarf an Aluminiumschrott in der EU könnte in den nächsten Jahrzehnten auf neun Millionen Tonnen steigen
Vor allem ermöglicht die LIBS-Technologie, die Menge der verwendeten Sekundärrohstoffe als Recyclingmaterial für die Produktion von Hochleistungswerkstoffen beträchtlich zu steigern. Derzeit liegt deren Anteil in der Metallproduktion in Deutschland bei 43 Prozent des Kupfers, 69 Prozent des Bleis, 60 Prozent des Aluminiums und 44 Prozent des Rohstahls. Für die hierzulande jährlich erzeugten rund 50 Millionen Tonnen Stahl werden etwa 22 Millionen Tonnen Sekundärrohstoffe sowie zusätzlich drei Millionen Tonnen Legierungsmetalle eingesetzt. Wie dringend neue Technologien bei der Schrottverwertung sind, macht der Verband Deutscher Metallhändler und Recycler (VDM) klar. Laut VDM steigt in der EU in den nächsten Jahrzehnten der Bedarf an Aluminiumschrott auf rund neun Millionen Tonnen – mit hervorragender Perspektive: Der Einsatz von Aluminiumschrott spart 95 Prozent der Energie im Vergleich zum Energieverbrauch bei der Primärproduktion, so der VDM. Und: Laut cleansort-Kalkulation können durch eine Anlage wie in Hoppegarten jedes Jahr in einem Zwei-Schicht-Betrieb auf Basis deutscher Strompreise rund sechs Millionen Euro Kosten eingespart werden – und fast 18.000 Tonnen klimaschädliches Kohlenstoffdioxid.

Weitere Informationen:
https://www.dbu.de/news/mit-schrott-mehr-umweltschutz/ Online-Pressemitteilung

(nach oben)


Bessere Suche nach Ursache für Erbkrankheiten

Julia Rinner Corporate Communications Center
Technische Universität München
Bei rund der Hälfte aller seltenen Erberkrankungen kann deren Ursache bislang nicht geklärt werden. Ein Münchner Forschungsteam hat einen Algorithmus entwickelt, der die Auswirkungen von genetischen Mutationen auf die Bildung der RNA um das Sechsfache genauer vorhersagt als bisherige Modelle. Dadurch werden die genetischen Ursachen von seltenen Erberkrankungen und Krebs häufiger erkannt.

Genetische Variationen treten relativ häufig auf – durchschnittlich ist jede tausendste Stelle des DNA-Strangs eines Menschen betroffen. In seltenen Fällen können diese Veränderungen dazu führen, dass die RNA und die daraus gebildeten Proteine fehlerhaft sind. Dadurch können beispielsweise Fehlfunktionen in einzelnen Organen auftreten. Bei Verdacht auf eine seltene Erkrankung helfen mittlerweile oft computergestützte Diagnoseprogramme bei der Suche nach möglichen genetischen Ursachen weiter. Dazu wird das Genom mithilfe von Algorithmen analysiert, um herauszufinden, ob Variationen auf den Genen und Fehlfunktionen in bestimmten Teilen des Körpers zusammenhängen.

Interdisziplinäres Forschungsprojekt
Unter der Leitung von Julien Gagneur, Professor für Computational Molecular Medicine an der TUM und Forschungsgruppenleiter Computational Molecular Medicine bei Helmholtz Munich, hat ein interdisziplinäres Team aus den Bereichen Informatik und Medizin ein neues Modell entwickelt, das im Vergleich zu seinen Vorgängern deutlich besser vorhersagt, welche Variationen auf der DNA zu fehlerhaft gebildeten RNA-Strängen führen.

„Mit den bereits etablierten Methoden der DNA-Analyse kann bei ungefähr der Hälfte unserer Patienten eine sichere Diagnose gestellt werden“, sagt Dr. Holger Prokisch, Mitautor der Studie sowie Gruppenleiter am Institut für Humangenetik der TUM und bei Helmholtz Munich, „Bei den übrigen benötigen wir unbedingt Modelle, die eine Vorhersage verbessern. Unser neu entwickelter Algorithmus kann hierbei einen wichtigen Beitrag leisten.“

Fokus des Modells liegt auf dem Splicing
In ihrer Studie haben die Forschenden Variationen betrachtet, die den Umwandlungsprozess von DNA in RNA und schließlich die Bildung von Proteinen in spezifischen Geweben beeinflussen. Der Fokus lag dabei auf dem Splicing – einem Vorgang in den Zellen, bei dem die RNA so zugeschnitten wird, dass später die Bauanleitung für das Protein abgelesen werden kann. Liegen Variationen auf der DNA vor, kann dieser Prozess gestört werden und dazu führen, dass entweder zu viel oder zu wenig aus den RNA-Strängen herausgeschnitten wird. Fehler im Splicing-Prozess gelten als eine der häufigsten Ursachen für die Fehlbildung von Proteinen und Erberkrankungen.

Deutlich höhere Genauigkeit als vorherige Studien
Um Aussagen über mögliche Zusammenhänge zwischen der Variation einzelner Gene und Fehlfunktionen in bestimmten Geweben treffen zu können, hat das Team auf einen bereits bestehenden Datensatz zurückgegriffen. Dieser enthält DNA- und RNA-Proben aus 49 Geweben von insgesamt 946 Individuen.

Im Vergleich zu vorherigen Studien betrachtete das Team jede Probe zunächst dahingehend, ob und inwiefern sich fehlerhaftes Splicing durch eine Variation auf der DNA überhaupt in bestimmten Geweben durch Fehlfunktionen äußert. So kann ein Protein relevant sein für spezielle Bereiche im Herzen, im Gehirn hingegen kommt es unter Umständen gar keiner Funktion nach.

„Hierfür erstellten wir eine gewebespezifische Splicing-Karte, in der wir quantifizierten, welche Stellen auf der RNA für das Splicing in einem bestimmten Gewebe wichtig sind. Durch unser Vorgehen konnten wir unser Modell auf die biologisch relevanten Kontexte reduzieren. Die von uns verwendeten Haut- und Blutproben ermöglichen uns aber auch Rückschlusse auf schwer zugängliches Gewebe, wie dem Gehirn oder dem Herzen zu ziehen“, so Nils Wagner, Erstautor der Studie und Doktorand am Lehrstuhl für Computational Molecular Medicine an der TUM.

Bei der Analyse wurde jedes Gen berücksichtigt, das mindestens eine seltene genetische Mutation trägt und gleichzeitig relevant für die Bildung von Proteinen ist. Neben den proteincodierenden Bereichen auf der RNA gibt es Abschnitte, die wichtig sind für andere Prozesse in unseren Zellen. Diese wurden in der Studie nicht betrachtet. Dadurch ergab sich eine Gesamtzahl von fast 9 Millionen untersuchten seltenen genetischen Muationen.

„Durch unser neu entwickeltes Modell konnten wir die Genauigkeit bei der Vorhersage von fehlerhaftem Splicing im Vergleich zu vorherigen Modellen um das Sechsfache steigern. Bei einer Erkennungsrate von 20 Prozent erreichen bisherige Algorithmen eine Genauigkeit von 10 Prozent. Unser Modell schafft bei gleicher Erkennungsrate eine Genauigkeit von 60 Prozent“, sagt Prof. Julien Gagneur.

Genauigkeit und Erkennungsrate sind wichtige Kennzahlen, um die Leistungsfähigkeit von Modellen vorherzusagen. Die Genauigkeit gibt dabei an, wie viele der Variationen, die vom Modell vorhergesagt wurden, tatsächlich zu fehlerhaftem Splicing führen. Die Erkennungsrate zeigt, wie viele der Variationen, von allen auf den dann vorhandenen Variationen, die zu fehlerhaftem Splicing führen, vom Modell gefunden werden konnten.

„Ein so großer Fortschritt bei der Genauigkeit ist uns gelungen, indem wir zum einen den Splicing-Prozess gewebespezifisch betrachtet und zum anderen direkte Splicing Messungen aus einfach zugänglichen Geweben wie Blut und Hautzellen benutzt haben, um Splicing-Fehler in nicht zugänglichen Geweben wie dem Herzen oder dem Gehirn vorherzusagen.“, so Prof. Julien Gagneur.

Praktischer Einsatz des Algorithmus
Das Modell wird im Rahmen des europäischen Forschungsprojekts „Solve – RD – solving the unsolved rare diseases“ eingesetzt. Die Initiative hat sich dabei zum Ziel gesetzt, durch einen breiten Austausch von Wissen die Diagnosemöglichkeiten seltener Erkrankungen zu verbessern. So hat das Team der TUM bereits 20.000 DNA-Sequenzen von insgesamt 6.000 betroffenen Familien analysiert.

Darüber hinaus soll es durch das Modell zukünftig möglich sein, Leukämie und ihre verschiedenen Formen leichter zu diagnostizieren. Hierfür untersuchen die Forschenden aktuell 4.200 DNA- und RNA-Proben von Leukämie-Erkrankten.

Weitere Informationen
Prof. Julien Gagneur kam 2016 als Assistant Professor an die TUM. 2020 übernahm er die Professur für Computational Molecular Medicine. Dabei erforscht er die genetischen Grundlagen der Genregulation und ihre Auswirkungen auf Krankheiten mithilfe statistischer Algorithmen und maschineller Lernverfahren. Gleichzeitig ist er Forschungsgruppenleiter bei Helmholtz Munich.

Zusammen mit Holger Prokisch, Gruppenleiter am Institut für Humangenetik der TUM und bei Helmholtz Munich, entwickelt Prof. Julien Gagneur darüber hinaus Strategien, um die Ursache genetischer Störungen zu identifizieren.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Julien Gagneur
Technische Universität München
Professur für Computational Molecular Medicine
Tel: +49 (89) 289-19411
julien.gagneur@tum.de

Dr. Holger Prokisch
Klinikum rechts der Isar der Technischen Universität München
Institut für Humangenetik
Tel: +49 89 3187-2890
holger.prokisch@tum.de

Originalpublikation:
Wagner, N., Çelik, M. H., Hölzlwimmer, F. R., Mertes, C., Prokisch, H., Yépez, V. A., & Gagneur, J. (2023). Aberrant splicing prediction across human tissues. Nature Genetics, 1-10.

Weitere Informationen:
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/bessere-s…

(nach oben)


Strände nutzen – nicht verschmutzen

Maike Nicolai Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
31.05.2023/Kiel. Aufgrund der Ausrichtung der Küstenlinie und vorherrschenden Richtungen von Wind und Strömungen gelangt nur wenig Müll vom Meer aus an Schleswig-Holsteins Ostseestrände. Vielmehr ist die Verschmutzung eine Folge der Strandnutzung. Die Belastung mit kleinsten Partikeln, dem Mikroplastik, ist dabei moderat, und es konnte kein direkter Zusammenhang zwischen der Menge Mikroplastik und der Verschmutzung mit Strandmüll festgestellt werden. Zu diesem Ergebnis kommen Wissenschaftler:innen des GEOMAR und der Kieler Forschungswerkstatt. Mit ihrer Veröffentlichung legten sie die erste systematische Untersuchung zu Müll im Mikro- und Makrospektrum in der Region vor.

– Gemeinsame Pressemitteilung der Christian-Albrechts-Universität zu Kiel (CAU), der Kieler Forschungswerkstatt, des Forschungsverbunds Future Ocean und des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel –

Müll an Schleswig-Holsteins Stränden ist Einheimischen wie Gästen ein Dorn im Auge. Eine Untersuchung im Rahmen des Forschungsverbunds Future Ocean an der Christian-Albrechts-Universität zu Kiel (CAU) zeigt: Der größte Teil des Mülls stammt direkt aus der Strandnutzung und wird nicht aus dem Meer an die Strände gespült. Damit ist diese Verschmutzung leicht vermeidbar. Interessanterweise fand sich kein eindeutiger Zusammenhang zwischen der Dichte an Mikroplastik im Sediment und der Menge an sichtbaren größeren Müll-Teilen. Für ihre Analyse untersuchten die Wissenschaftler:innen des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und der Kieler Forschungswerkstatt, einer gemeinsamen Einrichtung der CAU und des Leibniz-Instituts für die Pädagogik der Naturwissenschaften und Mathematik (IPN), im Frühjahr und im Herbst 2018 zehn Strände entlang der schleswig-holsteinischen Ostsee. Mit ihrer Veröffentlichung im Fachmagazin Marine Pollution Bulletin legten die Forschenden jetzt die erste kombinierte systematische Untersuchung zu Müll im Mikro- und Makrospektrum an Schleswig-Holsteins Ostseestränden vor.

„Mikroplastik und größerer Müll an Stränden sind ein bekanntes Problem – und wir können ganz einfach etwas dagegen unternehmen“, erklärt Dr. Mark Lenz. Der Meeresbiologe am GEOMAR ist Leiter der Untersuchung und Erst-Autor der Publikation. „Unsere Daten zeigen den Zusammenhang zwischen Strandnutzung und Verschmutzung überraschend deutlich: Im Herbst, zum Ende der Saison, sind die Strände doppelt so verschmutzt wie im Frühling. An Orten, in denen die Strände regelmäßig gereinigt wurden, war die Steigerung geringer als an denen ohne. Zudem waren im Herbst deutlich mehr Papier, Pappe und vor allem Zigarettenkippen zu finden als zu Beginn der Saison. Die schleswig-holsteinischen Strände wären also deutlich sauberer und die Küstenökosysteme gesünder, wenn alle ihren Müll am Ende eines Strandbesuches entsorgen.“

Die Auswertungen an den Stränden von Holnis, Falshöft, Boknis, Schwedeneck, Schönberg, Hohwacht, Flügge, Staberhuk, Kellenhusen und Travemünde folgten dem einheitlichen Protokoll zur Erfassung von Makro-Müll des Übereinkommens zum Schutz der Meeresumwelt des Nordost-Atlantiks (Oslo-Paris Konvention, OSPAR): Drei Personen sammelten systematisch alle Müll-Teile größer als 2,5 Zentimeter entlang einer 100 Meter langen Strecke parallel zum Flutsaum auf und ordneten diese einer vorgegebenen Kategorie zu. Nach dem Trocknen wurde das Gesamtgewicht der Funde erfasst. Zusätzlich entnahmen die Forschenden Sediment-Proben, extrahierten die darin enthaltenen Mikroplastik-Partikel und analysierten den Kunststoff-Typ.

„Im Frühling fanden wir zwischen 38 Müll-Teilen in Holnis und 241 in Travemünde. Gut 40 Prozent bestand aus Plastik, fast 35 Prozent aus Papier, Pappe und Zigarettenkippen und 15 Prozent Glas. Im Herbst lag die Bandbreite zwischen 27 Teilen in Holnis und 713 in Schönberg. Papier, Pappe und Zigarettenkippen machten dann mehr als 60 Prozent aus, gut ein Viertel war Plastik und nur 4 Prozent Glas“, fasst Dr. Lenz zusammen.

Insgesamt ließ sich keine Korrelation zwischen der Menge des Makro-Mülls und des Mikroplastiks feststellen. Deutlich wurde aber auch: Unsere Strände sind nicht frei von Mikroplastik. Die kleinen Partikel fanden sich in fast allen Sedimentproben in Mengen zwischen 2 und 28 Partikeln pro Kilogramm Sand. Auch wenn diese Dichten im Vergleich zu anderen Standorten noch moderat sind, bedeutet dies trotzdem, dass sich an jedem unserer Strände wahrscheinlich Millionen der künstlichen Mikropartikel befinden. Diese werden in der Natur nicht abgebaut und können sich daher im Laufe der Zeit anreichern. Ob die Menge an Mikroplastik in Zukunft noch weiter zunimmt, könnten weitere Studien zeigen, die auf der nun vorgelegten Untersuchung aufbauen. Die Auswirkungen des Mikroplastiks auf die Umwelt sind noch nicht abschließend untersucht, aber es ist bekannt, dass Hunderte von Tierarten es mit ihrer Nahrung aufnehmen.

Ein Vergleich mit anderen Orten rund um die Ostsee zeigte, dass die Müllmengen denen in Mecklenburg-Vorpommern im Durchschnitt ähnelten. Strände in Litauen und Polen waren deutlich stärker verschmutzt, Strände in Dänemark ungefähr so sauber wie die weniger frequentierten schleswig-holsteinischen. Die geringe Dominanz an angeschwemmtem Plastikmüll in Schleswig-Holstein führen die Forschenden auf die Ausrichtung der Küstenlinie und die vorherrschende Richtung von Wind und Strömungen zurück.

GEOMAR und die Kieler Forschungswerkstatt bieten Informationen und wissenschaftliche Programme für Schüler:innen und Lehrer:innen zu Strandmüll und Mikroplastik an. „In der Kieler Forschungswerkstatt untersuchen wir bereits seit mehr als zehn Jahren die Strände rund um die Kieler Förde. Die Müllmengen dabei sind trotz Strandreinigung hoch. Jetzt haben wir zum ersten Mal Daten für die gesamte schleswig-holsteinische Ostseeküste, auf denen wir aufbauen können – eine gute Basis für zukünftige Untersuchungen“, sagt der Meeresbiologe Dr. Dennis Brennecke, der für die Kieler Forschungswerkstatt die Probennahme mit durchgeführt hatte. Seit der Untersuchung an den Ostsee-Stränden haben die Tourismus-Orte bereits viele Maßnahmen umgesetzt, um die Müllmengen zu reduzieren. „Klar ist, wir müssen das Bewusstsein in der Gesellschaft weiter stärken. In der Forschungswerkstatt beginnen wir damit schon bei den Grundschülerinnen und Grundschülern“, so Brennecke.

Projekt-Förderung:
Die Untersuchung wurde im Rahmen des Exzellenzclusters „Future Ocean“ sowie über die Projekte „Defining the baselines and standards for microplastics analysis in European waters (BASEMAN)“ und „Horizontal and vertical oceanic distribution, transport, and impact of microplastics (HOTMIC)“ der Joint Programming Initiative Healthy and Productive Seas and Oceans (JPI Oceans) gefördert.

Originalpublikation:
Lenz, M., Brennecke, D., Haeckel, M., Knickmeier, K., Kossel, E. (2023): Spatio-temporal variability in the abundance and composition of beach litter and microplastics along the Baltic Sea coast of Schleswig-Holstein, Germany. Marine Pollution Bulletin, doi: https://doi.org/10.1016/j.marpolbul.2023.114830

Weitere Informationen:
http://www.geomar.de/n8971 Bildmaterial zum Download
https://www.forschungs-werkstatt.de/aktuelles/plastikmuell-im-schulunterrichtsth… Kieler Forschungswerkstatt: Plastikmüll im Schulunterricht
https://ozeanwissen.futureocean.org/topics/plastic.html Ozeanwissen zu Plastik und seinen Folgen
https://www.geomar.de/entdecken/plastikmuell-im-meer GEOMAR Entdecken: Plastikmüll im Meer

(nach oben)


Windenergie: Neues Meerwasserlabor der BAM ermöglicht Korrosionsuntersuchungen unter Realbedingungen

Oliver Perzborn Referat Kommunikation, Marketing
Bundesanstalt für Materialforschung und -prüfung (BAM)
Berlin, 30.05.2023. Die Bundesanstalt für Materialforschung und -prüfung (BAM) hat in Zusammenarbeit mit dem Wasserstraßen- und Schifffahrtsamt Elbe-Nordsee am Eidersperrwerk ein innovatives Meerwasserlabor errichtet. Die Anlage bietet die Möglichkeit, Korrosionsschutzmaßnahmen an Offshore-Gründungsstrukturen unter realen Bedingungen zu untersuchen. So lassen sich tatsächliche Korrosionsraten von Materialien ermitteln, Schutzmaßnahmen zielgerichtet auslegen und die geplanten Nutzungsdauer von Anlagen sicher erreichen.

Das eigens für diesen Zweck konzipierte Meerwasserlabor besteht aus zwei Containern, die eine Laborfläche von insgesamt ca. 50 m² bieten. An dem Standort am Eidersperrwerk können nicht nur Korrosionsuntersuchungen in Meerwasser und Sediment durchgeführt werden, sondern auch Untersuchungen zur Bewertung der Korrosivität der Atmosphäre. Das neue Labor ergänzt die bisherigen maritimen Auslagerungsstandorte der BAM auf Helgoland, Sylt und in Cuxhaven.
Ein zentraler Fokus der Untersuchungen liegt auf dem Übergangsbereich von Meerwasser zu Sediment, der generell kritisch für den Korrosionsschutz von Offshore-Gründungsstrukturen ist, weil hier besonders heterogene Bedingungen herrschen und daher der Erfolg eines Schutzsystems bisher nicht genau prognostiziert werden kann. Aufgrund dieser Problematik soll die Wirksamkeit verschiedener Korrosionsschutzmaßnahmen im Rahmen elektrochemischer Untersuchungen nachgewiesen werden. Durch die Analyse von Proben, die nach festgelegten Prüfzeiten entnommen werden, können Erkenntnisse für eine optimierte Korrosionsbekämpfung gewonnen werden.

Darüber hinaus befasst sich das Labor mit der Wechselwirkung von maritimem Bewuchs im Unterwasserbereich und der Wirksamkeit von kathodischem Korrosionsschutz (KKS). Bei diesem Schutzverfahren wird eine externe Stromquelle verwendet, um durch eine negative Spannung auf dem Metall die korrosive Reaktion zu hemmen. Da diese Wechselwirkung mit künstlichem Meerwasser nicht realitätsgetreu dargestellt werden kann, wurde das Korrosionslabor mit einem speziell konzipierten Wasser-Kreislaufsystem ausgestattet.

Die BAM arbeitet außerdem an der Entwicklung von Exploration-Tools, mit denen sich die Korrosivität des Sediments am Meeresgrund exakt beschreiben lässt. Die Tools sollen es in Zukunft ermöglichen, hochkorrosive Bereiche für die Gründung von Offshore-Bauwerken gezielt zu vermeiden bzw. den Korrosionsschutz an die Umweltbedingungen anzupassen.
Grundsätzlich können durch die Untersuchungen im Meerwasserlabor die Nutzungsdauer von Offshore-Windkraftenergieanlagen mit Blick auf die Korrosionsbelastung der Gründungsstrukturen künftig genauer ermittelt werden. Dies erhöht die Planungssicherheit für die Betreiber von Offshore-Windparks und stärkt insgesamt den Beitrag der Windenergie zu den klimapolitischen Zielen Deutschlands.

Weitere Informationen:
https://www.bam.de/Navigation/DE/Themen/Energie/Windenergie/sichere-windkraftanl…

(nach oben)


Informationen schneller fließen lassen – mit Licht statt Strom

Axel Burchardt Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Entweder 1 oder 0. Entweder es fließt Strom oder eben nicht. In der Elektronik wird bisher alles über das Binärsystem gesteuert. Elektronen generieren so schon ziemlich schnell und gut Informationen, leiten diese weiter und übernehmen diverse Schaltfunktionen. Doch es geht noch schneller. Das haben Paul Herrmann und Sebastian Klimmer von der Universität Jena bewiesen. Die beiden Doktoranden haben dazu mit monokristallinen 2D-Materialien und Laserlicht experimentiert. Sie haben die bekannte physikalische Methode der Frequenzverdopplung von Licht mit einer besonderen Materialeigenschaft, der Valleypolarisation, kombiniert und dabei erstaunliche Ergebnisse erzielt

Nach ihrem Lieblingsspielzeug aus Kindertagen befragt, müssen Paul Herrmann und Sebastian Klimmer nicht lange überlegen. Einmütig antworten sie: der Lego-Baukasten. Das Beste daran sei gewesen, dass es so viele Kombinationsmöglichkeiten gab, erklären beide übereinstimmend. Ihre Begeisterung für Baukästen haben sich die jungen Physiker bis heute bewahrt – allerdings beschäftigen sie sich für ihre Promotion seit geraumer Zeit mit einem Baukasten von ganz anderem Format: mit sogenannten 2D-Materialien, die sie in atomare Schichten zerlegen, um sie dann mit „Valleytronik“ zu manipulieren.

Paul Herrmann und Sebastian Klimmer forschen dazu am Institut für Festkörperphysik der Jenaer Universität in der Arbeitsgruppe „Ultraschnelle optische Spektroskopie“ von Juniorprofessor Dr. Giancarlo Soavi. Deren Ziel ist es, neue Materialien und technische Möglichkeiten zu finden, die helfen, die Informationsverarbeitung und Weiterleitung mit moderner Elektronik um Größenordnungen schneller zu machen.

Dafür nutzen sie Licht als Werkzeug – ein großes Thema nicht nur der Physik an der Jenaer Universität – und den High-Tech-Baukasten der 2D-Materialien. „Diese Materialien, die aus nur einer Lage von Atomen bestehen, verfügen über herausragende optische Eigenschaften, die sie so interessant für die Forschung machen“, erklärt Paul Herrmann, der seit einem Jahr zur Arbeitsgruppe von Giancarlo Soavi gehört. „2004 gelang es den Nobelpreisträgern Geim und Novoselov erstmals, zweidimensionale Lagen aus Kohlenstoffatomen, das Graphen, herzustellen. Seitdem wurden von Wissenschaftlern auf der ganzen Welt viele weitere 2D-Materialien entdeckt“, ergänzt Sebastian Klimmer. „Theoretische Modelle sagen zudem voraus, dass es ungefähr 1.800 von ihnen geben soll. Das ist praktisch unser moderner Lego-Kasten, dessen Bausteine uns unendliche Kombinationsmöglichkeiten bieten.“

Mit Licht lokale Extrema abwechselnd manipulieren
Die beiden Jenaer Physiker haben sich aus diesem Baukasten das Wolframdiselenid ausgesucht, das zur Gruppe der Übergangsmetalldichalkogenide gehört. „Dieses spezielle Halbleitermaterial hat lokale Extrema in seiner elektronischen Bandstruktur, sogenannte Valleys, welche wir mit Licht manipulieren können“, erklärt Paul Herrmann die Wahl.

Mit diesen Materialien arbeiten die jungen Forscher im Labor erfolgreich. „Wir beschießen das Material mit einem zirkular polarisierten Laser. Das kann in zwei unterschiedlichen Richtungen geschehen, so dass wir damit bestimmen können, in welchem Valley wir Elektronen anregen“, erklärt Herrmann. „Dieses Phänomen der Valleypolarisation – also der Zustand, in dem ein Valley mehr angeregt wird als das andere – kann man wiederum ausnutzen, um darin Informationen zu codieren, zu manipulieren und wieder auszulesen“, führt Klimmer aus.

Gleichzeitig machen sich die Forscher den seit den 1960er Jahren bekannten Effekt der „Second-harmonic Generation“, also der Frequenzverdopplung von Licht, zunutze. „Wir verwenden einen Infrarotlaser bei einer Wellenlänge von 1.500 Nanometern. Damit können wir die Frequenzverdopplung in Wolframdiselenid mit zwei Photonen resonant betreiben und somit die induzierte Valleypolarisation noch verstärken“, beschreibt Herrmann den komplizierten Prozess. „Weiterhin erlaubt uns die Verwendung der Frequenzverdopplung eine deutlich einfachere Trennung des Anregungslichtes und dem für uns interessanten Signal, welches sich entsprechend bei 750 Nanometern, der halben Wellenlänge beziehungsweise der doppelten Frequenz befindet“, ergänzt Klimmer.

Mit Licht wird Elektronik 1.000 Mal schneller
„Bisher wird in der Elektronik das Binärsystem genutzt, zur Informationsübertragung wird Strom an- oder abgeschaltet. Ein Transistor schafft so etwa eine Milliarde Berechnungen pro Sekunde. Indem wir die Elektronik mit Licht statt Strom schalten, lässt sich das auf eine Billion Berechnungen pro Sekunde steigern. Das heißt, wir sind mit unserem System 1.000 Mal schneller als die herkömmliche Elektronik“, fasst Paul Herrmann die Jenaer Forschungsergebnisse zusammen. Das mache die Lösung perspektivisch interessant für viele Bereiche der Optoelektronik und Technik.

Über ihre Forschungsarbeit zur „Nichtlinearen optischen kohärenten Erzeugung und Auslesen von Valleys in atomar dünnen Halbleitern“ berichten Herrmann und Klimmer in einem neuen Paper in der Fachzeitschrift „Small“, das bereits online geschaltet ist. Was diese Jenaer Arbeit originär macht, ist die Kombination der Methode der resonanten Zwei-Photonen-Frequenzverdopplung und der Valleypolarisation.

Forschungsfeld der 2D-Materialien boomt an der Universität Jena
Bis die neuen Erkenntnisse zu den 2D-Materialien und technischen Lösungen der Jenaer in größerem Maßstab eingesetzt werden können, werde es noch einige Jahre dauern, vermuten Sebastian Klimmer und Paul Herrmann. Man sei ja hier mit Grundlagenforschung beschäftigt. Doch sind nicht nur die beiden Mittzwanziger von den Chancen der neuen High-Tech-Materialien überzeugt. Am Institut für Festkörperphysik der Uni Jena beschäftigen sich in der Arbeitsgruppe von Professor Giancarlo Soavi aktuell rund 15 Physiker und Physikerinnen mit 2D-Materialien. Außerdem sind sie eingebunden in die Arbeit des Sonderforschungsbereichs SFB 1375 „NOA – Nichtlineare Optik bis in den Atombereich“, der im Juli 2019 an der Friedrich-Schiller-Universität eingerichtet und gerade verlängert wurde. Das Institut für Festkörpertheorie und Optik sei ebenso Kooperationspartner gewesen wie das Graduiertenkolleg „Maßgeschneiderte Metaoberflächen – Erzeugung, Programmierung und Detektion von Licht“, in dem Klimmer mitarbeitet. Darüber hinaus spielen 2D-Materalien auch in etlichen anderen Instituten der Friedrich-Schiller-Universität Jena eine wichtige Rolle.

Wissenschaftliche Ansprechpartner:
Paul Herrmann
Institut für Festkörperphysik der Friedrich-Schiller-Universität Jena
Helmholtzweg 5, 07743 Jena
Tel.: 03641 / 947385
E-Mail: p.herrmann@uni-jena.de

Originalpublikation:
Paul Herrmann, Sebastian Klimmer, Thomas Lettau, Mohammad Monfared, Isabelle Staude, Ioannis Paradisanos, Ulf Peschel, Giancarlo Soavi: Nonlinear All-Optical Coherent Generation and Read-Out of Valleys in Atomically Thin Semiconductors, small, https://doi.org/10.1002/smll.202301126

(nach oben)


Was man zählt, ist nicht unbedingt das, was zählt

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Eine neue Studie, die die Zahl sich teilender Bakterienzellen in der Nordsee unter die Lupe nimmt, rüttelt an einigen Dogmen über die mikrobiellen Meeresbewohner.

Meerwasser ist voll mit Bakterien, Hunderttausende leben in jedem Liter. Wie viele Bakterien im Wasser leben, hat aber nicht unbedingt viel zu bedeuten. Wichtiger ist, wie aktiv sie sind und wie schnell sie sich vermehren. Das zeigt eine Studie von Forschenden des Max-Planck-Instituts für Marine Mikrobiologie in Bremen, nun veröffentlicht im Fachmagazin mSystems.

Um festzustellen, wie schnell eine Population von Bakterien wächst, wird häufig gemessen, wie sich ihre Zellzahl mit der Zeit verändert. Diese Methode hat aber einen großen Mangel: Sie erhebt nicht, wie schnell sich die Bakterien vermehren oder sterben. Diese Faktoren sind jedoch sehr wichtig, um ökologische Prozesse zu verstehen. Deswegen haben nun Forschende des Max-Planck-Instituts für Marine Mikrobiologie in Bremen einen genaueren Blick auf diese Prozesse im Rahmen einer Frühjahrsblüte in der Deutschen Bucht geworfen. Dabei gerieten einige bisherige Dogmen ins Wanken.

Die Forschenden um Jan Brüwer, Bernhard Fuchs und Rudolf Amann untersuchten das Wachstum von Bakterien während der Frühjahrsblüte vor Helgoland mit verschiedenen Methoden: Mit dem Mikroskop zählten und bestimmten sie nicht nur die vorhandenen Zellen, sondern auch die Häufigkeit von Zellen, die sich gerade teilten. So konnten sie anschließend berechnen, wie schnell sich verschiedene Bakterienarten in ihrer natürlichen Umwelt vermehrten.

„Wir haben in tausenden Bildern mit modernen mikroskopischen Methoden sich teilende Zellen sichtbar gemacht und gezählt“, erklärt Jan Brüwer, der die Studie im Rahmen seiner Doktorarbeit durchführte. „Dabei haben wir uns zu Nutze gemacht, dass das verdoppelte Genom in die zukünftigen Tochterzellen aufgeteilt werden muss, bevor sich eine Zelle teilt. Wir konnten diese Zellen also aufgrund der DNA-Verteilung in der Zelle gut erkennen.“ So konnten die Forschenden die Wachstumsgeschwindigkeiten einzelner Bakteriengruppen über größere Zeiträume bestimmen.

„Die Ergebnisse hielten einige Überraschungen für uns bereit“, sagt Gruppenleiter Bernhard Fuchs. „So haben wir beispielsweise festgestellt, dass sich die am häufigsten im Meer vorkommende Bakteriengruppe namens SAR11 fast zehn Mal schneller teilt als angenommen.“ Die gemessenen Wachstumsraten passen zudem in vielen Fällen nicht mit der Häufigkeit der jeweiligen Bakterien im Meer zusammen. „Wenn Bakterien sich oft teilen und trotzdem nicht so häufig vorkommen, deutet das darauf hin, dass sie ein beliebtes Opfer von Jägern oder Viren sind“, erklärt Brüwer. „Auch der Zeitpunkt der Bakterienvermehrung war überraschend: SAR11-Bakterien teilten sich häufig schon vor dem Einsetzen der Algenblüte in der Nordsee. Woher sie die dafür erforderliche Energie nahmen, ist bis jetzt rätselhaft.“

Nicht alle Bakteriengruppen verhielten sich so unerwartet wie SAR11; bei anderen Gruppen passten die nun erhobenen Ergebnisse eher zu den Erwartungen der Forschenden – bei ihnen stimmten Wachstumsgeschwindigkeiten und Zellzahlen weitgehend überein.

Bisher nimmt man an, dass SAR11, die sehr kleine Zellen haben, mit wenigen Nährstoffen auskommen, sich nicht besonders häufig teilen und wegen ihrer geringen Größe nur wenig gefressen werden. Andere größere Bakterien, beispielsweise die Bacteroidetes, werden dagegen als beliebtes Futter angesehen, die sich schnell vermehren und ebenso schnell wieder verschwinden, wenn Jäger und Viren ihnen auf die Spur kommen. Die neue Studie von Brüwer und seinen Kolleginnen und Kollegen entwirft ein ganz anderes Bild.

„Unsere Ergebnisse beeinflussen unser Verständnis von Stoffkreisläufen, vor allem des Kohlenstoffkreislaufs, im Meer“, betont Brüwer. „Die häufigsten Bakterien im Meer, SAR11, sind aktiver und teilen sich schneller als bisher angenommen. Das könnte bedeuten, dass sie weniger Nährstoffe benötigen und eine beliebtere Nahrungsquelle für andere Organismen sind als vermutet. Außerdem scheint der generelle Umsatz an Bakterien während der Algenblüte schneller zu sein als wir dachten.“

„Die vorliegende Arbeit ist methodisch sehr aufwändig und sie zeigt, wieviele Informationen man aus Mikroskopiebildern ziehen kann“, sagt Rudolf Amann, Direktor am Max-Planck-Institut für Marine Mikrobiologie. „Ich bin sehr stolz auf die beteiligten Forschenden, dass sie diese Mammutaufgabe gestemmt haben und froh, mit ihnen zusammenarbeiten zu dürfen. Die erzielten Ergebnisse werden Auslöser sein für viele spannende Diskussionen über die ökologischen Zusammenhänge während einer Frühjahrsblüte und generell im Meer.“

Wissenschaftliche Ansprechpartner:
Jan Brüwer
Abteilung Molekulare Ökologie, Forschungsgruppe Durchflusszytometrie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9280
E-Mail: jbruewer@mpi-bremen.de

PD Dr. Bernhard Fuchs
Abteilung Molekulare Ökologie, Forschungsgruppe Durchflusszytometrie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9350
E-Mail: bfuchs@mpi-bremen.de

Dr. Fanni Aspetsberger
Pressereferentin
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9470
E-Mail: presse@mpi-bremen.de

Originalpublikation:
Brüwer, JD, Orellana, LH, Sidhu, C, Klip, HCL, Meunier, CL, Boersma, M, Wiltshire, KH, Amann, R, Fuchs, BM (2023): In situ cell division and mortality rates of SAR11, SAR86, Bacteroidetes, and Aurantivirga during phytoplankton blooms reveal differences in population controls. mSystems (17 May 2023)

DOI: 10.1128/msystems.01287-22

Weitere Informationen:
https://www.mpi-bremen.de/Page6045.html

(nach oben)


Spurensuche im Abwasser: Krankheitserreger schneller erkennen

Juliana Fischer Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Die Covid-19-Pandemie hat es gezeigt: Abwasser ist viel mehr als ein Abfallprodukt. Ob Viren, Bakterien oder Parasiten – ausgewertet verrät es so einiges über den Gesundheitszustand der Gesellschaft. Ein Informationsschatz, der in einem Projekt unter Leitung des Zentrums für Wasser- und Umweltforschung (ZWU) der Universität Duisburg-Essen (UDE) nun analysiert und ausgewertet werden soll, auch um künftige Pandemien frühzeitig zu erkennen.

Infektionskrankheiten gefährden die Menschen, gleichzeitig nehmen Antibiotikaresistenzen zu. Um diese Risiken zu erkennen und einzudämmen, kann die Sammlung und Auswertung von Daten helfen. Hier setzt das Projekt „Umweltassoziierte Infektionsgeschehen in Ballungsgebieten in NRW erkennen und eliminieren“ an. „Es geht darum, Informationen in einem ganzheitlichen Kontext zu gewinnen. Und unser Abwassernetz mit Abwässern u.a. aus Haushalten und Krankenhäusern ist genau die richtige Quelle. Denn dort können nicht nur Erreger, sondern auch Antibiotikaresistenzen und verabreichte Medikamente nachgewiesen werden“, sagt Dr. Michael Eisinger, Projektkoordinator am ZWU.

Bisher wurde dieser Ansatz in Deutschland nicht einheitlich systematisch verfolgt, sondern nur für SARS-Cov-2 genutzt. „Das Abwassernetz könnte aber auf lange Sicht zu einer Landkarte des Gesundheitsstatus sowie des Resistenzstatus weiterentwickelt werden“, erklärt Eisinger das Ziel. Denn, wenn man versteht, wie Erreger und Antibiotika im Abwassernetz verteilt sind, können mögliche Gefährdungspotenziale für die Öffentlichkeit erkannt werden.

In dem fachübergreifenden Projekt arbeiten drei Arbeitsgruppen des ZWU zusammen sowie das Institut für Künstliche Intelligenz in der Medizin am Universitätsklinikum (Prof. Dr. Folker Meyer und PD Dr. Dr. Ricarda Schmithausen), die Aquatische Ökologie (Prof. Dr. Bernd Sures) und die Instrumentelle analytische Chemie (Prof. Dr. Torsten Schmidt). Zwei ineinandergreifende Aspekte stehen dabei im Fokus: Einerseits sollen Nachweis- und Analysemethoden entwickelt und optimiert werden, um eine nachhaltige und langfristige Abwasserüberwachung zu installieren (Abwasserepidemiologie). Andererseits sollen Methoden erarbeitet werden, die das Abwasser effektiver von medikamentösen oder mikrobiologischen Belastungen reinigen (Photokatalyse).

Das Projekt ist am 1. April gestartet und zunächst auf drei Jahre ausgelegt. Es wird von der Stiftung Zukunft NRW gefördert. Kooperationspartner ist die Emschergenossenschaft. Die Proben stammen aus dem Essener Abwassernetz.

Hinweis für die Redaktion:
Zwei Fotos von den Arbeiten bei der Probenentnahme und der Abwasseranalyse (Copyright: UDE/Ricarda Schmithausen) stellen wir Ihnen für die Berichterstattung als Download zur Verfügung: https://www.uni-due.de/de/presse/pi_fotos.php

Weitere Informationen:
Dr. Michael Eisinger, Geschäftsführer ZWU, Tel. 0201/183-3890, michael.eisinger@uni-due.de

Redaktion: Jennifer Meina, Tel. 0203/379-1205, jennifer.meina@uni-due.de 

Wissenschaftliche Ansprechpartner:
Dr. Michael Eisinger, Geschäftsführer ZWU, Tel. 0201/183-3890, michael.eisinger@uni-due.de

(nach oben)


Neue Korallen-Datenbank für Klimadaten der vergangen 2000 Jahre

Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Was Forschende heute über den Klimawandel wissen, basiert hauptsächlich auf instrumentellen Datenreihen der vergangenen 150 Jahre. Für einzelne Regionen existieren sehr umfassende Datensätze, für andere weniger. Das betrifft vor allem die weiten und abgelegene Gebiete der tropischen Ozeane, für die es nur wenige Daten zu vergangenen Temperaturen und dem Wasserkreislauf gibt. Bislang vorhandene Datensätze aus Korallen-Klimaarchiven wurden zusammengetragen und sind nun in der neuen PAGES (Past Global Changes) CoralHydro2k-Datenbank verfügbar.

So genannte Flachwasserkorallen sind in den Tropen weit verbreitet. In ihren Kalziumkarbonat-Skeletten finden sich Hinweise auf vergangene Umweltbedingungen. Klimarekonstruktionen auf der Grundlage von Korallen verwenden in erster Linie die stabile Sauerstoffisotopenzusammensetzung, die als Stellvertreter für die Meeresoberflächentemperatur und -hydrologie dient, aber auch zunehmend das Strontium/Kalzium Verhältnis, ein weiterer Stellvertreter für die Temperatur. „Die neue Datenbank ist maschinenlesbar, standardisiert und aktiv kuratiert“, erklärt dazu Mit-Initiator Dr. Thomas Felis vom MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen.

Die Gruppe der internationalen Autor:innen, darunter Dr. Jessica Hargreaves vom MARUM sowie Dr. Thomas Felis, trifft sich regelmäßig bereits seit über fünf Jahren. Über virtuelle Gespräche und Treffen – vor allem während der Corona-Pandemie – hat sich die Gruppe immer besser vernetzt. Das Ergebnis ist die CoralHydro2k-Datenbank. Sie umfasst begutachtete Veröffentlichungen und vor allem Datensätze korallenbasierter Klimaaufzeichnungen aus den vergangenen 2.000 Jahren. Gerade diese Zeitspanne ist laut Autor:innenteam insofern relevant, um die menschengemachten Klimaveränderungen der vergangenen etwa 150 Jahre mit tiefgreifenden Auswirkungen auf Gesellschaften, Volkswirtschaften und Ökosysteme vor dem Hintergrund der natürlichen Klimavariabilität der vorindustriellen Zeit abbilden und verstehen zu können. Aus diesem Grund seien regionale Trends der Vergangenheit so relevant. „Diese Korallen-Datensätze“, heißt es in der Publikation zur Datenbank, „werden in Verbindung mit Klimasimulationen entscheidend dazu beitragen, unser Verständnis der Klimavariabilität der vergangenen 2.000 Jahre und ihrer Dynamik zu verbessern.“

Tropische Korallendaten können für eine umfassende Klimarekonstruktion mit anderen hochauflösenden Klimaarchiven wie Baumringen, Speläothemen oder Eisbohrkernen kombiniert werden, um vergangene und gegenwärtige Wechselwirkungen zwischen Ozean, Atmosphäre und Land zu untersuchen. Insbesondere ermöglicht die neue CoralHydro2k Datenbank somit globale Vergleiche von Paläoklima-Rekonstruktionen unterschiedlicher Archive.

„Angesichts der vom Menschen verursachten Klimakrise ist die Verbesserung unserer Kenntnisse über den globalen Wasserkreislauf von entscheidender Bedeutung, da Wasser für das Leben auf unserem Planeten unerlässlich ist. Die neue Coralhydro2k-Datenbank ist eine wertvolle Ressource für die Gemeinschaft und wird zweifellos neue und relevante Forschungsarbeiten anregen“, sagt Dr. Lukas Jonkers vom MARUM, einer der Koordinator:innen des 2k-Netzwerks und Mitglied des PAGES-Steering Committee. „Die Datenbank ist ein weiteres Beispiel in einer langen Liste von PAGES-2k-Datenprodukten, die gemeinsam den Wert von Paläodaten durch Synthese erhöhen. Herzlichen Glückwunsch, Team Coralhydro2k!“

Wissenschaftliche Ansprechpartner:
Dr. Thomas Felis
Korallen-Paläoklimatologie
Telefon: 0421 218-65751
E-Mail: tfelis@marum.de

Originalpublikation:
Rachel M. Walter, Hussein R. Sayani, Thomas Felis, et al., and the PAGES CoralHydro2k Project Members: The CoralHydro2k database: a global, actively curated compilation of coral δ18O and Sr ∕ Ca proxy records of tropical ocean hydrology and temperature for the Common Era. Earth Syst. Sci. Data, 15, 2081–2116, https://doi.org/10.5194/essd-15-2081-2023, 2023.

Weitere Informationen:
https://www.marum.de/Entdecken/CoralHydro2k.html

(nach oben)


Schwebstoffkonzentrationen in den Bundeswasserstraßen gehen stark zurück

Martin Labadz Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Schwebstoffe sind ein wesentlicher Bestandteil von Fließgewässern. Sind diese jedoch in erhöhten Konzentrationen vorhanden, kann sich das negativ auf die Ökologie eines Flusses auswirken. Ein Forscherteam der BfG konnte durch eine Studie belegen, dass der Schwebstoffanteil in den Bundeswasserstraßen stark abgenommen hat. Die Ergebnisse veröffentlichten die Wissenschaftler/-innen jetzt in der Fachzeitschrift Earth Surface Dynamics.

Das Wissenschaftler-Team konnte zeigen, dass an der großen Mehrheit der Schwebstoffmessstellen entlang der Bundeswasserstraßen die Konzentrationen bis zu 50% zwischen 1990 und 2010 signifikant abnahmen. Für den Rhein bedeutet das zum Beispiel, dass sich die Schwebstofffracht an der Deutsch-Niederländischen Grenze der Marke von einer Million Tonnen pro Jahr nähert. Eine Menge, die geschätzt zuletzt vor ca. 4000 Jahren, also vor Beginn der Bronzezeit, transportiert wurde. Diese war durch die großflächige Ausdehnung der Landwirtschaft in Europa geprägt, welche zu einem massiven Anstieg des Eintrags von Schwebstoffen in die Gewässer führte.
Erste Annahmen, dass insbesondere Stauhaltungen in den Flüssen die Schwebstoffe zurückhalten und so zum Rückgang der Konzentrationen geführt haben, konnte eine Analyse der Daten nicht bestätigen. „Unsere Auswertungen zeigen, dass die Schwebstoffkonzentrationen zwischen 1980 und 1990 konstant blieben. Der Rückgang begann erst in den 1990er Jahren, also mehr als 20 Jahre nachdem die meisten Stauhaltungen gebaut wurden“, erklärt Dr. Thomas Hoffmann, Hauptautor der Studie „Pristine levels of suspended sediment in large German river channels during the Anthropocene?“. Daher vermuten der BfG-Wissenschaftler und seine Co-Autoren, dass die Abnahme vielmehr mit dem Management in den Einzugsgebieten und an den Nebenflüssen zu tun hat. Insbesondere die zahlreichen Retentionsflächen, die zum Hochwasserschutz in den Einzugsgebieten der Bundeswasserstraßen gebaut wurden, haben die Eigenschaft Schwebstoffe zurückzuhalten.

Die BfG-Forscherinnen und Forscher werteten Schwebstoffmessungen von insgesamt 440 000 Wasserproben an 62 Messstellen entlang der Bundeswasserstraßen aus – darunter die für die Schifffahrt wichtigen Flüsse Rhein, Elbe und Donau. Die Messstellen sind Teil des Schwebstoffdauermessnetzes, das von der WSV zusammen mit der BfG seit 1963 betrieben wird.

Schwebstoffe gelangen vor allem durch den Eintrag erodierter Böden in die Fließgewässern. Sie bestehen überwiegend aus feinen Partikeln (Schluff und Ton) und werden bei Starkniederschlagsereignissen vor allem auf intensiv genutzten Ackerflächen abgetragen und durch ihr geringes Gewicht und die Strömung in Schwebe gehalten.

Für die Tier- und Pflanzenwelt in und an unseren Flüssen ist der Rückgang an feinen Schwebstoffpartikeln im Wasser gut. „Die Abnahme der Schwebstoffkonzentrationen führt zu einer geringeren Verschlämmung des Flussbettes und damit zu verbesserten Laichbedingungen für Fische, die von einem sandigen und kiesigen Flussbett profitieren. Zudem verbessert sich in den meisten Fällen auch die Wasserqualität, wenn die Schwebstoffe zurückgehen“ , erklärt Hoffmann. Jedoch sind Regionen die, wie zum Beispiel große Teile der Niederlande, unterhalb des Meeresspiegels liegen, auf diese Schwebstoffe angewiesen. „Der fortschreitende Klimawandel bedingt steigende Meeresspiegel. Da ein Großteil der Niederlande schon heute einige Meter darunter liegt, sind Schwebstoffe, die der Rhein in das niederländische Rhein-Delta transportiert, wichtig. Diese lagern sich in den Flussauen ab und können zu einer Erhöhung der Landoberfläche führen und somit dem Meeresspiegelanstieg entgegenwirken“, so Hoffmann weiter. Die Schwebstoffe seien ein wichtiger Bestandteil, müssten aber natürlich auch erstmal an die richtige Stelle gelangen, was durch den Hochwasserschutz im Rhein-Delta oftmals nicht möglich sei.

Um die Gründe für den signifikanten Rückgang der Schwebstoffkonzentrationen und -frachten genauer untersuchen zu können, planen die BfG-Wissenschaftler/-innen rund um Thomas Hoffmann zurzeit ein Forschungsprojekt. Sie wollen unter anderem herausfinden, wo genau der Rückhalt der Sedimente stattfindet. Modellgebiet soll dabei der Main und sein Einzugsgebiet sein.

Die wissenschaftliche Veröffentlichung „Pristine levels of suspended sediment in large German river channels during the Anthropocene?“ kann im Rahmen der Open-Access-Lizenz auf der Seite von Earth Surface Dynamics heruntergeladen werden.

Wissenschaftliche Ansprechpartner:
Dr. Thomas Hoffmann, thomas.hoffmann@bafg.de

Originalpublikation:
https://esurf.copernicus.org/articles/11/287/2023/

(nach oben)


Wie schmeckt das Essen? Frag dein Gehirn!

Dr. Stefanie Merker Kommunikation (PR)
Max-Planck-Institut für biologische Intelligenz
Zu wissen, wann es Zeit für eine Mahlzeit ist – und wann man wieder aufhören sollte zu essen – ist wichtig für die Gesundheit und das Überleben von Menschen und Tieren. Forschende am Max-Planck-Institut für biologische Intelligenz fanden nun heraus, dass das „Hunger-Hormon“ Ghrelin spezialisierte Nervenzellen in der Amygdala von Mäusen aktiviert. In dieser Gehirnregion, die auch für die Regulierung von Emotionen zuständig ist, fördert das Zusammenspiel zwischen Ghrelin und den Nervenzellen die Nahrungsaufnahme und vermittelt sowohl Hunger als auch die mit dem Essen verbundenen Belohnungsgefühle.

Hunger ist ein starkes Gefühl mit einer wichtigen biologischen Funktion. Es signalisiert dem Körper, dass er nach Nahrung suchen sollte, um das eigene Überleben zu sichern. Wenn wir hungrig sind, sehnen wir uns nach Nahrung und wenn wir essen, belohnt uns unser Körper mit angenehmen Gefühlen und einem allgemeinen Glückszustand.

Netzwerke aus biologischen Schaltkreisen und Signalwegen im Gehirn steuern das Essverhalten von Menschen und Tieren und lösen die damit verbundenen Empfindungen aus. Einer der zentralen Akteure in diesem Netzwerk ist das Hormon Ghrelin. Es wird von Magenzellen freigesetzt, wenn Menschen und Tiere hungrig sind oder fasten, und fördert das Fressverhalten.

Die Abteilung von Rüdiger Klein am Max-Planck-Institut für biologische Intelligenz untersucht die Gehirnnetzwerke, die dem Fressverhalten von Mäusen zugrunde liegen. Zu diesem Zweck haben die Forscherinnen und Forscher eine gründliche Analyse der Zelltypen in einer Gehirnregion durchgeführt, die als zentrale Amygdala bekannt ist. “Bisher wurde die Amygdala vor allem im Zusammenhang mit Gefühlen wie Angst und Belohnungsempfinden untersucht. Es wurde angenommen, dass die Regulation des Fressverhaltens in anderen Gehirnbereichen stattfindet, etwa im Hypothalamus”, sagt Christian Peters, Postdoktorand in der Abteilung.

Peters und seine Kolleg*innen analysierten einzelne Nervenzellen in der zentralen Amygdala und untersuchten ihre Boten-RNA-Moleküle, also die Arbeitskopien der Gene, die auch als mRNAs bekannt sind. Die Analyse ergab, dass die Zellen in neun verschiedenen Zellclustern organisiert sind. Einige dieser Cluster fördern den Appetit, während andere ihn hemmen. Zudem passen die Zellen ihre Produktion von mRNAs an, wenn die Mäuse gefüttert werden oder fasten.

“Wir haben jetzt ein besseres Verständnis über die vielfältigen Zelltypen und die physiologischen Prozesse, die in der zentralen Amygdala die Nahrungsaufnahme fördern”, sagt Rüdiger Klein. “Unsere Forschung zeigt zum ersten Mal, dass das Hunger-Hormon Ghrelin auch auf Zellen in der zentralen Amygdala wirkt.” Dort aktiviert es eine kleine Untergruppe von Zellclustern, die gemeinsam durch die Anwesenheit des Proteins Htr2a gekennzeichnet sind, um die Nahrungsaufnahme zu steigern.

Das Team fand heraus, dass die Htr2a-Neurone nach mehrstündigem Fasten oder bei Anregung durch das Hormon Ghrelin aktiv wurden. Die Zellen reagierten auch, wenn die Forschenden den Mäusen Nahrung vorsetzten. “Wir denken, dass Ghrelin mehrere Funktionen erfüllt”, erklärt Christian Peters. “Wenn Mäuse hungrig sind, aktiviert Ghrelin die appetitanregenden Hirnregionen, um die Tiere zum Fressen zu animieren. Außerdem steigert das Hormon die Aktivität in Gehirnarealen wie der Amygdala, die Belohnungsgefühle vermitteln. Das ist wahrscheinlich ein Anreiz, noch mehr zu fressen.” Auf diese Weise erhöht Ghrelin die Schmackhaftigkeit der Nahrung in Abhängigkeit davon, wie gesättigt die Mäuse gerade sind.

Wenn die Tiere nach einer Fastendiät hungrig waren, war die Aktivität der Htr2a-Neuronen allerdings nicht erforderlich, damit die Mäuse mit dem Fressen begannen – die Forschenden vermuten, dass der Geschmack der Nahrung unter diesen Bedingungen eher nebensächlich ist. “In diesem Fall übernehmen andere Schaltkreise im Gehirn die Kontrolle, um den Stoffwechsel des Körpers zu regulieren. Unter anderem der Hypothalamus signalisiert den Mäusen dann, dass es wichtig ist zu fressen, um zu überleben”, sagt Christian Peters.

Hunger und Sättigungsgefühle haben große Auswirkungen auf das körperliche, aber auch auf das emotionale Wohlbefinden. Das hat wohl jede*r von uns beim Verzehr leckerer Speisen und den damit verbundenen Glücksgefühlen schon einmal erlebt. “Die neuronalen Netzwerke, die diese Gefühle vermitteln, sind offensichtlich eng mit denen verbunden, die die Nahrungsaufnahme kontrollieren. Wie genau sie sich gegenseitig beeinflussen, ist noch nicht vollständig geklärt”, sagt Rüdiger Klein. “Wenn wir diese Zusammenhänge entschlüsseln, werden wir auch die neuronalen Prozesse besser verstehen, die an pathologischem Essverhalten beteiligt sind”, fügt Christian Peters hinzu. “Zahlreiche biologische Faktoren tragen zu einem solch komplexen Verhalten bei und wir müssen uns die physiologischen Prozesse ansehen, um diese Faktoren zu verstehen.“

In der Zukunft könnte dieses Wissen zu neuen therapeutischen Ansätzen zur Linderung von Essstörungen führen. Vorerst legt die Studie den Grundstein für weitere Untersuchungen der speziellen Nervenzellverbände und neuronalen Schaltkreise, die die Nahrungsaufnahme steuern. Die Forschung fügt zudem ein weiteres wichtiges Puzzleteil zu unserem Verständnis hinzu, wie das Gehirn das Verhalten steuert.

KONTAKT
Dr. Marius Bruer
Max-Planck-Institut für biologische Intelligenz
Kommunikaton
E-Mail: communications@bi.mpg.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Rüdiger Klein
Direktor
Max-Planck-Institut für biologisch Intelligenz
E-Mail: ruediger.klein@bi.mpg.de

Originalpublikation:
Christian Peters, Songwei He, Federica Fermani, Hansol Lim, Wenyu Ding, Christian Mayer, Rüdiger Klein
Transcriptomics reveals amygdala neuron regulation by fasting and ghrelin thereby promoting feeding
Sciene Advances, online am 24. Mai 2023

Weitere Informationen:
http://www.bi.mpg.de/klein – Webseite der Abteilung von Rüdiger Klein

(nach oben)


Zu gut, um echt zu sein – ChatGPT & Co.

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Intelligente Softwaresysteme verändern Arbeitswelt und Geschäftsprozesse. Neue Anwendungen wie ChatGPT passen sich der menschlichen Kommunikation an. Ein Interview mit Prof. Dr. Sabine Baumann.

Sie ist Professorin für Digital Business an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) und u. a. Expertin für Digitale Plattformen und Technologien, forscht zu Responsible AI Systems.

• Chatbots wie ChatGPT können eine effiziente Möglichkeit sein, um Benutzerinteraktionen zu automatisieren und Dienstleistungen rund um die Uhr verfügbar zu machen.
• Es ist wichtig sicherzustellen, dass Chatbots und ähnliche Anwendungen fair, inklusiv und ethischen Standards entsprechend entwickelt und eingesetzt werden.
• Technologieunternehmen können trotz der kostenloser Open-Source-Versionen Geld verdienen, indem sie Dienstleistungen rund um die Implementierung, Anpassung und Integration des Modells anbieten.

Zur Person
Prof. Dr. Sabine Baumann ist Professorin für Digital Business an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) und wissenschaftliche Leiterin im Forschungsbereich Produktion am OFFIS Institut für Informatik in Oldenburg. Die Expertin für Digitale Plattformen und Technologien, Business Ecosystems, Nachhaltigkeit und Strategisches Management forscht auch zu Responsible AI Systems und Industrie 4.0/Smart Manufacturing.

Frau Prof. Baumann, leben und arbeiten wir bald alle im Metaverse oder ist die fiktive Welt zu täuschend echt, um wahr zu sein?

Das Metaverse – eigentlich genauer – die Metaversen sind virtuelle Räume, in denen Menschen miteinander interagieren und verschiedene Aktivitäten durchführen können. Es gibt eine breite Palette von Anwendungen wie virtuelle Meetings und Konferenzen oder virtuelles Einkaufen, Gaming und soziale Interaktionen. Ich glaube nicht, dass wir alle ständig in Metaversen sein werden, aber virtuelle Räume werden — so wie das Internet oder mobile Anwendungen — zu Begleitern werden, in die wir eintauchen, um uns zu treffen, zusammenzuarbeiten, Unterstützung bei der Lösung von Problemen zu bekommen oder unterhalten zu werden. Noch müssen aber einige technische und soziale Herausforderungen bewältigt werden.

Künstliche Intelligenz (KI) ist durch ChatGPT nun auch für eine breitere Öffentlichkeit Teil der Wirklichkeit geworden. Ein lernendes System erschafft selbstständig Texte. Fluch oder Segen?

Künstliche Intelligenz wie ChatGPT hat gute und schlechte Seiten. Sie kann helfen, Texte zu generieren, kann jedoch auch zu Missbrauch und Fehlinformationen führen, weshalb eine verantwortungsbewusste Nutzung und Regulierung wichtig sind.

Was finden Sie gut an Chatbots wie ChatGPT?
Sie können eine effiziente Möglichkeit sein, um Benutzerinteraktionen zu automatisieren und Dienstleistungen rund um die Uhr verfügbar zu machen. Chatbots sind computergesteuerte Programme, die entwickelt wurden, um menschenähnliche Gespräche mit Benutzerinnen und Benutzern zu führen. Chatbots verwenden Algorithmen und künstliche Intelligenz, um auf Anfragen zu antworten, Informationen bereitzustellen oder bestimmte Aufgaben zu erledigen.

An welchen Stellen kollidieren Ethik und Technologie bei der Entwicklung und Anwendung?

Kollisionen treten zum Beispiel in den Bereichen Datenschutz, Transparenz, Verantwortung oder diskriminierungsfreier Entscheidungsfindung auf. Es ist daher wichtig sicherzustellen, dass Chatbots fair, inklusiv und ethischen Standards entsprechend entwickelt und eingesetzt werden.

Was haben Sie als Hochschullehrerin in Bezug auf ChatGPT besonders im Blick?
Ich erforsche, wie sich Arbeitswelt und Geschäftsprozesse durch Systeme künstlicher Intelligenz verändern und auch zum verantwortungsvollen Umgang mit diesen Technologien. In der Lehre führe ich Studierende an die Technologien heran und möchte sie für einen kritischen Umgang mit möglicherweise falschen Ergebnissen oder der Verletzung geistigen Eigentums sensibilisieren. Auch sind datenschutzrechtliche Aspekte zu beachten. Wichtig ist mir auch die Vermittlung einer Beurteilungskompetenz zu den Einsatzgebieten von Systemen der künstlichen Intelligenz sowie deren Vor- und Nachteilen. ChatGPT verändert aber auch die Art zu prüfen. Eine rein textbasierte Reproduktion von Wissen wird zunehmend hinter interaktive Prüfungsformen zurücktreten.

Welche anderen Beispiele für ähnliche Anwendungen gibt es, die ähnlich im Kommen sind?

Neben Chatbots gibt es andere ähnliche Anwendungen wie Sprachassistenten wie Alexa und Siri, Übersetzungstools wie DeepL, virtuelle Assistenten wie Cortana und Bixby, personalisierte Empfehlungssysteme und automatisierte Kundensupport-Systeme. Diese Technologien bieten eine personalisierte und bequeme Unterstützung, indem sie Interaktionen zwischen Menschen und Maschinen automatisieren. Aber auch der Einsatz dieser Systeme wird ähnlich kritisch diskutiert, wie der von ChatGPT.

Die einfache Version von ChatGPT ist Open Source, kostenlos nutzbar. Wie können Technologieunternehmen trotzdem Geld verdienen?

Technologieunternehmen können trotz der kostenlosen Open-Source-Version von ChatGPT Geld verdienen, indem sie Dienstleistungen rund um die Implementierung, Anpassung und Integration des Modells anbieten. Sie können auch Cloud-basierte Plattformen bereitstellen und dafür Gebühren erheben oder spezielle Versionen von ChatGPT mit erweiterten Funktionen lizenzieren. Zudem können sie anonymisierte Nutzungsdaten analysieren und diese für Marketingzwecke oder die Entwicklung neuer Produkte nutzen.

Wenn neue Technologien wie ChatGPT doch so hilfreich sind, weshalb und aus welchen Richtungen kommen dennoch Bedenken und Kritik?

Trotz der Vorteile von Technologien wie ChatGPT gibt es Bedenken beispielsweise in Bezug auf Arbeitsplatzverlust, Verletzung geistigen Eigentums, Bias der Antworten, Abhängigkeiten von Technologien oder den Verlust wichtiger Kulturtechniken. Es wird daher darum gehen sicherzustellen, dass die KI-Technologien verantwortungsvoll eingesetzt werden.

Was hat Sie am Vormarsch des Text-Bots überrascht?
Überraschend war, mit welcher Geschwindigkeit ChatGPT allgemein akzeptiert wurde – und das auch von Menschen, die nicht (mehr) zu den Digital Natives zählen. Für viele Nutzerinnen und Nutzer ist der Text-Bot bereits jetzt nicht mehr wegzudenken.

Frau Prof. Baumann, ich danke Ihnen für das Gespräch.

Das Interview führte Sylke Schumann, Pressesprecherin der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin).

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

http://www.hwr-berlin.de

(nach oben)


Rege Beteiligung aus der Bevölkerung: Studie ermittelt Schicksal von Plastikpartikeln

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Auf welchen Wegen sich Plastikmüll in der südlichen Nordsee verbreitet, hat ein interdisziplinäres Forschungsteam unter Leitung der Universität Oldenburg untersucht. Ein wichtiger Teil des Projekts „Makroplastik“ war die Beteiligung von Bürgerinnen und Bürgern. Sie konnten über ein Online-Portal den Fund von Holztäfelchen melden, die das Team auf offener See und an der Küste ausgebracht hatte. Die Projektergebnisse zeigten, dass es in der Nordsee keine Gebiete gibt, in denen sich Plastikmüll permanent ansammelt, und dass ein Großteil der Partikel schnell wieder an den Küsten landet.

Woher stammen größere Plastikteile wie Einkaufstüten oder Einwegflaschen in der Deutschen Bucht, und auf welchen Wegen ist der Müll unterwegs? Das hat das Forschungsprojekt „Makroplastik in der südlichen Nordsee – Quellen, Senken und Vermeidungsstrategien“ der Universität Oldenburg umfassend mit einem interdisziplinären Team untersucht. Dabei setzten die Forschenden auch auf die Beteiligungen von Bürgerinnen und Bürgern, um die Verbreitungswege des Plastiks zu verfolgen. In der Zeitschrift „Frontiers in Marine Science“ haben sie nun einen Überblick über die Ergebnisse veröffentlicht. Sie fanden unter anderem heraus, dass es in der Nordsee und im Skagerrak keine Gebiete gibt, in denen sich Plastikmüll permanent ansammelt, und dass ein Großteil der Partikel schnell wieder an den Küsten landet.

Die Forschenden aus Meereswissenschaften, Geografie und Umweltplanung hatten seit 2016 mit einem interdisziplinären Ansatz untersucht, wie sich Plastikobjekte mit einem Durchmesser von mehr als fünf Millimetern in der Nordsee verbreiten. Um Verteilung und Transportwege zu verstehen, führten sie Feldstudien durch und berechneten die Wege virtueller Müllteilchen mit numerischen Modellen. Sie erfassten Plastikmüll an der Küste, in Flussmündungen und auf dem Meeresboden. Zudem setzten sie spezielle Driftkörper mit Satellitensendern aus, die – ähnlich wie der Müll – an der Meeresoberfläche treiben und kontinuierlich ihre Positionen übermittelten. Hinzu kamen rund 63.000 Holztäfelchen mit einer Kantenlänge von acht mal zehn Zentimetern, die das Team sowohl auf offener See als auch an verschiedenen Orten an der Küste ausbrachte. Ihr Fund konnte über ein Online-Portal gemeldet werden. Zu der Studie gehörte außerdem eine Analyse der verschiedenen Interessengruppen wie Tourismus, Fischerei, Industrie und Häfen.

Durch Kombination von Beobachtungen und Modellrechnungen erhielt das 15-köpfige Team sowohl einen Überblick über die räumliche Verteilung der Müllquellen als auch über den Beitrag unterschiedlicher Sektoren wie Tourismus oder Industrie. Demnach sind – wie auch schon frühere Studien gezeigt hatten – Fischerei und kommunaler Müll die wichtigsten Quellen. Ein nennenswerter Teil des Plastikmülls stammt aus den größeren Kommunen an der Nordseeküste und an den Mündungen von Elbe, Weser und Ems. Wie sich herausstellte, wurde ein Großteil der in den Flüssen ausgesetzten Holztäfelchen noch innerhalb der Wasserwege wieder ans Ufer gespült – knapp die Hälfte in der Elbe und fast 90 Prozent in der Ems. Auch ein Großteil des an den Küsten angeschwemmten Mülls stammt demnach aus nahegelegenen Quellen. In küstennahen Teilen der Nordsee waren Deutschland und die Niederlande die wichtigsten Müllquellen, wohingegen im offenen Meer die meisten Plastikpartikel aus Großbritannien, Frankreich und den Niederlanden stammten.

Die Untersuchungen zu den Transportwegen zeigten, dass zwei Drittel der an den Küsten ausgesetzten Holztäfelchen innerhalb von nur 25 Kilometern wieder an der Küste landeten. Die auf offener See entlassenen Täfelchen legten dagegen größere Strecken zurück, von ihnen waren 30 Prozent mehr als 250 Kilometer unterwegs, bevor sie wieder auf Land trafen. Insgesamt meldeten Freiwillige über das Onlineportal den Fund von mehr als 27.000 Täfelchen – rund 43 Prozent der ursprünglich ausgebrachten Menge. „Dieses Ergebnis unterstreicht die bedeutende Rolle, die die Bürgerwissenschaften beim Erzeugen großer Datensätze spielen können“, betont Projektleiter Prof. Dr. Jörg-Olaf Wolff vom Oldenburger Institut für Chemie und Biologie des Meeres (ICBM).

Ein weiteres wichtiges Ergebnis: Müllpartikel können für längere Zeit an so genannten ozeanografischen Fronten „gefangen“ bleiben. „Das sind Zonen, in denen beispielsweise Süßwasser aus einem Fluss auf salziges Meerwasser trifft. Dort geht es oft sehr turbulent zu“, erläutert der Ozeanograph Dr. Jens Meyerjürgens vom ICBM. Er war gemeinsam mit Dr. Marcel Ricker vom Helmholtz-Zentrum Hereon in Geesthacht Hauptautor der jetzt veröffentlichten Studie. Die Daten der größeren, mit Satellitensender ausgestatteten Drifter zeigten, dass die Geräte oft mehrere Tage oder sogar Wochen an solchen Fronten festhingen, bis der Wind stark genug wurde, um sie wieder zu befreien. Am Meeresboden unterhalb der Fronten fanden sich dementsprechend mehr Plastikpartikel als anderswo. Einen permanenten Müllstrudel, wie er im Pazifik oder Atlantik existiert, konnten die Forschenden in der Nordsee jedoch nicht nachweisen.

Das Team untersuchte zudem verschiedene Strategien, mit denen sich der Eintrag von Plastikmüll in Zukunft verringern lassen könnte. Am vielversprechendsten ist es der Studie zufolge, wenn Gemeinden bei größeren Veranstaltungen vorschreiben, auf Einweg-Plastik wie Trinkbecher oder Besteck zu verzichten. Zudem seien strengere Lagerbedingungen in Häfen sinnvoll, da der Hafenbetrieb allein für etwa acht Prozent der Kunststoffabfälle in der Nordsee verantwortlich ist. Auch Kampagnen, um das allgemeine Bewusstsein für das Müllproblem zu erhöhen, halten die Forschenden für wichtig. Dabei sollte die Fischerei ihrer Meinung nach stärker einbezogen werden.

Insgesamt zieht das Team ein positives Fazit: „Wir haben sehr viel positives Feedback zu den Driftern und den Holztäfelchen erhalten und auch eine erhöhte Aufmerksamkeit in der Bevölkerung für das Problem festgestellt“, sagt Dr. Thomas Badewien vom ICBM, einer der Hauptverantwortlichen im Projekt. Das seien positive Entwicklungen, die für die Zukunft hoffen lassen.

Dem fachübergreifenden Projektteam gehörten Forschende des ICBM und des Instituts für Biologie und Umweltwissenschaften (IBU) der Universität Oldenburg an. Zu den wissenschaftlichen Kooperationspartnern zählte unter anderem das Helmholtz-Zentrum Hereon. Projektleiter war der Oldenburger Ozeanograph Prof. Dr. Jörg-Olaf Wolff. Das niedersächsische Wissenschaftsministerium hatte das Projekt über vier Jahre mit insgesamt 1,4 Millionen Euro gefördert.

Wissenschaftliche Ansprechpartner:
Dr. Jens Meyerjürgens, Tel.: 0441/798-3518, E-Mail: jens.meyerjuergens@uol.de

Originalpublikation:
Jens Meyerjürgens et al: „Sources, pathways, and abatement strategies of macroplastic pollution: an interdisciplinary approach for the southern North Sea”, Front. Mar. Sci., DOI: 10.3389/fmars.2023.1148714

Weitere Informationen:
http://www.macroplastics.de

(nach oben)


Klimawandel: Agri-Photovoltaik-Anlagen schützen Pflanzen vor Dürre

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Untersuchung der Universität Hohenheim zeigt: Beschattung kann die Folgen von Trockenperioden in der Landwirtschaft abschwächen

Agri-Photovoltaik kann die Folgen von Dürreperioden auf die Produktion pflanzlicher Nahrungsmittel abschwächen: Die Beschattung, die bei ausreichend Wasser oft die Ernteerträge senkt, kann bei Dürre sogar zu Ertragssteigerungen führen. Das ist das Ergebnis einer Untersuchung der Universität Hohenheim in Stuttgart. Der Effekt kann besonders für Regionen wichtig werden, in denen es gleichzeitig ein starkes Bevölkerungswachstum und ausgeprägte Dürreperioden gibt, wie beispielsweise in Indien oder Afrika. Aber auch in Europa muss in Zukunft mit längeren Trockenperioden gerechnet werden. Aus Sicht der Wissenschaftler:innen besteht jedoch noch erheblicher Forschungsbedarf – vor allem zu der Frage, welche Pflanzen sich für die unterschiedlichen Systeme am besten eignen.

Steigende Temperaturen und Veränderungen in der Menge und Verteilung der Niederschläge sind Kennzeichen des fortschreitenden Klimawandels. Vor allem die Verfügbarkeit von Wasser nimmt in vielen Regionen der Welt drastisch ab – mit weitreichenden Folgen für die Ernährungssicherheit einer wachsenden Weltbevölkerung.

Der Ersatz fossiler Brennstoffe durch erneuerbare Energien gilt als Schlüssel, um den Klimawandel abzubremsen. Dabei ist die Solarenergie, also die Umwandlung von Sonnenenergie in elektrische Energie durch Photovoltaik, die ergiebigste erneuerbare Energie und wird gleichzeitig immer erschwinglicher – Faktoren, die ihren weltweiten Ausbau begünstigen.

Die Installation von Photovoltaik-Anlagen auf Freiflächen steht jedoch in direkter Konkurrenz zu anderen Formen der Landnutzung, wie unter anderem der landwirtschaftlichen Produktion. Eine Lösung bietet die Agri-Photovoltaik. Sie ermöglicht die Erzeugung von Nahrungsmitteln und Energie auf derselben Fläche. Dazu werden beispielsweise die Photovoltaik-Paneele auf Ständer gesetzt, so dass darunter Nutzpflanzen angebaut werden können. Alternativ werden die Module in Bodennähe so installiert, dass zwischen ihnen Landwirtschaft betrieben werden kann.

Im Klimawandel kann Agri-Photovoltaik Ernteerträge steigern
Doch diese Form der Energieerzeugung kann noch mehr. Forschende vom Fachgebiet Pflanzenökologie der Universität Hohenheim unter Leitung von Jun.-Prof. Dr. Andreas Schweiger haben sich mit dem Potenzial beschäftigt, unter den sich ändernden klimatischen Bedingungen die Ernteerträge durch Agri-Photovoltaik zu steigern. „Zwar verringert die Beschattung durch die Photovoltaik-Anlage die Erträge, wenn ausreichend Wasser für das Pflanzenwachstum zur Verfügung steht“, erklärt die wissenschaftliche Mitarbeiterin Lisa Pataczek.

„Bei Wasserknappheit profitieren die Pflanzen jedoch von der geringeren Verdunstung und damit einem geringeren Wasserverlust: Der Ertrag ist höher als auf den unbeschatteten Flächen.“ Aus Sicht der Forschenden macht diese stabilisierende Wirkung auf die Ernteerträge die Agri-Photovoltaik zu einer vielversprechenden Technologie.

Wichtig für trockenheitsanfällige Regionen und Wüstenrandgebiete
Besonderes Potenzial sehen sie in den trockenheitsanfälligen Regionen der Welt. Dazu gehören unter anderem der Westen der Vereinigten Staaten, das östliche und südliche Afrika, die Arabische Halbinsel, der Nahe Osten, Indien und Australien. Vor allem in Ländern mit ausgeprägten Dürreperioden und einem massiven Bevölkerungswachstum, wie zum Beispiel in Indien, ist dies aus Sicht der Forschenden von Bedeutung.

„Zudem stellt in den Randgebieten aller großen Wüsten der Welt die Photovoltaik eine Strategie zur Bekämpfung der Wüstenbildung dar“, so Jun.-Prof. Dr. Schweiger. In Regionen mit Grundwasserknappheit könnte so die Erschöpfung dieser wichtigen Ressource verringert und gleichzeitig die CO2-Emissionen aus der Stromerzeugung reduziert werden, was wiederum dem Klimawandel entgegenwirkt.

„Damit trägt die Agri-Photovoltaik nicht nur dazu bei, die Auswirkungen des Klimawandels in bereits als trocken eingestuften Regionen abzuschwächen“, fährt er fort. „Sie wird vor allem für Regionen von Bedeutung sein, die in Zukunft mit einer zunehmenden Wasserknappheit konfrontiert sein werden, wie zum Beispiel in großen Teilen der Mittelmeerregion.“

Potenzial stark abhängig von Region, Pflanzen und verwendetem System
„Allerdings fällt dieses Potenzial je nach den klimatischen Bedingungen sehr unterschiedlich aus und hängt stark von den Pflanzen ab, die in solchen dualen Landnutzungssystemen angebaut werden“, betont der Experte. „So tolerieren die meisten der bislang untersuchten Kulturen eine Beschattung von bis zu 15 Prozent ohne nennenswerte Ertragseinbußen.“

Beeren, Obst und Fruchtgemüse profitieren sogar von einer Beschattung, während die Erträge von Futterpflanzen, Blattgemüse, Knollen- und Hackfrüchte sowie der meisten Getreide-Arten darunter minimal leiden. Starke Ertragseinbußen hingegen gibt es beispielsweise bei Mais, Ackerbohnen, Soja und Lupinen selbst bei geringer Beschattung.

Noch großer Forschungsbedarf
„Noch fehlt es allerdings an detailliertem, fundiertem Wissen über die Beziehungen zwischen den unterschiedlichen Formen der Agri-Photovoltaik und den Reaktionen der verschiedenen Pflanzen“, weist Lisa Pataczek auf den großen Forschungsbedarf hin. Denn diese Reaktionen beschränken sich nicht nur auf die Wasserversorgung.

„So beginnen viele Pflanzen im Schatten, das Wachstum des oberirdischen, photosynthetisch aktiven Blattmaterials zu erhöhen. Interessant ist dies zum Beispiel bei Salat, da dieser Teil der Pflanzen von wirtschaftlichem Interesse ist“, erklärt sie.

Weitere Forschungsergebnisse werden nicht nur gebraucht, um unter den gegebenen klimatischen Bedingungen die optimalen Pflanzen für die jeweilige Beschattung auszuwählen. Sie können auch zur Entwicklung intelligenter Agri-Photovoltaik-Systeme beitragen, bei denen in Echtzeit die Stresssignale der Pflanzen genutzt werden, um die Ausrichtung der Paneele und damit die Beschattung zu steuern.

Wissenschaftliche Ansprechpartner:
Jun.-Prof. Andreas Schweiger, Universität Hohenheim, Fachgebiet Pflanzenökologie,
+49 (0)711 459-22189, andreas.schweiger@uni-hohenheim.de

M. Sc. Lisa Pataczek, Universität Hohenheim, Fachgebiet Pflanzenökologie,
+49 (0)711 459-23693, lisa.pataczek@uni-hohenheim.de

Originalpublikation:
Schweiger, A. H., & Pataczek, L. (2023). How to reconcile renewable energy and agricultural production in a drying world. Plants, People, Planet, 1–12.
https://doi.org/10.1002/ppp3.10371

Weitere Informationen:
http://www.uni-hohenheim.de/presse Pressemitteilungen der Universität Hohenheim

(nach oben)


Tag der Biodiversität – Botanischer Garten Berlin ruft zu weniger Aktionismus und mehr wissensbasiertem Handeln auf

Alexandra Jakob Pressestelle Botanischer Garten und Botanisches Museum Berlin
Freie Universität Berlin
Jedes Jahr am 22. Mai wird der Internationale Tag der biologischen Vielfalt begangen. Er erinnert daran, dass am 22. Mai 1992 das UN-Übereinkommen über die biologische Vielfalt verabschiedet wurde. Das diesjährige Motto lautet: „From Agreement to Action: Build Back Biodiversity”. Auch der Botanische Garten Berlin nimmt den Tag zum Anlass, um auf die dramatische Situation des weltweiten Artensterbens und den Erhalt der globalen Biodiversität aufmerksam zu machen.

„Biodiversität und Artenschutz gehen uns alle an. Denn ausgestorbene oder bedrohte Arten sind nicht beliebig ersetz- oder reparierbar. Daher ist es wichtig, dass wir jetzt ins Tun kommen“, so Thomas Borsch, Direktor des Botanischen Gartens Berlin. „Doch dafür braucht es dringend mehr Wissen, auch in der Breite unserer Gesellschaft. Sozusagen eine biologische Alphabetisierung. Denn gerade in Bezug auf den Erhalt der Pflanzenvielfalt vor der eigenen Haustür sind hier aktuell viele falsche Informationen im Umlauf. Das Verstreuen von Samen aus beliebigen, bunten Tütchen hilft bei der Erhaltung bedrohter Arten nicht weiter. Ganz im Gegenteil. Damit kann sogar großer Schaden angerichtet werden“, führt Borsch weiter aus.

Eine Art zu erhalten, ist viel komplexer als oft vermittelt wird: Es hat Jahrtausende oder zum Teil Jahrmillionen gebraucht, bis innerhalb einer Art die spezifische Vielfalt mit ihren ganz eigenen geographischen Mustern entstanden ist. Sie erkennt man nicht mit dem bloßen Auge, sondern nur durch wissenschaftliche Analysen ihrer genetischen Merkmale. Nur mit dem entsprechenden Wissen um diese innerartliche genetische Vielfalt ist es möglich, Arten mit ihren regionalen Besonderheiten zu erhalten. Die genaue Identifizierung bedrohter heimischer Arten ist essenziell, wenn es darum geht, ihren weiteren Rückgang zu verhindern. Viele nah verwandte Arten sind auf den ersten Blick sehr ähnlich, wissenschaftliche Verfahren helfen, sie richtig zu erkennen.

„Wir beobachten zunehmend, dass Pflanzenarten in Lebensgemeinschaften eingebracht werden, in die sie eigentlich nicht gehören. Im Berlin-Brandenburger Raum werden beispielsweise Reste wertvoller Vegetation mit spezifischen Arten wie Silbergras, Sandstrohblumen, Heidenelke, Frühlingssegge oder Schillergras umgegraben und zerstört und durch Aussaaten ‚insektenfreundlicher Pflanzen‘ ersetzt. Damit verschwinden nicht nur bedrohte Pflanzenarten, sondern auch die selteneren und gefährdeten Insektenarten“, erklärt der Direktor des Botanischen Gartens Berlin. „Was wir brauchen ist weniger Aktionismus und mehr wissensbasiertes Handeln. Dafür wäre es wichtig, dass Forschung und konkreter Artenschutz künftig viel stärker Hand in Hand gehen – und vor allem auch zusammen gefördert werden.“

Mehr Wissen für den Artenschutz
Laut der Roten Liste sind allein bei den Farn- und Blütenpflanzen über 28 Prozent – also mehr als ein Viertel – bestandsgefährdet. Der Botanische Garten Berlin ist als Knotenpunkt der internationalen Biodiversitätsforschung mit vielen Projekten aktiv, um das globale Artensterben zu stoppen. Unter anderem arbeitet er daran, die genetische Vielfalt gefährdeter Pflanzenarten zu erfassen, um damit den unsichtbaren Verlust von Vielfalt sichtbar zu machen. Dabei werden Populationen mit wertvollen Genotypen lokalisiert, um sie im Artenschutz besonders zu berücksichtigen. Bei Restpopulationen einer Art, deren Bestände durch intensive Landnutzung fragmentiert wurden, wird genau untersucht, ob sie genetisch erodieren und gezielte Hilfsmaßnahmen benötigen. So liefern die wissenschaftlichen Analysen konkrete Handlungsempfehlungen für die Praxis. Ein Beispiel für dieses Verfahren ist die in Berlin und Brandenburg stark gefährdete Duft-Skabiose (Scabiosa canescens) – hier helfen die dank molekularbiologischer Methoden gewonnenen Erkenntnisse der Wissenschaft bei der Populationsstützung sowie Wiederansiedlungen an geeigneten Standorten.

Genetische Vielfalt ist ein Garant dafür, dass Arten sich in Zeiten des Klimawandels besser anpassen können. Mit seiner Arbeit setzt sich der Botanische Garten Berlin dafür ein, diese genetische Vielfalt zu erkennen, sie zu schützen und so die Überlebensfähigkeit von Wildpflanzen in der Natur zu sichern.

Pressefotos (zum Download):
Duft-Skabiose (Scabiosa canescens),
https://box.fu-berlin.de/s/oCZpkBHxJkfGQ8j
Fotos: E. Zippel, © Botanischer Garten Berlin

Weiterführende Literatur: „Genetische Grundlagen für den botanischen Artenschutz in Deutschland“, Thomas Borsch und Elke Zippel, erschienen 2021 in „Natur und Landschaft“

Mit nahezu 20.000 Pflanzenarten ist der Botanische Garten Berlin der größte in Deutschland und zählt zu den bedeutendsten weltweit. Auf 43 Hektar Freigelände und in fünfzehn Gewächshäusern erhalten Besucherinnen und Besucher faszinierende Einblicke in die Welt der Botanik. Als Knotenpunkt der internationalen Biodiversitätsforschung sowie als Ort der Wissensgenerierung und -vermittlung beschäftigt der Botanische Garten mehr als 200 Mitarbeiterinnen und Mitarbeiter. Mit dem Botanischen Museum verfügt er über Deutschlands einzigartige museale Einrichtung, die sich der Vielfalt der Pflanzenwelt, ihrer Bedeutung und der Darstellung ihrer Kultur- und Naturgeschichte widmet. Seit 1995 gehört die Einrichtung zur Freien Universität Berlin.

Der Botanische Garten Berlin ist BO Berlin – Internationales Wissenszentrum der Botanik. Ein einzigartiger Ort, der Botanik in allen Facetten erlebbar macht.

Pressekontakt:
Alexandra Jakob, Pressesprecherin
Botanischer Garten und Botanisches Museum Berlin (BO Berlin)
Tel. 030 – 838 72375
a.jakob@bo.berlin

Anhang
PM – Internationaler Tag der Biodiversität Botanischer Garten Berlin ruft zu weniger Aktionismus und mehr wissensbasiertem Handeln auf

(nach oben)


Digitale Transformation im Unternehmen aktiv mitgestalten

Ulrike Cron Presse- und Öffentlichkeitsarbeit
Zentrum für Fernstudien im Hochschulverbund – zfh
Jetzt online informieren: Info-Veranstaltung zum Fernstudium MBA Digital Finance, Strategie & Accounting

Am Mittwoch, den 24. Mai ab 17.00 Uhr informiert die Graduate School Rhein-Neckar (GSRN) alle Weiterbildungsinteressierten in einer virtuellen Informationsveranstaltung über den berufsbegleitenden Fernstudiengang Digital Finance, Strategie & Accounting (DFSA). Im Rahmen der Veranstaltung stellen die Studiengangsleiter Prof. Dr. Gösta Jamin und Prof. Dr. Stefanie Hehn-Ginsbach den Studiengang vor. Gemeinsam mit Programm Managerin Sophia Richter informieren sie z.B. über Zugangsvoraussetzungen, inhaltliche Ausrichtungen in Bezug auf die berufliche Planung und beantworten individuelle Fragen. Wer teilnehmen möchte, wird gebeten, sich bei Sophia Richter unter sophia.richter@gsrn.de anzumelden und erhält anschließend die Zugangsdaten zum Webmeeting.

MBA-Studium mit und ohne Erststudium möglich
Der Fernstudiengang DFSA hat eine Regelstudienzeit von 5 Semestern und ist so angelegt, dass er berufsbegleitend durchgeführt werden kann. Die Absolvierenden schließen das Studium mit dem akademischen Grad Master of Business Administration (MBA) ab. Angesprochen sind Berufstätige, die sich für höherqualifizierte Tätigkeiten im Unternehmen weiterentwickeln wollen und die über einen ersten Hochschulabschluss sowie eine mindestens einjährige Berufserfahrung nach dem Erststudium verfügen. In Rheinland-Pfalz können auch beruflich qualifizierte Studieninteressierte ohne Erststudium, aber mit mehrjähriger, einschlägiger Berufserfahrung im Bereich Finance & Accounting über eine Eignungsprüfung zum Studium zugelassen werden.

Arbeitswelt 4.0 – jetzt weiterqualifizieren
Berufstätige Fernstudieninteressierte, die sich den Herausforderungen der Arbeitswelt 4.0 stellen möchten, liegen mit dem Fernstudiengang Digital Finance, Strategie & Accounting (MBA) richtig. Sie qualifizieren sich neben dem Beruf und auf akademischem Niveau. Das Studium vermittelt Schlüsselqualifikationen in zentralen Fragen der finanzwirtschaftlichen Unternehmenssteuerung, zu den Studieninhalten zählen Rechnungslegung & Kapitalmarktkommunikation, Change- & Projektmanagement sowie Entwicklung, Implementierung & Überwachung von Unternehmensstrategien. Fachübergreifende Kompetenzen wie Problemlösung, Gesprächs- und Verhandlungsführung, Digitalkompetenz und Coaching runden das Studienkonzept ab.

Die GSRN ist eine 100%ige Tochter der Hochschule für Wirtschaft und Gesellschaft (HWG) Ludwigshafen. Das zfh – Zentrum für Fernstudien im Hochschulverbund in Koblenz unterstützt die GSRN und die HWG bei der Durchführung von Fernstudiengängen. Beim zfh können sich Interessierte bis zum 15. Juli 2023 für das kommende Wintersemester online bewerben unter http://www.zfh.de/anmeldung

Weitere Informationen: http://www.zfh.de/mba/finance und http://www.gsrn.de/dfsa

Über das zfh
Das zfh – Zentrum für Fernstudien im Hochschulverbund bildet gemeinsam mit 21 staatlichen Hochschulen den zfh-Hochschulverbund. Das zfh ist eine wissenschaftliche Institution des Landes Rheinland-Pfalz mit Sitz in Koblenz und basiert auf einem 1998 ratifizierten Staatsvertrag der Bundesländer Rheinland-Pfalz, Hessen und Saarland. Gemäß Staatsvertrag fördert und unterstützt das zfh die Hochschulen bei der Entwicklung und Durchführung ihrer Fernstudienangebote. Neben den 15 Hochschulen dieser drei Bundesländer haben sich weitere Hochschulen aus Bayern, Berlin, Brandenburg, Nordrhein-Westfalen und Schleswig-Holstein dem Verbund angeschlossen. Das erfahrene Team des zfh übernimmt für die Hochschulen die Öffentlichkeitsarbeit und das Marketing der Fernstudiengänge sowie die Studierendenverwaltung und unterstützt bei der Studienorganisation. Mit einem Repertoire von über 100 berufsbegleitenden Fernstudienangeboten in wirtschaftswissenschaftlichen, technischen/naturwissenschaftlichen und sozialwissenschaftlichen Fachrichtungen ist der zfh-Verbund bundesweit größter Anbieter von Fernstudiengängen an Hochschulen mit akkreditiertem Abschluss. Alle zfh-Fernstudiengänge mit dem akademischen Ziel des Bachelor- oder Masterabschlusses sind von den Akkreditierungsagenturen ACQUIN, AHPGS, ASIIN, AQAS, FIBAA bzw. ZEvA zertifiziert und somit international anerkannt. Neben den Bachelor- und Masterstudiengängen besteht auch ein umfangreiches Angebot an Weiterbildungsmodulen mit Hochschulzertifikat. Derzeit sind 6.575 Fernstudierende an den Hochschulen des zfh-Verbunds eingeschrieben.

Redaktionskontakt:
zfh – Zentrum für Fernstudien im Hochschulverbund
Ulrike Cron
Presse- und Öffentlichkeitsarbeit
Konrad-Zuse-Straße 1
56075 Koblenz
Tel.: +49 261/91538-24, Fax: +49 261/91538-724
E-Mail: u.cron@zfh.de,
Internet: http://www.zfh.de

(nach oben)


Verringerte Krebssterblichkeit bei täglicher Vitamin D-Einnahme

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Eine Vitamin D-Einnahme könnte die Krebssterblichkeit in der Bevölkerung um zwölf Prozent reduzieren – vorausgesetzt, das Vitamin wird täglich eingenommen. Dies ergab eine am Deutschen Krebsforschungszentrum durchgeführte Auswertung von 14 Studien der höchsten Qualitätsstufe mit insgesamt fast 105.000 Teilnehmern.

Vitamin-D-Mangel ist weltweit verbreitet und kommt besonders häufig bei Krebspatienten vor. Über das Jahr gemittelt, liegen die Vitamin D-Blutwerte bei rund 15 Prozent der deutschen Erwachsenen unter dem Schwellenwert für einen ausgeprägten Vitamin D-Mangel*. In einer Studie an Darmkrebspatienten dagegen diagnostizierten Forscher bei 59 Prozent der Teilnehmer einen Vitamin D3-Mangel, der zudem mit ungünstiger Prognose assoziiert war.

Mögliche Effekte einer Vitamin D-Supplementierung und der Entstehung bzw. Prognose von Krebserkrankungen wurden bereits in zahlreichen Studien untersucht. „Nach derzeitiger Studienlage schützt eine Vitamin D3-Einnahme wahrscheinlich nicht davor, an Krebs zu erkranken, könnte aber die Wahrscheinlichkeit senken, an einer Krebserkrankung zu versterben. Die bisherigen Studien zur Krebssterblichkeit haben jedoch sehr unterschiedliche Ergebnisse geliefert und uns interessierten die Gründe dafür“, sagt Ben Schöttker, Epidemiologe im Deutschen Krebsforschungszentrum. „Mit einer Neubewertung aller bisherigen Studien zu dem Thema wollten wir dazu beitragen, in dieser für die Bevölkerungsgesundheit so relevanten Frage zu belastbaren Ergebnissen zu kommen.“

Um die Wirksamkeit von Vitamin D3 auf die Krebssterblichkeit in der Bevölkerung und auf das Überleben von Krebspatienten zu untersuchen, führte Ben Schöttker mit Kolleginnen und Kollegen eine systematische Literaturrecherche durch, in der 14 Studien mit insgesamt knapp 105.000 Teilnehmern identifiziert wurden. Die Forscherinnen und Forscher berücksichtigten ausschließlich Studien höchster Qualität, deren Teilnehmer per Zufall dem Vitamin D3-Arm oder dem Placebo-Arm zugewiesen worden waren.

In der Zusammenfassung aller 14 Studien zeigten sich keine statistisch signifikanten Ergebnisse. Teilte man die Studien jedoch danach auf, ob die Vitamin D3-Einnahme täglich in niedriger Dosierung** erfolgte oder aber als eine selten verabreichte, hohe Einzeldosis**, zeigte sich ein großer Unterschied. In den vier Studien mit den hohen Einzeldosen zeigte sich kein Effekt auf die Krebssterblichkeit. In der Zusammenfassung der zehn Studien mit täglicher Dosierung ermittelten die Forscher dagegen eine statistisch signifikante Verringerung der Krebssterblichkeit um zwölf Prozent.

„Diese zwölfprozentige Reduktion der Krebssterblichkeit haben wir nach ungezielten Vitamin D3-Gaben an Personen mit und ohne Vitamin-D-Mangel beobachtet. Wir können daher davon ausgehen, dass der Effekt für diejenigen Menschen, die tatsächlich einen Vitamin-D-Mangel aufweisen, erheblich höher ist“, sagt Ben Schöttker. Die bessere Wirksamkeit der täglichen Vitamin D3-Dosen erklärt er sich durch die regelmäßigere Bioverfügbarkeit des aktiven Wirkstoffs, dem Hormon 1,25-Dihydroxyvitamin D, das erst durch Reaktionen des Vitamin D im Körper entsteht und vermutlich das Tumorwachstum hemmen kann.

Bei einer detaillierteren Analyse der Studien mit täglicher Einnahme ergab sich weiterhin, dass Menschen ab dem Alter von 70 Jahren am meisten von der Vitamin-D3-Therapie profitierten. Außerdem zeigte sich der Effekt am deutlichsten, wenn die Vitamin D-Einnahme bereits vor der Krebsdiagnose begonnen wurde.

Hermann Brenner, Epidemiologe und Präventionsexperte am DKFZ, ergänzt: „Diese Arbeit unterstreicht das große Potential der Vitamin-D3-Gabe in der Prävention von Krebstodesfällen. Die regelmäßige Einnahme in niedriger Dosierung** ist mit nahezu vernachlässigbarem Risiko und sehr geringen Kosten verbunden.“

Die aktuelle Arbeit wurde von der Deutschen Krebshilfe gefördert.

Publikation
Kuznia S, Zhu A, Akutsu T, Buring JE, Camargo CA Jr, Cook NR, Chen LJ, Cheng TD, Hantunen S, Lee IM, Manson JE, Neale RE, Scragg R, Shadyab AH, Sha S, Sluyter J, Tuomainen TP, Urashima M, Virtanen JK, Voutilainen A, Wactawski-Wende J, Waterhouse M, Brenner H, Schöttker B. Efficacy of vitamin D3 supplementation on cancer mortality: Systematic review and individual patient data meta-analysis of randomised controlled trials. Ageing Res Rev. 2023, DOI: 10.1016/j.arr.2023.101923.

* Der für den Vitamin D-Mangel genutzte Schwellenwert des 25-Hydroxyvitamin D-Spiegels im Blut lag bei 30 nmol/L (= 12 ng/ml). Zählt man Personen mit einer weniger gravierenden Vitamin D-Unterversorgung (25-Hydroxyvitamin D-Spiegels im Blut < 50 nmol/L (= 20 ng/ml)) hinzu, weisen etwas mehr als die Hälfte der Deutschen zumindest eine Unterversorgung auf. Es gibt jedoch auch Leitlinien, die andere Schwellenwerte benutzen. Da der Vitamin D-Spiegel im Blut v.a. von der Besonnung der Haut abhängt, schwankt dieser Prozentsatz zudem stark mit den Jahreszeiten.

** In den Studien wurden als tägliche niedrige Dosierungen 400 bis 4000 IU pro Tag eingesetzt, und als hohe Einzeldosis 60.000 bis 120.000 IU einmal pro Monat oder seltener.

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.

Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:

Nationale Centren für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 7 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)

Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

(nach oben)


Magnetbakterien: Mikroorganismen können helfen, gefährliche Schwermetalle aus dem Abwasser zu holen

Simon Schmitt Kommunikation und Medien
Helmholtz-Zentrum Dresden-Rossendorf
Einem Forschungsteam des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) ist es gelungen, uranhaltiges Wasser mittels einer besonderen Art von Bakterien zu reinigen – den sogenannten magnetotaktischen Bakterien, die ihren Namen der Fähigkeit verdanken, auf Magnetfelder reagieren zu können. Sie sind in der Lage, in Lösung befindliche Schwermetalle in ihre Zellwand einzubauen. Die Forschungsergebnisse (DOI: 10.1016/j.jhazmat.2022.129376) werfen auch ein neues Licht auf die Wechselwirkungen von Uran mit Bioliganden.

„Wir zielen mit unseren Untersuchungen auf mögliche industrielle Anwendungen im Bereich der mikrobiologischen Sanierung von Wässern, die insbesondere mit Schwermetallen kontaminiert sind, wie sie etwa in den ehemaligen Uranminen als Flutungswasser vorkommen“, erklärt Dr. Evelyn Krawczyk-Bärsch vom Institut für Ressourcenökologie am HZDR. „Für dieses Projekt haben wir uns Hilfe bei einer ganz besonderen Gruppe von Lebewesen geholt: bei den magnetotaktischen Bakterien“, fügt ihr Kollege Dr. Johannes Raff hinzu und ergänzt: „Aufgrund ihres Aufbaus sind sie geradezu prädestiniert für eine solche Aufgabe.“

Denn sie weisen eine Besonderheit auf, die sie von anderen Bakterien unterscheiden: Magnetotaktische Bakterien bilden nanoskopisch kleine Magnetitkristalle in ihrem Zellinneren. Sie sind wie auf einer Perlenschnur aufgereiht und von so perfekter Gestalt, dass sie der Mensch auf synthetischem Wege zurzeit nicht kopieren könnte. Die einzelnen magnetischen Kristalle sind jeweils umgeben von einer schützenden Membran. Kristalle und Membran bilden die sogenannten Magnetosome, mit deren Hilfe sich die Bakterien entlang des Erdmagnetfeldes ausrichten und sich so in ihrem Lebensraum orientieren – und sie zugänglich für einfache Trennprozesse machen.

Sie sind fast überall in wässriger Umgebung verbreitet, vom Süß- bis hin zum Salzwasser, auch dort, wo es nur wenige Nährstoffe gibt. Der Mikrobiologe Dr. Christopher Lefèvre hat sie sogar in den heißen Quellen Nevadas gefunden. Von ihm und seinem Kollegen Dr. Damien Faivre vom französischen Forschungszentrum für Kernenergie, dem Kommissariat für Atomenergie und alternative Energien (CEA), haben die Rossendorfer ihren Bakterienstamm bekommen, und dazu gleich noch fachkundige Tipps, wie sie sich am besten halten lassen. Denn trotz ihres häufigen Vorkommens gilt es, bei ihrer Kultivierung einiges zu beachten.

Stabiler Schwermetall-Sammler in lebensfeindlicher Umgebung
Magnetotaktische Bakterien sind bei neutralen pH-Werten selbst bei höheren Uran-Konzentrationen in wässrigen Lösungen lebensfähig. Sie bauen das aufgenommene Uran über einen weiten pH-Bereich fast ausschließlich in ihrer Zellwand ein – ausgezeichnete Grundlagen, um mit den Bedingungen zurechtzukommen, wie sie in bergbaurelevanten Wässern vorkommen. Dabei gelangt kein Uran ins Zellinnere, es wird auch nicht von den Magnetosomen gebunden.

Es war vorher schon bekannt, dass unterschiedliche Bakterientypen Schwermetalle in ihrer Zellwand binden, obwohl diese ganz unterschiedlich aufgebaut sein können. Im Falle der magnetotaktischen Bakterien besteht die Zellwand aus einer nur vier Nanometer dünnen Peptidoglykan-Schicht, einem aus Zuckern und Aminosäuren zusammengesetzten Makromolekül, das Hauptbestandteil der Zellwände vieler Bakterien ist. Die Zellwand magnetotaktischer Bakterien wird durch eine äußere Membran abgeschlossen, die aus Zuckern und fettähnlichen Bestandteilen besteht: potenzielle Andockstellen für Uran.

„Unsere Ergebnisse zeigen, dass bei den magnetotaktischen Bakterien Peptidoglykan während der Aufnahme von Uran die Hauptrolle spielt. Diese Erkenntnis ist neu und war bei diesem Bakterientyp nicht zu erwarten“, berichtet Krawczyk-Bärsch. Es gelang dem Team sogar, drei konkrete Uran-Peptidoglykan-Spezies zu bestimmen und das Ergebnis mit Referenzproben zu bestätigen. Die neuen Erkenntnisse wurden erst durch eine Kombination von Mikroskopie und verschiedenen spektroskopischen Techniken möglich, wie sie weltweit nur selten zur Verfügung steht: „So konnten wir in Zusammenarbeit mit dem Institut für Ionenstrahlphysik und Materialforschung am HZDR beispielsweise das Elektronenstrahl-Mikroskop einsetzen. Die örtliche Konzentrierung unserer Institute am Standort und die Expertise unserer Kolleginnen und Kollegen sind ein großer Vorteil für unsere Arbeit“, resümiert Raff.

Bedeutung für die Sanierung kontaminierter Gewässer
Magnetotaktische Bakterien können aufgrund ihrer magnetischen Eigenschaften mittels Magneten leicht aus Wässern abgetrennt werden. „Dies ist auch im großen Stil in Form einer Behandlung direkt in oberflächennahen Gewässern oder über das Abpumpen des Wassers aus Untertage-Bergwerken und dem Weiterleiten in Pilotkläranlagen vorstellbar“, erläutert Krawczyk-Bärsch mit Blick auf die Entwicklung innovativer Sanierungsstrategien für kontaminiertes Wasser: Der Einsatz von magnetotaktischen Bakterien könnte eine wirksame Alternative zu teuren und konventionellen chemischen Behandlungen sein. Denn magnetotaktische Bakterien sind genügsam in der Haltung, während zum Beispiel die Überführung anderer Biomasse-basierter Lösungen in die Praxis regelmäßig am Preis scheitern, der einem erhöhten Nährstoff- und Energiebedarf geschuldet ist.

Und noch ein weiteres Detail hat das Interesse der Forschenden an diesen Bakterien geweckt: Ihre Proteine sind in der Lage, zwei- und dreiwertiges Eisen so zu stabilisieren, dass die Synthese des in die Magnetosomen eingelagerten Magnetits gelingt. „Uns stellt sich deshalb besonders eine Frage: Wie werden diese Mikroorganismen mit Radionukliden verschiedener Oxidationsstufen wechselwirken? Wir denken da insbesondere an Plutonium“, erklärt Raff. Denn anders als bei Uran ist es denkbar, dass es aufgrund seiner chemischen Ähnlichkeit zu Eisen ähnliche Aufnahmewege in die Zelle nutzt. Wie beeinflusst dies das Wanderungsverhalten von Plutonium in der Natur und ließe sich auf diesem Wege auch Plutonium aus Abwässern entfernen? Das Thema ist deshalb ebenfalls relevant für die Endlagerforschung: Etwaige Ergebnisse könnten dann in die Sicherheitsabschätzung einfließen.

Publikation:
E. Krawczyk-Bärsch, J. Ramtke, B. Drobot, K. Müller, R. Steudtner, S. Kluge, R. Hübner, J. Raff, Peptidoglycan as major binding motif for Uranium bioassociation on Magnetospirillum magneticum AMB-1 in contaminated waters, Journal of Hazardous Materials, 2022 (DOI: 10.1016/j.jhazmat.2022.129376 )

Weitere Informationen:
Dr. Evelyn Krawczyk-Bärsch | Dr. Johannes Raff
Institut für Ressourcenökologie am HZDR
Tel.: +49 351 260 2076 | +49 351 260 2951
E-Mail: e.krawczyk-baersch@hzdr.de | j.raff@hzdr.de

Medienkontakt:
Simon Schmitt | Leitung und Pressesprecher
Abteilung Kommunikation und Medien am HZDR
Tel.: +49 351 260 3400 | Mobil: +49 175 874 2865 | E-Mail: s.schmitt@hzdr.de

Das Helmholtz-Zentrum Dresden-Rossendorf (HZDR) forscht auf den Gebieten Energie, Gesundheit und Materie. Folgende Fragestellungen stehen hierbei im Fokus:
• Wie nutzt man Energie und Ressourcen effizient, sicher und nachhaltig?
• Wie können Krebserkrankungen besser visualisiert, charakterisiert und wirksam behandelt werden?
• Wie verhalten sich Materie und Materialien unter dem Einfluss hoher Felder und in kleinsten Dimensionen?

Das HZDR entwickelt und betreibt große Infrastrukturen, die auch von externen Messgästen genutzt werden: Ionenstrahlzentrum, Hochfeld-Magnetlabor Dresden und ELBE-Zentrum für Hochleistungs-Strahlenquellen.
Es ist Mitglied der Helmholtz-Gemeinschaft, hat sechs Standorte (Dresden, Freiberg, Görlitz, Grenoble, Leipzig, Schenefeld bei Hamburg) und beschäftigt fast 1.500 Mitarbeiter*innen – davon etwa 670 Wissenschaftler*innen inklusive 220 Doktorand*innen.

Wissenschaftliche Ansprechpartner:
Dr. Evelyn Krawczyk-Bärsch | Dr. Johannes Raff
Institut für Ressourcenökologie am HZDR
Tel.: +49 351 260 2076 | +49 351 260 2951
E-Mail: e.krawczyk-baersch@hzdr.de | j.raff@hzdr.de

Originalpublikation:
E. Krawczyk-Bärsch, J. Ramtke, B. Drobot, K. Müller, R. Steudtner, S. Kluge, R. Hübner, J. Raff, Peptidoglycan as major binding motif for Uranium bioassociation on Magnetospirillum magneticum AMB-1 in contaminated waters, Journal of Hazardous Materials, 2022 (DOI: 10.1016/j.jhazmat.2022.129376 )

Weitere Informationen:
https://www.hzdr.de/presse/magnetic_bacteria

(nach oben)


Decoding Love: Studie an der Universität Wuppertal untersucht Auswirkungen der Smartphonenutzung in Liebesbeziehungen

Marylen Reschop Pressestelle
Bergische Universität Wuppertal
Das Smartphone ist in unserem Alltag allgegenwärtig – im Durchschnitt vergehen weniger als zwanzig Minuten zwischen zwei Blicken, die wir darauf werfen. In zwischenmenschlichen Beziehungen kann das zu Konflikten führen. Die Wirkung von Smartphonenutzung in sozialen Situationen schauen sich Wissenschaftlerinnen der Bergischen Universität Wuppertal schon länger genauer an. In einer neuen Studie widmen sie sich nun konkret Liebesbeziehungen: Wie wirkt sich der unangemessene Gebrauch – auch als Phubbing bezeichnet – auf das Wohlbefinden von Paaren und ihre Nähe zueinander aus? Und was hilft dabei, das Verhalten zu ändern?

Derzeit sucht das Team vom Lehrstuhl für Gesundheitspsychologie und Angewandte Diagnostik noch Paare, die an der Studie teilnehmen wollen. Geleitet wird die Studie von Prof. Dr. Theda Radtke. Die Lehrstuhlinhaberin erklärt, wer fürs Mitmachen in Frage kommt: „Wenn Paare zusammenleben, das Smartphone Thema in der Beziehung ist und der Wunsch besteht, das zu ändern, können sich die Paare bei uns melden bzw. direkt die erste Kurzbefragung ausfüllen.“ Die, so die Forscherin, dauere rund zehn Minuten und diene ihrem Team dazu, eine erste Einschätzung der Situation des Paares vorzunehmen. Passen die Teilnehmenden ins Profil der Studie, folgen in den darauffolgenden drei Wochen noch drei weitere Online-Befragungen.

Paare unterstützen dabei nicht nur die Wissenschaft – sie tun vor allem etwas für ihre Beziehung: „Die Teilnahme an der Studie ermöglicht es den Paaren, ihre Smartphone-Nutzung zu reflektieren und im besten Fall ihre Beziehung zu stärken“, so Radtke. Dabei sollen auch ganz konkrete Tipps helfen, die die Wissenschaftlerinnen Paaren, bei denen die Smartphonenutzung zu Meinungsverschiedenheiten und Konflikten führt, an die Hand geben. „Wir begleiten die Paare über ein paar Wochen, um langfristige Effekte erzielen zu können und um ihnen zu zeigen, wie sich unangemessene Nutzungszeiten in Gegenwart des anderen reduzieren lassen.“

Infobox: Studie Decoding Love
Weiterführende Infos zur Studie und die erste Kurzbefragung gibt es hier: https://www.soscisurvey.de/decoding-love/

Gesucht werden Personen, die mindestens 18 Jahre alt sind, und mit dem*der Partner*in zusammenleben. Nur eine Person der Paarbeziehung füllt die Online-Befragungen aus, daher sollte zuvor besprochen werden, wer an der Studie teilnimmt. Teilnehmende haben die Chance auf Gutscheine im Gesamtwert von 250 Euro.

Weitere Fragen können an decodinglove@uni-wuppertal.de gerichtet werden.

Weitere Informationen:
https://health.uni-wuppertal.de/de/ – Mehr zur Forschung des Lehrstuhls

(nach oben)


Es darf gedüngt werden! Pressemitteilung und -einladung

Ine Haesaert Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ)
In der Schorfheide startet am Montag, den 15. Mai 2023 ein neuer Feldversuch mit Recyclingdüngern aus Inhalten aus Trockentoiletten. Erstmalig werden auf einem ca. sechs Hektar großen Ackerschlag der Schorfheider Agrar GmbH Recyclingdünger aus menschlichem Urin und Kot für den Anbau von Silomais angewendet.

In den kommenden Monaten werden die am Ertrag gemessene Düngewirkung sowie die Klima- und Schadwirkung untersucht. Besonderes Augenmerk wird dabei auf pharmazeutischen Rückständen liegen. Die Ergebnisse des Feldversuchs sollen Aufschluss darüber geben, ob solche neuartigen Dünger schadlos angewendet und synthetische Mineraldünger ersetzen können.
Die Firma Finizio veredelt den Recyclingdünger, dessen Basis in Trockentoiletten gesammelter menschlicher Kot ist, in Eberswalde auf dem Gelände der Kreiswerke Barnim. Die Recyclingdünger auf Urinbasis stammen von der Schweizer Firma Vuna. In Kürze wird eine Urinaufbereitungsanlage für die Herstellung von Recyclingdünger aus Urin auch in Eberswalde in Betrieb genommen.
Die Verwertungsanlage in Eberswalde und der Feldversuch sind Teil des Forschungsprojekts zirkulierBAR, welches für drei Jahre vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird. Es verfolgt die Vision einer Sanitär- und Nährstoffwende – d.h. Nährstoffe aus verzehrten Lebensmitteln zurück-zugewinnen und diese im Sinne einer nachhaltigen, regionalen Kreislaufwirtschaft wieder der Landwirtschaft zuzuführen.
Am 17.05.23 laden wir Sie herzlich von 14-16 Uhr zu den Kreiswerken Barnim nach Eberswalde ein – dem Ort an dem die Recyclingdünger entstehen. Sie können, das Forschungsprojekt zirkulierBAR kennenzulernen, die Anlage zur Verwertung von Inhalten aus Trockentoiletten besichtigen und Fragen rund um Trockentoiletten und Recyclingdünger stellen.
Rede und Antwort stehen Ihnen Jan-Ole Boness, Verantwortlicher für die Düngeversuche, sowie Ariane Krause und Corinna Schröder, Koordinatorinnen des Projekts zirkulierBAR am Leibniz-Institut für Gemüse- und Zierpflanzenbau e.V..
Treffpunkt ist der Parkplatz vor dem Verwaltungsgebäude der Kreiswerke Barnim am Standort Eberswalde (Ostender Höhen 70, 16225 Eberswalde).
Um eine Anmeldung unter presse@zirkulierbar.de bis zum 16.05.2023 wird gebeten.

Wissenschaftliche Ansprechpartner:
Dr. Ariane Krause | presse@zirkulierbar.de

Weitere Informationen:
https://zirkulierbar.de/ Projekt zirkulierBAR

(nach oben)


Schutz vor UV-Strahlung am Arbeitsplatz verbessern

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
FAU-Studie liefert wichtige Erkenntnisse für die Hautkrebsprävention bei der Arbeit im Freien

Die ultraviolette (UV) Strahlung der Sonne ist seit 1992 von der internationalen Agentur für Krebsforschung als krebserregend für den Menschen eingestuft und der wichtigste äußere Faktor für die Entstehung von Hautkrebs. Menschen, die überwiegend im Freien arbeiten, haben ein erhöhtes Risiko, an Hautkrebs zu erkranken. Ein Forschungsteam der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) hat in zwei Untersuchungen ermittelt, ob und wie sich Beschäftigte in Deutschland, die viel im Freien arbeiten, vor starker Sonneneinstrahlung schützen und welche Maßnahmen zur Vorbeugung von Hautkrebs Arbeitgeber treffen. Sie stellten dabei unter anderem Geschlechts- und Branchenunterschiede zwischen dem individuellen Sonnenschutzverhalten fest.

„Seit 2015 können das Plattenepithelkarzinom und dessen Vorstufen, die aktinischen Keratosen, bei Beschäftigten im Freien als Berufskrankheit in Deutschland anerkannt und entschädigt werden. Nach den COVID-19-Infektionen und der Lärmschwerhörigkeit sind diese Erkrankungen zur dritthäufigsten anerkannten Berufskrankheit und zum häufigsten Berufskrebs geworden. Gefährdet sind in Deutschland 2 bis 3 Millionen Beschäftigte und das berufliche Krebsrisiko ist deutlich höher als es bei chemischen Arbeitsstoffen oder radioaktiver Strahlung in unserer Arbeitswelt akzeptiert oder toleriert wird“, sagt Prof. Dr. Hans Drexler, Lehrstuhl für Arbeits- und Sozialmedizin, der maßgeblich daran beteiligt war, dass diese Krebsformen als Berufskrankheit eingestuft wurden. Die Behandlungskosten für das Plattenepithelkarzinom und aktinische Keratosen werden in Deutschland auf 3,15 Millionen Euro pro Jahr geschätzt. Deshalb spielt der Sonnenschutz bei der Arbeit nicht nur eine wichtige Rolle für die einzelnen Beschäftigten, sondern auch für die Gesellschaft.

Geschlechtsunterschiede bei der Verwendung von Sonnenschutzmitteln
Das Forschungsteam der FAU um Prof. Dr. Katharina Diehl und PD Dr. Tatiana Görig, beide Professur für Epidemiologie und Public Health, sowie Prof. Dr. Hans Drexler befragte im Rahmen der siebten Welle des Nationalen Krebshilfe-Monitorings (NCAM) Beschäftigte, die mindestens zwei Stunden täglich im Freien arbeiteten wie beispielsweise auf Baustellen, in Kindertagesstätten, bei der Polizei, der Müllabfuhr oder Post- und Paketdiensten. Dabei stellten sie fest, dass nur rund 38 Prozent aller Teilnehmenden Sonnenschutz fürs Gesicht verwendeten, Frauen häufiger als Männer. Männer hingegen trugen eher Sonnenschutzkleidung, darunter etwa Hemden, die die Schultern bedecken, und Kopfbedeckungen.

Länge der Arbeitszeit hat Einfluss auf das Tragen von Schutzkleidung
Männliche Beschäftigte, die wenigstens vier Stunden im Freien arbeiteten, trugen häufiger ein schulterbedeckendes Shirt oder Hemd als Personen, die zwei bis drei Stunden im Freien tätig sind (88 Prozent gegenüber 73 Prozent). Auch die Branche spielte beim Sonnenschutz eine Rolle: Wer eine Uniform oder festgelegte Arbeitskleidung tragen musste wie bei der Polizei, im Sicherheitsdienst oder im Post- und Paketdienst, gab häufiger an, schulterbedeckende Hemden zu tragen. Kopfbedeckungen wurden am häufigsten im Gartenbau getragen (47 Prozent). Besonders oft wurde zum Sonnenschutz die Mittagspause im Schatten verbracht (83 Prozent). Bei Frauen gab es hinsichtlich der Länge der Arbeitszeit im Freien und dem Sonnenschutz nur einen Zusammenhang zum vermehrten Tragen von Kopfbedeckungen.

„Unsere Studie hat gezeigt, dass beim Sonnenschutz für Beschäftigte, die im Freien arbeiten, noch viel Luft nach oben besteht, vor allem in Bezug auf die Verwendung von Kopfbedeckungen, Sonnenbrillen und Sonnenschutzmitteln. Insbesondere Männer müssten stärker sensibilisiert werden, Sonnenschutzmittel zu verwenden. Auch über den UV-Index, der die Stärke der UV-Strahlung angibt, sollte besser aufgeklärt werden. Unsere Ergebnisse können unter anderem für gezielte Kampagnen zur Prävention von Hautkrebs genutzt werden“, sagt Prof. Diehl.

Unternehmen stärker für den Sonnenschutz sensibilisieren
Eine weitere Auswertung der FAU-Arbeitsgruppe ergab, dass auch die Unternehmen mehr dazu beitragen könnten, die Beschäftigten vor der UV-Strahlung und damit vor Hautkrebs zu schützen. So gaben zum Beispiel 28 Prozent der Beschäftigten die Auskunft, dass ihnen während der Arbeitszeit selten oder nie ein Schattenplatz zur Verfügung gestellt würde. Hier gäbe es die Möglichkeit, Sonnenschutzzelte oder Überdachungen aufzubauen. Nur etwa die Hälfte der Beschäftigten (52 Prozent) erhielt Schutzkleidung vom Arbeitgeber, ein Viertel Sonnenschutzmittel (25 Prozent) – ein weiterer möglicher Ansatzpunkt für den Arbeitsschutz. Etwa ein Drittel der Befragten konnte an heißen Sommertagen morgens früher mit der Arbeit beginnen, um der höchsten UV-Strahlenbelastung aus dem Weg zu gehen. Falls Unternehmen die Arbeit an heißen Sommertagen zeitlich anders organisieren können, sollten sie auch diese Möglichkeit nutzen, lautet eine weitere Schlussfolgerung der Studie. „Neben individuellen verhaltensbezogenen Sonnenschutzmaßnahmen stellt der Sonnenschutz durch den Arbeitgeber eine wichtige Ergänzung dar“, sagt PD Dr. Görig.

„Durch den Klimawandel wird die Belastung durch UV-Strahlen am Arbeitsplatz weiter zunehmen. Unsere Studien liefern Ansatzpunkte für die Verbesserung des UV-Schutzes am Arbeitsplatz“, betont Prof. Diehl.

Links zu den beiden Publikationen:
https://doi.org/10.1093/annweh/wxad014
https://doi.org/10.1002/ajim.23480

Ansprechpartner/-innen für die Studien:
Prof. Dr. Katharina Diehl
Professur für Epidemiologie und Public Health
katharina.diehl@fau.de

PD Dr. Tatiana Görig
Professur für Epidemiologie und Public Health
tatiana.goerig@fau.de

Prof. Dr. Hans Drexler
Lehrstuhl für Arbeits- und Sozialmedizin
hans.drexler@fau.de

Gerne vermitteln wir Ihnen Forschende rund ums Thema Sonnenschutz, zum Beispiel:

Expert/-innen für primäre Prävention (Aufklärung, inkl. Sonnencremes), sekundäre Prävention (Hautkrebsscreening) und tertiäre Prävention (Tumorentfernung und Nachsorge) über:
Prof. Dr. Carola Berking, Hautklinik des Uniklinikums Erlangen
Tel.: 09131/85-33661, direktion.de@uk-erlangen.de

Sonnenschutz als gesellschaftliches Thema: Wie kann man sich vor der Sonne schützen und wo zeigen sich Defizite?
Prof. Dr. Katharina Diehl, Professur für Epidemiologie und Public Health
Tel.: 09131/85-22793, katharina.diehl@fau.de

Arbeitsmedizin und -schutz: Welche Möglichkeiten haben Arbeitnehmer/-innen, um sich angemessen vor Sonnenstrahlung zu schützen, und wie können Arbeitsgeber/-innen aktiv werden?
Prof. Dr. Hans Drexler, Lehrstuhl für Arbeits- und Sozialmedizin
Tel.: 09131/85-22312, hans.drexler@fau.de

Bei Fragen dürfen Sie sich auch gerne direkt an das Presseteam wenden unter 09131/85-70229 und presse@fau.de

(nach oben)


Mit grüner Energie und nachhaltigen Rohstoffen in die Zukunft

Sebastian Mense Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel
„Grüne Energie und nachhaltige Rohstoffe“ nennt sich eine SDG-Partnerschaft, die jetzt für die Universität Kassel eingeworben wurde. Gefördert wird sie vom Deutschen Akademischen Austauschdienst DAAD. Beteiligt sind das Fachgebiet Internationale Beziehungen des Fachbereichs Gesellschaftswissenschaften und das Centro de Estudios Latinamericanos (CELA) an der Universität Kassel.

Die SDG-Partnerschaften des DAAD fördern internationale Kooperationen, die die Umsetzung der UN-Ziele für Nachhaltige Entwicklung besonders unterstützen. Die geförderte Partnerschaft nimmt Bezug auf die Sustainable Development Goals „Bezahlbare und saubere Energie“ (SDG 7) und „Maßnahmen zum Klimaschutz“ (SDG 12).
Vor diesem Hintergrund wird Kassel in den kommenden vier Jahren intensiv mit der Universidad Nacional de San Martín (UNSAM) in Argentinien sowie der Universidad de la Habana (UH) in Kuba zusammenarbeiten. Denn: „Energiewende, Klimaschutz und Nachhaltigkeit klappen nicht ohne internationale Zusammenarbeit“, so Prof. Hans-Jürgen Burchardt, Fachgebiet Internationale Beziehungen des Fachbereichs Gesellschaftswissenschaften der Uni Kassel.

Durch die eingeworbene Fördersumme von mehr als 380.000 Euro werden bis 2026 pro Jahr 19 Forschungs- und Studienaufenthalte in alle drei Länder finanziert.
Davon profitieren Studierende, Promovierende sowie Professorinnen und Professoren. Ziel der Zusammenarbeit ist es, gemeinsam Lösungen im Feld der nachhaltigen Energie- und Rohstoffversorgung zu erforschen und umzusetzen. Nicht nur Wissen und Perspektiven werden ausgetauscht, sondern auch gemeinsame neue Lehrformate erprobt. Verschiedene Forschungen sowie Veröffentlichungen stehen ebenso auf dem Programm wie ein intensiver Wissenstransfer in Politik, Wirtschaft und Gesellschaft.
Das Projekt soll in Lateinamerika Leuchtturmfunktion erhalten, da sich die Region auf den Abbau und Export von hauptsächlich nicht erneuerbaren Rohstoffen spezialisiert hat. Zusätzlich fördert dieser Fokus bei allen Partnerinstitutionen eine Erweiterung und Stärkung bereits bestehender SDG-Themen, die auf sozial-ökologische Forschung, nachhaltige Entwicklung und globale Ungleichheit ausgerichtet sind.

Das Projekt wird die Internationalisierung der Forschung und Lehre der Universität Kassel und des CELA in wichtigen Feldern stärken und ist ein bedeutender Mosaikstein beim Aufbau des neuen Kassel Institute for Sustainability. Die erfolgreiche Einwerbung zeigt gleichzeitig, dass Nachhaltigkeit bereits ein wichtiges Markenzeichen der Universität und Region Kassel ist.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Jürgen Burchardt
FG Internationale und intergesellschaftliche Beziehungen
Telefon: 0561 804-2797
Mail: magura@uni-kassel.de

(nach oben)


Post-Covid: keine falschen Versprechungen!

Natascha Hövener Pressekontakt
Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin e. V.
Im Gesundheitsausschuss wurde im April 2023 über die Versorgungssituation von Post-Covid- und ME/CFS-Betroffenen diskutiert – das ist wichtig, allerdings fanden die Beratungen unter Ausschluss der wissenschaftlichen Expertise der Allgemeinmedizin statt. Die Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) empfiehlt, diese Expertise künftig von Beginn an in solche Debatten und strukturelle Überlegungen einzubeziehen. Gleichzeitig warnt die DEGAM davor, spezialisierte Ambulanzen flächendeckend aufzubauen, die zum jetzigen Zeitpunkt (noch) kein erfolgversprechendes und evidenzbasiertes Therapieangebot machen können.

Im Gesundheitsausschuss wurde kürzlich über die Versorgung von Patientinnen und Patienten gesprochen, die an Post-Covid und / oder Myalgischer Enzephalomyelitis / Chronischem Fatigue-Syndrom (ME/CFS) leiden. Leider war die DEGAM, die die Perspektive der evidenzbasierten Allgemeinmedizin vertritt, nicht zur Anhörung geladen. Aus Sicht der DEGAM wäre es unethisch und auch ineffizient, hier eine neue Versorgungsebene in Aussicht zu stellen: Auch Ambulanzen können den Post-Covid-Betroffenen zum jetzigen Zeitpunkt wenig Konkretes anbieten.

„Spezialisierte Ambulanzen können nur dann helfen, wenn sie etwas anbieten können, das verfügbar und nachweislich wirksam ist. Das ist im Moment nicht der Fall, da weder einheitliche Diagnose-Kriterien noch Nachweise über evidenzbasierte erfolgreiche Therapieoptionen vorliegen. Insofern sollten hier keine Versprechungen gemacht werden“, warnt Prof. Martin Scherer, Präsident der DEGAM. „Was wir aber unbedingt tun sollten, ist, die wissenschaftliche Expertise der Allgemeinmedizin von Anfang an in solche strukturellen Fragen mit einzubeziehen. Und wir müssen die hausärztliche Versorgungsebene so stärken, dass Post-Covid- und ME/CFS-Patientinnen und Patienten in der Fläche bestmöglich begleitet werden können.“

Die DEGAM weist in diesem Zusammenhang auch auf den Unterschied von Long- und Post-Covid und ME/CFS hin: „Wir gehen davon aus, dass die allermeisten, die an Long-Covid-Symptomen leiden, wieder gesund werden. Einige der Betroffenen erkranken allerdings stark, mit einem monatelang hohen Leidensdruck. Dann sprechen wir von Post-Covid. Bei Post-Covid gibt es bisher keine schnellen Lösungen. Wir brauchen, wie bei manch anderen Krankheitsbildern auch, viel Geduld. Zwischen Post-Covid und ME/CFS gibt es große Überschneidungen. Allerdings fehlen uns zu den genaueren Abgrenzungen bisher gute Daten, so dass wir nicht wissen, wie die Gesamtsituation wirklich aussieht.“

Die DEGAM möchte ausdrücklich davor warnen, das Leid und die Not der Betroffenen nicht ernst zu nehmen – und mahnt gerade deshalb an, wirklich wirksame Lösungen zu finden. Ein zentraler Punkt dabei ist auch die Erforschung der Krankheitsbilder. Hierfür sollte auch die Initiative Deutscher Forschungspraxennetze – DESAM-ForNet, eine bundesweite Forschungsinfrastruktur in der Hausarztmedizin, genutzt werden.

„Der Wissenstransfer in die Hausarztpraxen gelingt dann insbesondere durch unsere Leitlinien. Wir haben kürzlich ein Update der Leitlinie Müdigkeit mit eigenem ME/CFS-Kapitel publiziert und sind an der Post-Covid-Leitlinie beteiligt“, erklärt Martin Scherer abschließend.

Pressekontakt:
Natascha Hövener
Pressesprecherin
Telefon: 030 – 20 966 98 16
E-Mail: hoevener@degam.de

Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM)
Schumannstraße 9, 10117 Berlin
http://www.degam.de
Präsident: Prof. Dr. med. Martin Scherer (Hamburg)

Die Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) ist eine wissenschaftliche Fachgesellschaft. Ihre zentrale Aufgabe ist es, die Allgemeinmedizin als anerkannte wissenschaftliche Disziplin zu fördern und sie als Rückgrat der Patientenversorgung weiterzuentwickeln. Die DEGAM ist Ansprechpartnerin bei allen Fragen zur wissenschaftlichen Entwicklung der Allgemeinmedizin an den Hochschulen, zur Fort- und Weiterbildung sowie zum Qualitätsmanagement. Sie erarbeitet eigene wissenschaftlich fundierte Leitlinien für die hausärztliche Praxis und beteiligt sich auch an interdisziplinären Leitlinien anderer Fachgesellschaften. Die Aktivitäten der Nachwuchsförderung sind in der Deutschen Stiftung für Allgemeinmedizin und Familienmedizin (DESAM) zusammengefasst.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Martin Scherer, Präsident der DEGAM
E-Mail: m.scherer@uke.de

(nach oben)


SEMAplus: Neues Tool für Alterungsprognosen von Abwasser- und Wassernetzwerken wird in Lausanne eingesetzt

Moritz Lembke-Özer Presse- und Öffentlichkeitsarbeit
Kompetenzzentrum Wasser Berlin gGmbH (KWB)
Im Rahmen eines 3-jährigen Projekts wird die Stadt Lausanne das innovative Tool SEMAplus für Alterungsprognosen von Abwasser- und Wassernetzwerken einsetzen und weiterentwickeln. Die Softwarelösung, die dazu beiträgt, die Wassersysteme für zukünftige Generationen zu erhalten, wurde vom Kompetenzzentrum Wasser Berlin (KWB) und den Berliner Wasserbetrieben entwickelt.

Im Rahmen eines 3-jährigen Projekts wird die Stadt Lausanne das innovative Tool SEMAplus für Alterungsprognosen von Abwasser- und Wassernetzwerken einsetzen und weiterentwickeln. Die Softwarelösung, die dazu beiträgt, die Wassersysteme für zukünftige Generationen zu erhalten, wurde vom Kompetenzzentrum Wasser Berlin (KWB) und den Berliner Wasserbetrieben entwickelt. Erstere ist eine gemeinnützige Forschungsorganisation mit Sitz in Berlin, die innovative und praxisnahe Lösungen für Herausforderungen im Bereich der Wasserwirtschaft entwickelt, während letztere das größte kommunale Wasserversorgungs- und Abwasserentsorgungsunternehmen in Deutschland ist. SEMAplus wird derzeit in Berlin für über 10.000 km Abwassernetz eingesetzt, um die jährliche Finanzplanung für Kanalsanierungen zu optimieren.

Alternde Wasser- und Abwassernetze erfordern enorme Investitionen für Instandhaltungen, die einen erheblichen Anteil kommunaler Budgets ausmachen. Die auf maschinellem Lernen basierende Softwarelösung SEMAplus liefert schnelle und genaue Informationen zur Lokalisierung von dringenden Sanierungsbedarfen sowie eine Grundlage für langfristige Investitionsplanung. Hierfür benötigt SEMAplus nur eine begrenzte Menge an Inspektionsdaten (visuelle Inspektion der Kanäle durch CCTV-Kameras), technischen Daten (Alter, Material, Durchmesser usw.) und Umweltdaten (Verkehrsbelastung, Grundwasserspiegel).

In Lausanne werden die vorhandenen Module von SEMAplus implementiert und erweitert, um spezifischen Bedürfnissen vor Ort gerecht zu werden. Das Hauptziel besteht darin, ein Tool bereitzustellen, das das Asset Management von Felddaten (CCTV-Inspektion von Kanälen oder Lokalisierung von Schäden) integriert und Informationen liefert, wo der Austausch bzw. die Sanierung von Kanalhaltungen priorisiert werden sollte.

SEMAplus wird durch ein neues Modul erweitert, das den Zustand der Kanalhaltungen automatisch auf Basis der visuellen Abwasserinspektionsberichte durch CCTV-Kameras bewertet. Ziel ist es, einen einzigen Zustandswert für jeden Abschnitt zu erhalten, der zusammen mit Daten zu Abwassereigenschaften und relevanten Umweltfaktoren verwendet wird, um die Ausfallwahrscheinlichkeit zu simulieren. Das Ergebnis ist eine Liste sowohl aller inspizierten als auch uninspizierten Kanalhaltungen, die nach ihrem unmittelbaren Sanierungsbedarf sortiert sind.

Weiterhin werden auch neue maschinelle Lernmethoden untersucht, um die Genauigkeit unserer Vorhersagen zu verbessern. Die Modellgenauigkeit ist in Lausanne von besonderer Relevanz, da die Ergebnisse unmittelbar zur Entscheidung über lokale Baumaßnahmen genutzt werden können. Ein weiteres spezielles Modul wird für die Priorisierung der Sanierungsbedürfnisse von Kanalhaltungen entwickelt, die das Risiko und die Folgen von Ausfällen besonders berücksichtigen. Die zugrundeliegende Analyse wird in enger Zusammenarbeit mit Experten der französischen Forschungsinstitute Institut National de la Recherche Agronomique (INRAE) und Institut National Des Sciences Appliquées Lyon (INSA) durchgeführt. Das Modul ermöglicht die Berücksichtigung zusätzlicher Auswirkungs- oder Verwundbarkeitskriterien zur Priorisierung von Sanierungsinvestitionen (z.B. unter stark befahrenen Straßen oder in Ressourcenschutzgebieten). Außerdem wird das vorhandene Tool für das Asset Management des Trinkwassernetzes der Stadt Lausanne, das auf derselben Philosophie basiert, aufgerüstet und in SEMAplus integriert.

Schließlich wird SEMAplus auf strategischer Ebene genutzt, um die Entwicklung des Netzwerkzustands für die nächsten zehn Jahre zu simulieren. Ziel ist es, die Verschlechterung oder Verbesserung des Zustands des Netzwerks zu visualisieren, abhängig von den jährlichen Investitionen für Kanalsanierungen und den verwendeten Sanierungstechniken (z.B. überwiegend Reparatur, Renovierung oder Austausch). Angesichts hoher Investitionskosten liefert SEMAplus der Stadt Lausanne Argumente, die Relevanz der vorgeschlagenen Investitionen zu begründen und Gemeinden dazu zu bewegen, gezielt in Kanalsanierungen zu investieren.

Indem es schnelle und präzise Informationen zur Lokalisierung dringender Sanierungsbedarfe bereitstellt und eine Grundlage für langfristige Investitionsplanung schafft, wird SEMAplus das Asset Manage